È un po’ di tempo che non mi faccio sentire, quindi cercherò di farmi perdonare pubblicando un articolo diviso in due parti.
Sono io, Francesco, in diretta su #beyondIntelligence per #rubricheGalileiane, qui per ragionare con voi su uno degli aspetti meno discussi della Computazione Naturale. Per chi non lo sapesse, la Computazione Naturale è il ramo dell’informatica e della cibernetica che si occupa dell’elaborazione dell’informazione mediante l’utilizzo di algoritmi ispirati ad alcuni meccanismi naturali.
Come già anticipato, questo articolo sarà diviso in due parti: nella prima parte cercherò di costruire gli argomenti per rispondere alla domanda rimasta aperta alla fine del mio primo articolo, mentre nella seconda parte cercherò di portare la discussione su un piano più filosofico. Mi piacerebbe rendere la discussione aperta, interagendo con voi nei commenti di questo articolo e facendo un sunto della discussione nel prossimo articolo.
Claude Shannon
Un’immagine artistica ritrae Shannon raffigurato come sequenza di bit
Iniziamo col tornare un attimo indietro nel tempo, quando un certo Claude Shannon iniziò a definire i primi mattoni della Teoria dell’Informazione. Inizialmente nata con l’intento di fornire una formalizzazione della codifica delle informazioni, questa teoria matematica diventerà presto la base dell’informatica, partendo dalla formalizzazione del concetto di informazione, fino all’ipotesi dell’universo olografico. Uno dei concetti più importanti che Shannon ha introdotto è quello dell’Entropia, ovvero la “quantità di informazione” media contenuta in un messaggio. È interessante notare che le idee di Shannon abbiano influenzato e ispirato concetti della fisica completamente diversi, come l’informazione quantistica e l’interpretazione statistica dell’entropia termodinamica. I risvolti sia pratici che teorici che l’entropia di Shannon ha avuto sulla fisica e l’informatica sono innumerevoli, eppure la formulazione è estremamente semplice; lascio l’espressione sotto, senza spiegare cosa significa nel dettaglio, ma semplicemente per farvi ammirare la semplicità e la sinteticità di tale formula:
Entropia di Shannon
Una breve formula dai risvolti rivoluzionari
In soldoni, grazie alla teoria di Shannon, quanto più si conoscono i dettagli di un sistema fisico, tanto più questo sarà prevedibile, quindi è ragionevole pensare che sarà possibile in futuro simulare sistemi molto complessi come un organismo biologico: siamo agli albori della Computazione Naturale, quando Ulam e Von Neumann (lo stesso Von Neumann dell’architettura dei calcolatori e del Progetto Manhattan) proposero la definizione dell’automa cellulare, una formalizzazione matematica per schematizzare l’evoluzione dei sistemi complessi. Un classico esempio di automa cellulare è il gioco di Conway, un piccolo ecosistema di celle che si evolvono seguendo delle regole ben precise.
Il gioco della vita di Conway
Il gioco della vita di Conway

È interessante constatare che si può scegliere arbitrariamente il livello di astrazione di un automa cellulare: per emulare un sistema biologico molto complesso basta limitarsi all’astrazione cellulare, mentre per un sistema molecolare c’è bisogno di un automa che rispetti le regole del mondo quantistico e ad oggi ciò è al quanto difficile.
Con le moderne conoscenze quindi si potrebbe simulare qualcosa come il cervello umano, ammesso di avere abbastanza potenza computazionale da simulare ogni sua parte. Infatti, è possibile già ora ideare un modello di simulazione neurale costruito sulla base del nostro cervello: si conoscono nel dettaglio tutti i suoi componenti e il modo in cui interagiscono ed emulando la crescita fetale si evita di dover mappare tutte le connessioni sinaptiche (per gli amanti della combinatoria, il nostro cervello ha una possibilità su un numero maggiore degli atomi nell’universo di essere come è).

La Teoria del Tutto
La mia formamentis informatica mi porta a sostenere l’idea di un codice sorgente dell’Universo, ma ne parleremo nella prossima parte dell’articolo.

Eludendo la definizione di intelligenza, siamo arrivati a una conclusione: qualsiasi cosa significhi intelligenza, essa è computabile. Non che fosse una novità, negli scorsi articoli vi ho parlato del fatto che le strutture neurali sono degli approssimatori universali: il fatto che degli atomi di carbonio si siano organizzati per implementarle spontaneamente piuttosto che delle strutture di semiconduttori al silicio è pura casualità (o quasi, dal momento che le reazioni chimiche che coinvolgono il silicio sono più lente di quelle che vedono protagonista il carbonio).

È ragionevole pensare che da qualche parte nell’immenso universo, una civiltà di esseri senzienti basati sul silicio si stia chiedendo in questo istante se i loro computer di grafene siano considerabili vita.

Questa è solo la prima parte del viaggio che mi piacerebbe fare con voi attraverso i segreti più profondi della Teoria dell’Informazione, nel prossimo articolo andremo ancora più in profondità nella Tana del Bianconiglio. Ma prima di ciò, sono curioso di sapere la vostra opinione: la vita simulata è pur sempre vita? Sulla base del fatto che il nostro pensiero è dettato da regole chimiche più o meno deterministiche, dove è il nostro libero arbitrio? E il libero arbitrio di una macchina esiste?