Il Premio Nobel per la Fisica 2024 è stato assegnato a due geni della Intelligenza Artificiale “per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali”. Chi sono questi due signori? John Hopfield e Geoffrey Hinton.
John Joseph Hopfield è fisico, nato nel 1933 a Chicago Illinois (USA). Professore Emerito alla Princeton University, ideatore del “Hopfield network” (modello di rete neurale associativa).
Geoffrey Everest Hinton è psicologo e informatico, nato nel 1947 a Wimbledon (UK). Professore all’Università di Toronto (Canada) e ricercatore presso “Google Brain”, un team di ricerca di Google sul Deep Learning (apprendimento automatico profondo).
L’universo è uno
Come mai Psicologia e Informatica sono state integrate nella Fisica visto il settore del Nobel assegnato? Sembra che la Fisica stia espandendo il proprio territorio di gioco, oltre la Relatività, la Quantistica, il Modello Standard. Sembra che stia diventando la Scienza della Natura nella idea visionaria del fisico Stephen Hawking: la sua “Teoria del Tutto” sembra, oggi, delineare i suoi reali contorni. Non si tratta di esaltare campanilisticamente la Fisica ma si tratta di essere consapevoli che sta emergendo una visione, innovativa e rivoluzionaria, di un Universo unitario, coerente, armonico benché travagliato; anche lui, come noi, identico a sé stesso in ogni sua espressione.
Il vecchio pensiero conservatore della “specializzazione professionale” viene superato nella visione integrata della complessità della Natura, dove la complessità non è sinonimo di complicazione ma di un divenire estremamente sensibile allo stimolo dell’input.
Ricordate la storiella della farfalla? “Un battito d’ali di farfalla ad oriente, può causare una tremenda tempesta ad occidente”. In input, la causa, un insignificante battito d’ali; in output, l’effetto, la tremenda tempesta. Però, in questa visione di macchina caotica e disordinata, traballa la logica della rigida sequenza “causa-effetto” perché l’input iniziale del battito d’ali, nel suo evolversi fisico, si combina con altri numerosi, diversi, imprevedibili e casuali input. L’effetto non è più predicibile perché dipende non più da una unica causa ma dalla numerosità e causalità di cause concorrenti: la causa non è più unica ma è un aggregato di cause. È il sistema complesso che nemmeno un computer potente e ideale può descrivere. È il dominio della Probabilità e della Statistica.
Fisica come scienza della vita
Nella stessa maniera funziona il nostro cervello, costituito da complesse reti neurali che non dormono mai, che lavorano incessantemente, bombardate da infiniti input provenienti da un sistema sensoriale integrato e più ampio dei classici cinque sensi.
La indagine su come funzioni questo apparato neurale fanno passi da gigante ma si è ancora lontani dal capirne la vera valenza e la reale potenzialità. L’unico fatto certo è che il segreto di come funzioni è nel network. È un segreto molto ben custodito. Ad esempio, capire come sorga la “Coscienza” da questo intreccio reticolare è una notevole sfida intellettuale. La Coscienza, sappiamo tutti con certezza che esiste ma non sappiamo cosa sia.
Lo psicologo Stuart Sutherland scrive: “La coscienza è avere percezioni, pensieri e sentimenti: consapevolezza. E’ impossibile da definire… è impossibile specificare cos’è, cosa fa, e perché si sia evoluta. Non è stato scritto, al riguardo, nulla che valga la pena di essere letto”. Eppure, sono stati scritti, al riguardo, oltre 18.000 saggi.
Quindi, se la Intelligenza Artificiale è Fisica, allora la ricerca, di come funziona il cervello, si deve basare sul metodo scientifico. Alan Turing, matematico e filosofo, ha inventato una macchina (automa) calcolatrice, che infatti chiamiamo computer, basata sulla logica binaria, quella a due cifre, invece che a dieci cifre alle quali si è abituati.
Ma la questione straordinaria è che l’automa di Turing è più di un macchina calcolatrice, dedicata e specifica, come può esserlo anche una automobile utile solo per la mobilità. E’, invece, un automa “general purpose”: può fare di tutto, non solo operazioni aritmetiche di calcolo. E’ sufficiente istruirlo, cioè dargli le istruzioni, e, con esse, l’automa generale diventa “specifico”: assume il ruolo indicato dalle istruzioni.
Ora, la Fisica dimostra che, di un qualunque fenomeno, una volta interpretato, si può costruire un “modello” che si può descrivere nel linguaggio matematico (algoritmo). L’algoritmo rappresenta proprio le istruzioni da dare all’automa generale perché diventi specifico. Ecco che l’automa generale diventa l’automa/fenomeno. Se ne può, quindi, testare il funzionamento ed, eventualmente, correggerlo. Questo processo è il metodo scientifico, spina dorsale della Fisica. L’iter è: osservazione del fenomeno, interpretazione del funzionamento, costruzione del modello matematico, trasferimento del modello matematico all’automa generale per istruirlo e renderlo specifico, test dell’automa specifico.
La AI on the road
È analogo il processo nelle neuroscienze: a partire dalla osservazione sperimentale del cervello, necessaria per conoscerne la struttura (insieme di network fatti di neuroni e sinapsi) e il funzionamento, se ne costruisce un modello matematico con il quale si istruisce l’automa generale. Questo diventa il simulatore del cervello. Dalla antica macchina/calcolatrice si è arrivati alla macchina/cerebrale che funziona come il cervello e fa le stesse cose.
Ma, poi, John von Neumann, fisico e matematico, se ne inventa una delle sue. Sebbene la logica dica che un organismo può riprodurre, al massimo, un altro uguale a sé stesso, ma non migliore, la Natura dice tutt’altro. Charles Robert Darwin, biologo e naturalista, lo aveva capito, in tempi non sospetti, con la sua teoria della evoluzione. La Natura evolve, comunque e dovunque: nonostante l’umiltà del padre, il figlio può essere un genio. Ma allora, dice Neumann, un automa generale, istruito con l’algoritmo di replicazione, non solo è capace di riprodursi ma può generare un automa di capacità superiore a sé stesso. Una tesi rivoluzionaria che descrive una sorta di crescita naturale di qualità, di capacità, di sofisticazione.
Ecco che siamo arrivati al dunque: a quel dunque che suscita la paura della Umanità nell’avere intuito che la “intelligenza artificiale” è un pericolo non solo sociale ma esistenziale.
È la paura della “sostituzione etnica”.
Infatti, se la scienza riuscisse a ricostruisce il sistema potenziale di un cervello, ne realizzasse l’algoritmo e lo inserisse in un “automa capace di replicarsi”, avrebbe prodotto un “essere replicante”, dotato di Intelligenza Artificiale: una macchina/cerebrale più capace del suo creatore, migliore di un “uomo bionico”.
Inoltre, niente impedisce di pensare che quell’unico “essere replicante” possa produrre una inarrestabile moltitudine di macchine/cerebrali; tanti e di differentissimi livelli qualitativi, in capacità e in sofisticazione, che potranno sostituire tutti noi.
Ma ancora, niente impedisce di pensare che già noi, la attuale Umanità, sia fatta già di “esseri replicanti”, sofisticatissimi, prodotti da una Umanità che ci ha preceduto.
Quale n-esima replicazione siamo tutti noi? Perbacco. La Fisica può fare brutti scherzi! Quei due, Alan Turing e John von Neumann, non potevano pensare ai fatti invece di crearci tutti questi problemi?
I premi nobel
Ma veniamo all’argomento Premio Nobel per capire a che punto è la Intelligenza Artificiale. I due scienziati, John Hopfield e Geoffry Hinton hanno vinto i premi Nobel perché hanno individuato e proposto modelli della memoria e del deep Learning automatico (apprendimento profondo) che sono la piattaforma della intelligenza, sia quella artificiale che quella naturale.
Perché John Hopfield ha vinto il Nobel?
Il modello di Hopfield descrive la fenomenologia della memoria. Vediamo come funziona. Mentre una memoria artificiale, ad esempio un hard disk, è un insieme di bit, statico e immutabile, dove si registra una informazione, la memoria umana è “associativa” e “dinamica”. Significa che la memoria è collocata non in un punto specifico ma in un insieme di nodi e di link (network specifico) fatto di neuroni e sinapsi. Quando il network è eccitato da un input, allora i neuroni si attivano, le sinapsi si potenziano, il network si accende e si espande, e diventa “plastico” (nel senso che adotta una flessibile ristrutturazione di sé in relazione allo stimolo dell’input e a quanto già memorizzato). Il modello descrive come la informazione si memorizza e come quella memorizzata (ricordo) emerga come effetto dell’associazionismo del network. Più alto è il grado di associazionismo, più efficace è la funzione.
Perché Geoffrey Hinton ha vinto il Premio Nobel?
Il modello di Hinton descrive come funziona il deep Learning. Esso non si realizza, come si è abituati a credere con il formulare una sequenza di concetti definiti, puntualmente localizzati e correlati logicamente, fino alla tesi; ma con lo stratificare una sequenza di network specifici dove quello inferiore, di inferiore sofisticazione, produce risultati e valori per lo strato superiore dove l’informazione è elaborata in maniera sempre più completa. Ritroviamo il processo evolutivo; ritroviamo, per l’auto apprendimento, l’idea del modello di Hopfield dove è la memoria non è localizzata ma è distribuita in una rete eccitata.
La svolta dell’Intelligenza artificiale
In sostanza, memoria e apprendimento non hanno carattere locale ma è l’intera rete che memorizza e apprende. Cioè, il funzionamento si svolge nel collettivo dei neuroni e delle sinapsi non nella singolarità. In Fisica e nella realtà, il collettivo, come ad esempio l’insieme delle molecole di un gas, evolve secondo il principio della seconda legge della termodinamica verso lo stato statisticamente più probabile, ad entropia crescente, studiato da Ludwig Boltzmann, fisico e matematico. Ritroviamo la Fisica dell’Universo Uno: Intelligenza Artificiale, Probabilità, Statistica, Entropia… integrate in un Tutto.
Non c’è dubbio che gli algoritmi di simulazione abbiano bisogno di grandi Banche Dati e di una superlativa potenza di calcolo che può essere fornita, oggi, a malapena, dai super computer e, domani, dai computer quantici.
Non c’è dubbio che, con i progressi della ricerca neuro scientifica e con il progresso delle tecnologie informatiche, la Intelligenza Artificiale abbia un enorme potenziale che si può rivelare altamente pericoloso per l’uomo, come pericolosa si è rivelata la energia nucleare usata per moltissime applicazione a beneficio dell’uomo ma, anche, per distruggere ecosistemi, ambienti, cose e vite.
L’Umanità, nei riguardi della Intelligenza Artificiale, ha due scappatoie: coltivare la intelligenza che si suppone, almeno finora, non possa emergere dal network; alimentare il sistema valoriale umano, Morale ed Etica, come bastione contro l’illecito uso di strumenti di distruzione di massa come potrebbe diventare la AI.
Ce la farà la Umanità? Crediamo fermamente di sì perché ha sempre mostrato d’essere naturalmente resiliente.
Antonio Vox