John Hopfield e Geoffrey Hinton hanno permesso lo sviluppo delle reti neurali artificiali e Demis Hassabis, John M. Jumper e David Baker hanno utilizzato l’AI per lo studio delle proteine
L’intelligenza artificiale è diventata una presenza costante nelle nostre vite, dai traduttori automatici alle applicazioni per il riconoscimento delle immagini, dalla ricerca all’applicazione in medicina. Tuttavia, pochi conoscono le radici di queste tecnologie, che affondano le loro basi proprio nella fisica. Grazie al lavoro dei due Nobel per la Fisica 2024, John Hopfield e Geoffrey Hinton, oggi i nostri computer sono in grado di apprendere, riconoscere pattern e gestire grandi quantità di dati. E questo ha permesso anche di ampliare le conoscenze in ambito biologico. Infatti, Demis Hassabis e John M. Jumper hanno utilizzato con successo l'intelligenza artificiale per prevedere la struttura di quasi tutte le proteine conosciute. Mentre David Baker ha imparato a dominare gli elementi costitutivi della vita e a creare proteine completamente nuove. Il potenziale delle loro scoperte è enorme e per questo sono stati premiati con il Nobel per la Chimica.
Ma partiamo dalle premiazioni ufficiali. Il Premio Nobel per la Fisica 2024 “per le scoperte e le invenzioni fondamentali che consentono l'apprendimento automatico (machine learning) con le reti neurali artificiali” va a John Hopfield, professore all’Università di Princeton, e Geoffrey Hinton, professore all’Università di Toronto, che sono riusciti a creare la base per quella che è considerata una delle più grandi – e anche spaventose – tecnologie del nostro secolo. Il Nobel per la Chimica, invece, è stato diviso tra tre persone: una metà è stata assegnata a David Baker, professore presso l’Università di Washington, “per la progettazione computazionale di proteine”, e l'altra metà a Demis Hassabis (cofondatore di DeepMind) e John M. Jumper (fisico, dipendente di Google DeepMind), “per la previsione della struttura delle proteine”.
DALLA FISICA STATISTICA AL MACHINE LEARNING
Come raccontato sul sito del Premio Nobel, lo sviluppo dell'apprendimento automatico è esploso negli ultimi quindici o vent'anni e utilizza una struttura chiamata rete neurale artificiale. Sebbene i computer non possano pensare, le macchine possono ora imitare funzioni come la memoria e l'apprendimento. I vincitori di quest'anno nel campo della fisica hanno contribuito a renderlo possibile. Utilizzando concetti e metodi fondamentali della fisica, hanno sviluppato tecnologie che utilizzano le strutture delle reti per elaborare le informazioni. Se un software tradizionale riceve dei dati, questi vengono elaborati in base a una descrizione e producono dei risultati. Nel caso dell’apprendimento automatico – il machine learning – il computer apprende tramite esempi e non si limita a seguire le istruzioni passo dopo passo.
John Hopfield - professore emerito di scienze della vita e di biologia molecolare, professore associato di fisica e neuroscienze che ha insegnato per 16 anni come professore di fisica e ha contribuito a fondare il Princeton Neuroscience Institute - ha introdotto un modello fondamentale per l'apprendimento automatico, la cosiddetta rete di Hopfield, che può memorizzare e ricostruire informazioni. Questo tipo di rete si ispira al funzionamento del cervello umano, in particolare al modo in cui i neuroni si connettono tra loro.
Negli anni ’40 i ricercatori avevano iniziato a ragionare sul funzionamento della rete di neuroni e sinapsi del cervello e sulle teorie dell’apprendimento, grazie ad esempio al lavoro di Donald Hebb, considerato il padre della neuropsicologia. Dopo un momento in cui i dati scoraggianti spensero i riflettori sulle reti neurali, negli anni ’80 l’interesse si risvegliò. Nel 1980 Hopfield lasciò la sua posizione a Princeton per andare alla Calthech in California, dove aveva accesso a molte più risorse informatiche che poteva usare per sviluppare le reti neurali che avevano tanto attirato il suo interesse. Solo due anni dopo ha scoperto come funziona la memoria associativa: lo studioso ha poi utilizzato concetti provenienti dalla fisica per descrivere il funzionamento delle reti neurali artificiali.
Geoffrey Hinton, già insignito del Premio Turing nel 2018 (considerato il Nobel dell’informatica), ha esteso i concetti di Hopfield con l'introduzione della Boltzmann Machine nel 1985. Basata sulla fisica statistica, questa rete neurale artificiale utilizza equazioni derivate dalla teoria del fisico Ludwig Boltzmann. La Boltzmann Machine imita il processo di apprendimento umano, non basandosi su istruzioni precise ma su esempi: ciò le consente di riconoscere nuovi tratti familiari in informazioni che non ha mai visto prima. Nella sua forma originale la macchina di Boltzmann è piuttosto inefficiente e richiede molto tempo per trovare soluzioni, ma Hinton ha continuato a esplorare fino a sviluppare nuovi metodi per addestrare una rete sempre più complessa.
Questo modello ha posto le basi per i moderni modelli generativi utilizzati nelle attuali reti neurali profonde, che hanno iniziato a fare capolino verso il 2010. Lo sviluppo a cui stiamo assistendo è stato reso possibile dall'accesso a grandi quantità di dati che possono essere utilizzati per addestrare le reti e dall'enorme aumento della potenza di calcolo. Le reti neurali artificiali di oggi sono spesso enormi e il modo in cui vengono addestrate è chiamato deep learning.
SVELARE I SEGRETI DELLE PROTEINE GRAZIE ALL’INTELLIGENZA ARTIFICIALE
Venti amminoacidi che possono combinarsi in infiniti modi per formare una lunga catena che, ripiegandosi, dà origine alle proteine, molecole fondamentali per la vita. Ma è possibile conoscere la struttura di una proteina conoscendo la catena amminoacidica di partenza? I Nobel Demis Hassabis e John Jumper hanno risposto positivamente a questo problema che affligge i chimici organici da decenni. Infatti, hanno utilizzato l'intelligenza artificiale per prevedere la struttura tridimensionale di una proteina a partire da una sequenza di amminoacidi. L'altra metà del premio Nobel per la Chimica 2024 è stata assegnata a David Baker, che ha sviluppato metodi computerizzati per ottenere ciò che molti credevano impossibile: creare proteine che non esistevano in precedenza e che, in molti casi, hanno funzioni completamente nuove. Due scoperte diverse ma collegate.
L’uso della cristallografia a raggi X per la descrizione dei primi modelli tridimensionali delle proteine valse il Premio Nobel per la Chimica a John Kendrew e Max Perutz nel 1962: questo fu il primo passo per esplorare la struttura e il funzionamento di queste molecole. Il secondo portò a un altro Nobel nel 1972: Christian Anfinsen riuscì a far sì che una proteina esistente si dispiegasse e poi si ripiegasse di nuovo nello stesso modo, concludendo che è regolata dalla sequenza di amminoacidi. Da qui l’ovvia deduzione: se la sequenza amminoacidica è nota, allora è possibile prevedere la struttura finale della proteina. Purtroppo, non si rivelò così semplice. Ma come trovare una soluzione al problema della predizione?
Demis Hassabis, un piccolo genio degli scacchi e della programmazione, ha iniziato fin da giovanissimo a esplorare l’intelligenza artificiale e le neuroscienze, per poi cofondare DeepMind (ne abbiamo parlato qui), un'azienda che ha sviluppato modelli di AI per popolari giochi da tavolo. L'azienda è stata venduta a Google nel 2014 e, due anni dopo, DeepMind è riuscito a battere il campione di uno dei giochi da tavolo più antichi del mondo, il Go. Questo era il limite da superare: lo step successivo è stato lo sviluppo di AlphaFold (ne abbiamo parlato qui), un modello per la predizione della struttura delle proteine, ma il gruppo a un certo punto si arenò. Le nuove idee arrivarono con John Jumper, un nuovo acquisto del team. Dopo un dottorato in fisica teorica in cui aveva iniziato a sviluppare metodi più semplici e ingegnosi per simulare la dinamica delle proteine, nel 2017 arrivò a Google DeepMind per migliorare AlphaFold.
E partendo da AphaFold2 (ne abbiamo parlato qui), che nel 2020 ha raggiunto risultati quasi uguali a quelli ottenuti dalla cristallografia a raggi X e il cui codice è a disposizione di chiunque, il team ha anche iniziato a usare le reti neurali chiamate trasformatori. Come spiegato sul sito del Premio Nobel, queste possono trovare schemi in enormi quantità di dati in modo più flessibile rispetto al passato e determinare in modo efficiente su cosa concentrarsi per raggiungere un determinato obiettivo.
Ma oltre alla predizione, questo Nobel premia anche la creazione di nuove proteine da zero. Alla fine degli anni '90 David Baker, biologo con la passione per la biochimica, ha iniziato a sviluppare un software per computer in grado di prevedere le strutture delle proteine: Rosetta. Il successo del software portò a una nuova idea: invece di inserire sequenze di aminoacidi in Rosetta e ottenere strutture proteiche, avrebbero dovuto essere in grado di inserire una struttura proteica desiderata e ottenere suggerimenti per la sua sequenza di aminoacidi, il che avrebbe permesso di creare proteine completamente nuove. Il campo della progettazione di proteine - in cui i ricercatori creano proteine su misura con nuove funzioni - ha iniziato a decollare alla fine degli anni Novanta. In molti casi, i ricercatori hanno modificato le proteine esistenti, in modo che potessero svolgere funzioni come scomporre sostanze pericolose o funzionare come strumenti nell'industria chimica. Tuttavia, la gamma di proteine naturali è limitata.
Dopo cari tentativi, si è scoperto che Rosetta era davvero in grado di costruire proteine. La proteina sviluppata dai ricercatori, Top7, aveva quasi esattamente la struttura che avevano ideato. Con i suoi 93 aminoacidi era la più grande proteina prodotta con la progettazione de novo. Baker ha pubblicato la sua scoperta nel 2003 e ha rilasciato il codice del suo software, così è stato usato in nuove aree di applicazione.
COSA ASPETTARSI DAL FUTURO?
Visualizzare facilmente la struttura delle proteine permette di comprendere meglio il funzionamento degli organismi, dall’insorgere di malattie alla resistenza agli antibiotici (e molto altro). Crearne di nuove, con caratteristiche specifiche, può aiutare nello sviluppo di terapie di precisione, ma anche nanomateriali e applicazioni industriali. Benefici che riguardano la biologia e la medicina, ma che hanno le loro radici nella tecnologia.
Oggi, le reti neurali profonde, con miliardi di parametri rispetto alle poche dei primi modelli, sono alla base delle tecnologie di apprendimento automatico più avanzate. Queste fanno ormai parte della nostra quotidianità, basti pensare agli onnipresenti assistenti virtuali. Resta poi da valutare quale siano le applicazioni più valide -e sensate – e quali siano le implicazioni etiche che circondano lo sviluppo e l’uso di questa tecnologia. Di recente, è stato lo stesso Hinton a fare un appello riguardo le intelligenze artificiali generative, come ad esempio ChatGPT, definendole “piuttosto spaventose” e firmando una lettera aperta assiema ad altri esperti sui possibili rischi. Al di là dell’evoluzione che c’è stata e che ci sarà, il contributo pionieristico di John Hopfield e Geoffrey Hinton rimane un punto di riferimento nella storia della tecnologia, avendo gettato le basi di una delle più grandi rivoluzioni scientifiche del nostro tempo.