Cosimo Tuena, Pietro Cipresso

Neuroscienze artificiali: creare una mente computazionale

Entriamo nei meandri delle neuroscienze per capire come funzionano il cervello e la cognizione dell’uomo, e sulla base di questo quali sono le forme di intelligenza artificiale che ci riguardano più da vicino.

neuroscienze artificiali.jpg

Con “neuroscienze” ci si riferisce a un termine-ombrello che ricopre diverse discipline impegnate a studiare il funzionamento normale e patologico del nostro cervello. In questo senso, possiamo considerare neuroscienze la neurologia, la neurobiologia, la psicologia, la neuroanatomia, la chimica, sino a includere la matematica, la fisica e la statistica. 

In questo articolo ci concentreremo solo su alcune delle neuroscienze, e in particolare quelle che si occupano degli aspetti macroscopici del cervello, piuttosto che di quelli microscopici, ossia quelle che studiano la cognizione umana e il suo funzionamento. 

LIPSIA 1879

Lo studio della mente umana da parte della psicologia intesa come scienza può essere identificato in un luogo e un momento ben precisi: Lipsia 1879. Wilhelm Wundt nel suo laboratorio di psicologia appunto a Lipsia era interessato a studiare in maniera sistematica elementi della mente umana, come la percezione e la sensazione.

Pochi anni prima, nel 1861, un neurologo francese, Paul Broca, a seguito di un’autopsia cerebrale di un paziente, che l’avrebbe reso famoso, scopriva la regione del cervello che ci permette di parlare, di produrre le parole.

A metà degli anni Ottanta dell’Ottocento Freud si recava a Parigi per approfondire i propri studi sull’isteria, gettando le basi di quella che è forse la più conosciuta teoria del funzionamento della nostra mente (inconscia).

Gli anni che seguiranno saranno anni di scoperte sensazionali sulla mente e il cervello umano, grazie allo sviluppo di tecniche d’indagine sempre più raffinate, come gli strumenti di imaging cerebrale, che ci consentono di vedere le strutture e il funzionamento in vivo del nostro cervello, di come ricordiamo, vediamo o parliamo con questo organo; oppure, grazie a tecniche psicologiche meticolose e a test psicologici sempre più precisi, è possibile studiare e osservare la nostra mente.

Nonostante i passi da gigante fatti nel campo delle neuroscienze cognitive, il nostro cervello non smette di stupirci e risulta ancora ad oggi qualcosa di incompreso per la sua complessità: si stima che contenga 100 miliardi di neuroni e un numero praticamente incalcolabile di connessioni. Nella via lattea, il numero di stelle si aggira fra i 150 e 250 miliardi, quindi il paragone fra le dimensioni del braccio della nostra galassia e la nostra testa risulta scontato. 

Quando ci si trova di fronte a questo tipo di numeri e a studiare un organo così complesso, appare critica la necessità di controllare, riprodurre e spiegare i fenomeni mentali con un approccio sistematico, che è quello informatico, matematico o statistico.

In particolare, all’interno delle neuroscienze un settore che sta catturando l’attenzione dei ricercatori è quello dell’Intelligenza Artificiale (IA). Con tale espressione si fa riferimento a sistemi informatici, quali software o hardware, in grado di simulare il comportamento umano o di agire in maniera autonoma, proprio perché “intelligenti”.

I primi sistemi di riproduzione artificiale del sistema neurale possono collocarsi a cavallo degli anni Quaranta e Cinquanta del secolo scorso. Forse il personaggio più conosciuto al riguardo è il noto matematico Alan Turing, il quale ipotizzò, mediante il test di Turing, che un uomo sia in grado di distinguere una macchina, qualora questa sia installata, nel “gioco dell’imitazione”, al posto di un essere umano, comportandosi quindi come tale.

Tuttavia, ci sono state altre figure, come lo psicologo americano Rosenblatt, che sempre in quegli anni pose le basi delle reti neurali (sistemi che simulano i nostri neuroni) con il suo percettrone: una macchina che occupava una stanza intera e che mostrava il funzionamento dei neuroni tramite un algoritmo di apprendimento che mediava fra gli input, i rispettivi pesi, e l’output del sistema.

ASSESTAMENTO CON L'ESPERIENZA 

Il passato dell’IA è contraddistinto da alcuni concetti chiave, quelli di “deep learning” e di “reinforcement learning”.

Con l’espressione “deep learning” si fa riferimento agli algoritmi e computazioni in grado di simulare il funzionamento della mente umana, mentre il “reinforcement learning” è un meccanismo basato su ricompense, tale da guidare e far apprendere il comportamento a una macchina. In generale, per “machine learning” si intende un insieme di algoritmi che permettono a una macchina di essere priva di codice impostato a priori e pertanto di assestarsi con l’esperienza.

Il percettrone di Rosenblatt, per esempio, è un perfetto esempio di deep learning, mentre l’apprendimento tramite rinforzo è un metodo trasferito dal comportamentismo, ma impiegato anche nel settore dell’IA per il controllo robotico e per il gioco esperto nei giochi da tavola computerizzati come Backgammon o Go: grazie al sistema di ricompense ottenute, per esempio con i punti, la macchina ripropone il comportamento vincente.

Non a caso Michael Gazzaniga, uno dei massimi neuroscienziati cognitivi, già negli anni Novanta indicò la direzione del suo ambito scientifico, identificando gli algoritmi come elementi chiave per spiegare la mente. Difatti, il funzionamento mentale fornisce ispirazione per creare nuovi tipi di algoritmi e valida tali modelli matematici della nostra mente.

Allo stato attuale, seppure in maniera velata e occupandosi di altro, l’IA si rifà a meccanismi mentali studiati dalle neuroscienze cognitive, come per esempio l’attenzione, la memoria e l’apprendimento. Nel primo caso, l’IA è in grado di selezionare alcuni elementi e di ignorarne altri, meccanismo cognitivo conosciuto con il nome di “attenzione selettiva”; per fare un esempio concreto, in un articolo pubblicato nel 2015 sulla rinomata rivista Nature i ricercatori hanno fatto giocare il loro sistema intelligente alla serie di giochi di Atari 2600, un classico degli scorsi anni Ottanta; ebbene, l’IA era in grado di eseguire correttamente complessi compiti di classificazione di oggetti ignorando quelli irrilevanti. Il loro sistema, chiamato “Deep Q-network”, passo dopo passo, vittoria dopo vittoria ha imparato a giocare da solo senza alcuna conoscenza dei giochi di Atari 2600.

L’azienda DeepMind Technologies, che ha sviluppato l’intelligenza, è stata acquistata da Google, molto interessata alle potenzialità dell’IA come strumento capace di elaborare una mole importante di dati, quali quelli lasciati da tutti noi quando navighiamo su Internet. L’interesse dei colossi del web per i sistemi di IA è noto, e recentemente purtroppo anche famigerato: nel marzo 2018 Facebook e la società di analisi dati Cambridge Analytica sono finiti sui giornali di tutto il mondo. Quest’ultima, usando il machine learning, sarebbe stata in grado di profilare gli utenti del noto social network e di influenzare le rispettive scelte elettorali.

Per ritornare al sistema Deep Q-network di DeepMind Technologies – o forse sarebbe meglio dire di Google –, va detto che esso è in grado di memorizzare ciò che vede e accade quando gioca, grazie a ciò che i ricercatori hanno chiamato “experience replay”; la Rete, in questo caso, memorizza i dati ottenuti online e li riproduce offline, apprendendo da vittorie e fallimenti persino in situazioni complesse come quelle dei videogiochi.

Questo tipo di meccanismo artificiale è analogo a quello biologico, dove l’ippocampo, una regione cerebrale cruciale per l’apprendimento e la memoria, codifica dopo una sola esposizione il materiale, e dove cioè il consolidamento avviene attraverso un replay corticale tra l’ippocampo e la neocorteccia.

IL CONTROLLO EPISODICO

Un altro comportamento artificiale utilizzabile per velocizzare le caratteristiche lente del reinforcement learning è il controllo episodico: in questo senso, l’esperienza può essere sfruttata non solo per per aggiustare gradualmente il network artificiale, ma anche per supportare modifiche comportamentali immediate.

L’ippocampo cibernetico-biologico sarebbe responsabile di processi decisionali basati sugli episodi acquisiti in precedenza. Ancora una volta, il team di ricerca di DeepMind ha sviluppato un algoritmo in grado di usare il controllo episodico in ambienti complessi come quelli di Atari 2600, tra cui PAC-MAN, da un lato confermando l’utilità di questo algoritmo e dall’altro trovando una spiegazione basata sulla simulazione artificiale di come il nostro cervello possa usare in maniera immediata la memoria per mettere in atto comportamenti immediati senza l’uso di processi di pianificazione complessa.

Un altro tipo di memoria utilizzata è la memoria di lavoro. Essa permette di mantenere attive per un breve periodo di tempo informazioni provenienti da diversi sistemi, come quello fonologico, visivo ed episodico, al fine di creare una rappresentazione coerente del dato che vogliamo elaborare.

La ricerca nel settore dell’IA ha tratto ispirazione da tale sistema, ipotizzato dal neuroscienziato inglese Alan Baddeley. Un esempio di algoritmo in grado di eseguire questo tipo di processo è il Long-short-term memory network sviluppato da Jürgen Schmidhuber, direttore dell’Istituto di Intelligenza Artificiale di Lugano. L’algoritmo è in grado di unire le informazioni presentate in uno stato fisso di attività fino a quando l’output corretto non è elaborato ed emesso. Per fare un esempio concreto, basta andare su Google Translate o parlare a Siri, l’IA a portata di mano sul nostro iPhone, per vedere che l’algoritmo consente al telefono di capire quello che gli stiamo chiedendo. 

Un altro tipo di simulazione è quella definita con il nome di “large-scale simulations”, risultato dell’interazione fra IA artificiale e neuroscienze, che permette di generare l’intelligenza. Dal nome è intuibile trattarsi non di riproduzione di singoli domìni, ma di simulazioni macroscopiche. Esempi di questo tipo di simulazioni sono quelli del Blue Brain Project, diretto dal neuroscienziato Henry Markram.

Markram ha riprodotto una porzione della corteccia di un topo, contenente 8 X 106 neuroni e 6400 sinapsi; questa è stata innestata su Blue Gene, un supercomputer dell’IBM. Nel luglio 2018 il Blue Brain Project ha annunciato la creazione di un nuovo supercomputer, che sarà chiamato “Blue Brain 5”, dedicato proprio alla simulazione, all’analisi e alla visualizzazione del cervello per comprenderne i meccanismi e le patologie, e modellare entro il 2020 intere parti del cervello del topo.

Si è detto che l’IA è in grado di simulare il comportamento e la mente umana in modo autonomo, e non solo i singoli domìni: ciò vuol dire che in un futuro non molto lontano le macchine prenderanno il posto degli uomini o faciliteranno l’esecuzione di alcune nostre mansioni, persino le più rinomate.

Non è un caso che uno dei padri dell’IA, Schmidhuber, in un’intervista rilasciata a la Repubblica questa estate profetizzi, forse senza troppi vagheggiamenti, che i robot colonizzeranno l’universo. Del resto, già Ridley Scott nel suo magistrale film Blade Runner dava inizio alla trama riportando la fuga di sei replicanti dalle colonie extra-mondo, rientrati furtivamente dallo spazio a Los Angeles. In ogni modo, senza usare troppo la fantasia, esistono già dei sistemi autonomi che sono in grado di sostituire l’uomo in certe mansioni complesse. 

APPLICAZIONI ALLA CLINICA

Quando si tratta di avere una mente fredda e razionale come si richiede durante certi processi lavorativi, l’IA può infatti tornare utile ed eliminare tutti quegli elementi emotivi che possono dirottare le nostre scelte o evitare informazioni o pensieri non pertinenti, come i bias (distorsioni cognitive che l’uomo adotta per semplificare i processi decisionali).

Com’è stato detto in precedenza, le applicazioni dell’IA non sono a prima vista prettamente psicologiche e neuroscientifiche, ma, a un’attenta analisi, si rivelano tali. Euklid è considerata la banca Fintech del futuro, una realtà italiana trasferita a Londra che si occupa di algotrading.

Grazie ai suoi algoritmi, essa è riuscita a sostituire il trader umano e a usare un sistema intelligente basato sull’analisi dei prezzi, quindi a monte della notizia, senza usare l’analisi semantica delle notizie riguardo a una determinata azione; così facendo, riesce a leggere il comportamento degli investitori e a prevedere potenziali rialzi o ribassi del prezzo. Un sistema decisionale atto ad aggirare lo scoglio delle scelte economiche, che lo psicologo Daniel Kahneman, premio Nobel per l’economia nel 2002, aveva individuato nel corso dei suoi studi, ribaltando la concezione dell’“homo oeconomicus”, l’uomo inteso come essere razionale nelle scelte economiche, lontano dalla complessità sociale e psicologica in cui si trova inserito.

Per tornare al tema delle neuroscienze, e in particolare alla pratica clinica, la ricerca si è mossa verso lo sviluppo di algoritmi in grado di facilitare il processo diagnostico, che spesso risulta un momento delicato e cruciale per la prognosi e il decorso di una malattia. Al giorno d’oggi, nel mondo della neurologia esistono sistemi di IA in grado di supportare il medico nel processo di diagnosi della demenza.

In questo caso, l’anamnesi clinica risulta complessa, derivando da un’intersezione di elementi cognitivi, quale per esempio il declino mnestico nell’Alzheimer, e di processi neuropatologici a livello biologico e dei tessuti, come la presenza di placche di beta-amiloide e di grovigli neurofibrillari nelle aree cerebrali della memoria nel già citato ippocampo.

La presenza di questi fattori neurodegenerativi può essere osservata tramite esami di neuroimmagine o durante l’autopsia. Purtroppo, allo stato attuale, la diagnosi certa di demenze come l’Alzheimer o la demenza frontotemporale può avvenire solo a seguito dell’analisi istopatologica post mortem. Diventa quindi cruciale intervenire sul processo di diagnosi in maniera precoce e sistematica.

Le intelligenze artificiali sviluppate al momento si basano sul machine learning e mirano ad analizzare aspetti comportamentali come l’analisi dei movimenti oculari o del parlato. La startup canadese Winterlight ha ideato un’intelligenza artificiale in grado di cogliere centinaia di variabili del parlato, come l’uso di pause o ripetizioni, permettendo di cogliere con un’ottima probabilità la malattia.

Neurotrack, invece, è un sistema che consente con la webcam del computer di valutare, attraverso i movimenti oculari, lo stato della memoria e il declino cognitivo. Grazie a un sistema di monitoraggio e valutazione, tale intelligenza artificiale fornisce feedback sullo stato mnestico, collocando il soggetto all’interno di parametri di normalità, e consiglia cosa fare per migliorare il suo stato cognitivo. 

Un’altra applicazione dell’IA nel campo della diagnosi è quella dei dati di neuroimmagine. Avalon AI è un sistema che basandosi su 70 000 scansioni cerebrali concesse dall’Università di Cambridge, dall’Imperial College e dal Donders Institute, dà modo di predire con una probabilità del 75% l’avanzamento del declino cognitivo che può precedere la demenza effettiva, entro un anno, sulla base delle modifiche cerebrali presenti nelle immagini radiologiche.

L’elemento interessante del prodotto di Avalon AI è la possibilità di caricare nel cloud costruito appositamente le immagini di risonanza magnetica. In 30 minuti, dopo che il sistema ha comparato le immagini con i dati normativi, il paziente o il clinico possono ricevere un report con dati riguardanti lo stato cerebrale del soggetto.

Questo articolo è di ed è presente nel numero 270 della rivista. Consulta la pagina dedicata alla rivista per trovare gli altri articoli presenti in questo numero. Clicca qui