Giuseppe Riva

Le due facce dell’Intelligenza Artificiale

La tecnologia, nella sua evoluzione, deve ricordarsi di essere al servizio dell’uomo. Necessitano, però, linee guida per regolamentare il suo utilizzo.

Le-due-facce-dell'intelligenza-digitla.jpg

In alcuni settori già da tempo affidiamo alla tecnologia le nostre scelte. Basti pensare alla decisione sul miglior percorso stradale che sempre più spesso viene affidata alle mappe del nostro smartphone. Tuttavia, la diffusione dell’Intelligenza Artificiale (IA) apre una serie di nuovi scenari in cui sarà la tecnologia, e non gli esseri umani, a fare una serie di scelte critiche nella nostra vita quotidiana.

Ma cos’è l’IA? Con questa espressione si definisce l’area dell’informatica che studia lo sviluppo di tecnologie dotate di capacità tipiche dell’essere umano: interazione con l’ambiente, apprendimento e adattamento, ragionamento e pianificazione. In pratica, grazie all’IA la tecnologia diventa in grado di prendere una serie di decisioni che fino al suo avvento erano affidate alle persone. Anche se l’espressione “IA” è diventata popolare negli ultimi cinque anni, ha ormai più di sessant’anni di vita. È stata infatti utilizzata per la prima volta nel 1956 da John McCarthy, un assistente di matematica del Dartmouth College di Hanover, negli Stati Uniti, durante una conferenza sullo studio dell’intelligenza applicata alle macchine. Tuttavia, a farla tornare popolare è stata una serie di innovazioni tecnologiche che hanno portato alla nascita un nuovo paradigma di IA: il machine learning.

Con “machine learning” si intende un insieme di algoritmi che imparano attraverso l’esperienza a riconoscere modelli e partner ricorrenti. In pratica, mediante una fase di apprendimento, che a seconda dell’algoritmo può essere supervisionato o non supervisionato, oppure per rinforzo, la tecnologia impara a distinguere e riconoscere tra diverse opzioni. Per esempio, può imparare a distinguere una lettera dall’altra o un potenziale paziente da un soggetto non a rischio.

La situazione più comune è quella dell’apprendimento supervisionato. A partire da una serie di dati disponibili – per esempio, le risposte a un questionario – e dall’opzione ad essi associata – per esempio, se il paziente è guarito o meno – l’algoritmo impara ad associare ai dati disponibili l’opzione corretta. Maggiore è la disponibilità di dati iniziali, maggiore è la precisione dell’algoritimo nell’identificare l’opzione corretta. Per questo motivo l’apprendimento supervisionato è la tecnica più comune in ambito sanitario, vista la disponibilità delle cartelle mediche, o in ambito bancario per decidere la concessione di un mutuo o di un prestito.

Nel caso dell’apprendimento non supervisionato è invece fornita all’algoritmo una serie di dati lasciandolo libero di imparare individuando spontaneamente delle correlazioni tra i dati, organizzandoli e aggregandoli sulla base di aspetti e caratteristiche simili. Questo secondo approccio è più utilizzato in politica e nella ricerca sociale per identificare contenuti o stimoli in grado di coinvolgere gruppi specifici. Per esempio, per identificare il messaggio pubblicitario più efficace o la comunicazione in grado di mobilitare maggiormente l’utente.

Nell’apprendimento per rinforzo, non ci sono dati di partenza da cui imparare. Infatti, l’algoritmo ha un obiettivo da raggiungere e impara le azioni da compiere sulla base dell’interazione con l’ambiente circostante. Questo tipo di approccio viene utilizzato, per esempio, nelle automobili a guida autonoma, in cui, grazie ai dati raccolti attraverso le telecamere e altri sensori, l’algoritmo analizza l’ambiente circostante per identificare eventuali ostacoli o segnali.

Tutti e tre i paradigmi di apprendimento si sono rivelati molto efficaci e vengono utilizzati sempre più frequentemente in una serie di ambiti che spaziano dalla sicurezza alla domotica, alla guida delle auto, fino alla medicina e anche alla psicologia.

Tuttavia, le scelte dell’IA hanno un problema: gli algoritmi non sono in grado di spiegare le proprie decisioni. In altre parole, decidono in base a quanto hanno appreso e non in base a scelte razionali e condivisibili. In pratica, se i dati non sono completi o l’algoritmo non è corretto, il risultato finale può essere sbagliato senza che i soggetti umani riescano facilmente ad accorgersene. Per esempio, i ricercatori del MIT Media Lab hanno studiato l’accuratezza di alcuni sistemi di riconoscimento facciale dell’IBM (lo studio completo è scaricabile qui: http://tiny.cc/mw1ukz) scoprendo che l’algoritmo aveva una precisione pari al 99% nel riconoscimento di volti di maschi bianchi e solo del 34% per le donne di pelle nera. Perché? Semplicemente perché il database utilizzato per l’addestramento dell’algoritmo era basato principalmente su maschi di razza bianca. Mentre le donne nere erano meno presenti nei database e quindi venivano identificate con maggiore difficoltà.

Non solo, è possibile creare dei dati volutamente alterati in modo da portare all’errore gli algoritimi di IA. Per esempio, come hanno dimostrato alla fine del 2019 i ricercatori dell’Università di Berkeley, semplicemente alterando i dati relativi ai colori o allo sfondo dell’immagine di una libellula è possibile convincere l’algoritmo che nell’immagine ci sia una banana!

Per questo, negli ultimi mesi sia negli Stati Uniti (https://www.whitehouse.gov/ai/) che nella Santa Sede (https://bit.ly/3cuZcxr) e in Europa (http://tiny.cc/f60ukz) sono stati formulati dei principi etici con l’obiettivo di limitare i rischi di un uso non etico di questa tecnologia. Vediamo insieme, in sintesi, i principi contenuti nelle linee guida europee sull’IA.

Il primo punto delle linee guida è la necessità di un controllo umano, perché l’IA deve migliorare l’azione umana e i suoi diritti, non ridurre la sua autonomia. Il secondo richiede invece che gli algoritmi siano sicuri, affidabili e resistenti di fronte a errori o a problemi – come quelli visti prima – relativi allo sviluppo dei sistemi di IA. Il terzo è che i cittadini devono essere sempre informati dell’utilizzo dei loro dati personali da parte dei sistemi di IA e averne il pieno controllo, in modo che non siano utilizzati contro di loro. Il quarto punto prevede trasparenza, garantendo la tracciabilità dei sistemi di IA. Il quinto indica la necessità di non discriminazione utilizzando l’IA, lasciando agli esseri umani la possibilità di modificare le decisioni degli algoritmi tenendo conto di tutti i fattori necessari. Il sesto punto richiede che l’IA lavori a favore del benessere sociale e ambientale, aumentando la sostenibilità ecologica.
Infine, il settimo punto richiede l’attuazione di meccanismi di verifica per garantire la responsabilità dei sistemi di IA e delle loro decisioni.

 

Giuseppe Riva è ordinario di Psicologia della comunicazione all’Università Cattolica di Milano. Tra i suoi ultimi libri, Fake news. Vivere e sopravvivere in un mondo post-verità (Il Mulino, 2018).

www.giusepperiva.com

Questo articolo è di ed è presente nel numero 282 della rivista. Consulta la pagina dedicata alla rivista per trovare gli altri articoli presenti in questo numero. Clicca qui