L'intelligenza artificiale scopre un super-antibiotico
Lo scorso 20 febbraio la rivista scientifica Cell ha pubblicato uno studio realizzato un gruppo di ricercatori del Massachusetts Institute of Technology (Mit) di Boston. Come si legge sul portale dell'istituto, che ha rilanciato la notizia, “il team di ricercatori, utilizzando un algoritmo di machine learning, ha identificato un potente composto di antibiotici” che, nei test di laboratorio, si è rivelato in grado di “neutralizzare molti dei batteri che causano alcune delle malattie più gravi al mondo, inclusi due ceppi resistenti agli antibiotici attualmente conosciuti”. Detto in altre parole, l'intelligenza artificiale ha contribuito a scoprire una sorta di super-antibiotico.
Il composto è stato battezzato halicin, in omaggio al supercomputer Hal 9000 del film 2001: Odissea nello spazio. “Abbiamo sviluppato una piattaforma che ci consente di sfruttare le potenzialità dell'intelligenza artificiale per inaugurare una nuova era nella scoperta di nuovi antibiotici”, ha commentato James Collins, Termeer Professor in Medical Engineering and Science all'MIT’s Institute for Medical Engineering and Science. “Il nostro studio – ha proseguito – ha rivelato quanto fantastica possa essere questa molecola, che è probabilmente uno degli antibiotici più potenti che siano mai stati scoperti”.
Il modello informatico utilizzato consente di visionare in pochi giorni più di cento milioni di composti chimici in pochi giorni, rendendo estremamente più rapida ed economica la ricerca di nuovi farmaci. Nelle speranze del team di ricercatori, il modello potrà essere replicato per scoprire nuovi antibiotici in grado di neutralizzare batteri e di utilizzare meccanismi diversi da quelli sfruttati dai farmaci attuali.
Un'etica dell'intelligenza artificiale
La scoperta dell'Mit di Boston ha fornito un esempio tangibile delle potenzialità offerte dall'intelligenza artificiale. Non è la prima volta che questo genere di tecnologia viene utilizzata in ambito medico. Pochi giorni fa, per esempio, l'Ospedale Bambino Gesù di Roma e Ibm hanno siglato una partnership per sfruttare l'intelligenza artificiale nella ricerca pediatrica di nuove cure. E più recentemente è uscita la notizia, rilanciata dall'epidemiologo Bruce Aylward, che il governo cinese sta utilizzando big data e intelligenza artificiale per contrastare l'epidemia di coronavirus.
Gli esempi riportati sono tutti espressione di un uso etico dell'intelligenza artificiale: in tutti questi casi, kantianamente parlando, l'uomo è il fine (non il mezzo) del ricorso a nuove tecnologie. E non è forse un caso che, proprio nei giorni in cui veniva pubblicato lo studio dell'Mit di Boston, la Commissione Europea abbia voluto presentare il proprio white paper sull'intelligenza artificiale. Si tratta di un tentativo di sostenere e regolamentare un mercato in forte crescita, che solo in Italia, secondo l'Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano, poteva vantare nel 2019 un giro d'affari complessivo di 200 milioni di euro. E che, accanto a enormi benefici, porta con sé anche pesanti rischi per la tutela dei diritti fondamentali. “L'Unione Europea deve essere capace di fare le sue scelte, basate sui propri valori, rispettando le proprie regole”, ha twittato Ursula von der Leyen, presidente della Commissione Europea, in occasione della presentazione del white paper. “Questa – ha proseguito – è quella che io chiamo un'Europa tecnologicamente sovrana”. La presidente von der Leyen ha in particolare sottolineato l'importanza che i dati, vero motore dell'intelligenza artificiale, possono avere nel settore pubblico della sanità, auspicando che possano essere “maggiormente disponibili in tutta l'Unione Europea” per “consentirne il loro utilizzo”.
Una necessità diffusa
Quella dell'etica dell'algoritmo è una necessità sempre più diffusa. Alla fine di febbraio, tanto per citare un caso, la Pontificia Accademia per la Vita ha promosso la Rome Call for AI Etichs, una carta etica che punta a coniugare l'utilizzo dell'intelligenza artificiale con i principi di trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Insomma, una sorta di algor-etica, come l'ha definita Papa Francesco, che possa essere “un ponte per far sì che i principi di dignità della persona, giustizia, sussidiarietà e solidarietà si iscrivano concretamente nelle tecnologie digitali”. Il pontefice ha inoltre definito le nuove tecnologie “un dono di Dio”. La carta, oltre che dall'accademia che l'ha promossa, è stata firmata dal governo italiano e dalla Fao, nonché da due colossi della tecnologia come Microsoft e la già citata Ibm: i firmatari si impegnano così a favorire lo sviluppo dell'intelligenza artificiale secondo i principi fondamentali della buona innovazione.
Persino l'esercito statunitense si è sentito in dovere di elaborare nuove linee guida per l'utilizzo dell'intelligenza artificiale in ambito bellico. I principi presentati dal Pentagono impongono “l'esercizio di adeguati livelli di giudizio e attenzione” quando si utilizzano tecnologie di questo genere. Facendo seguito a una direttiva del 2012 che obbliga il personale a mantenere il controllo sulle armi automatiche, le linee guida prevedono inoltre che i sistemi automatizzati debbano essere tracciabili e gestibili, garantendo sempre “un modo per disinnescarli o disattivarli” se seguono comportamenti non voluti.
La lunga strada dall'etica alla pratica
È piuttosto facile stabilire delle linee guida, più difficile è seguirle nella vita di tutti giorni. Il rischio è che i buoni propositi possano alla lunga rivelarsi un semplice lavaggio di coscienza, buono per sé e, soprattutto, per l'opinione pubblica. “Temo che questi principi siano una sorta di progetto di etichs-washing”, ha affermato Lucy Suchman, antropologa che studia l'utilizzo dell'intelligenza artificiale in guerra, commentando per Associated Press le linee guida introdotte dal Pentagono. “La stessa parola adeguato è aperta a parecchie interpretazioni”, ha proseguito facendo emergere come, a suo parere, i principi adottati siano volutamente larghi per evitare che l'esercito statunitense si ponga da solo restrizioni che, con la rapida applicazione delle nuove tecnologie in ambito militare, possono velocemente diventare obsolete.
C'è poi tutta la questione di un mercato che, come visto, è in rapida crescita e che offre opportunità magari non eticamente corrette ma senza dubbio redditizie. Il white paper della Commissione Europea individua a tal proposito una serie di sistemi di intelligenza artificiale definiti “ad alto rischio”, che dovranno essere sempre “trasparenti, tracciabili e in grado di garantire il controllo umano”. Fra i sistemi ad alto rischio ci sono anche le tecnologie di riconoscimento facciale, settore in rapida crescita che porta però con sé inevitabili questioni di carattere etico. Lo scorso gennaio il New York Times ha rivelato l'esistenza di Clearview AI, un'app di riconoscimento facciale che grazie a un algoritmo è in grado collegare l'immagine di una persona a praticamente tutte le foto del soggetto che sono state pubblicate online: l'app dispone infatti di un database di oltre tre miliardi di volti raccolti sul web, principalmente sui social network. La società aveva affermato di prestare i suoi servizi solamente alle forze dell'ordine, giustificando di fatto l'inevitabile violazione della privacy con la necessità di tutelare la sicurezza pubblica. Due recenti scoop, firmati da Daily Beast e BuzzFed News, hanno tuttavia reso nota la lista dei clienti della società che era stata trafugata da un gruppo di hacker: accanto a istituzioni pubbliche come il dipartimento di Giustizia o l'Immigration and Customs Enforcement, figurerebbero fra gli acquirenti anche società private come Macy's, Walmart e persino l'Nba. Insomma, nonostante i buoni propositi, i rischi permangono: secondo un documento ufficiale a cui ha avuto accesso BuzzFed News, la società sarebbe inoltre al lavoro per espandere ulteriormente il proprio business a livello internazionale, con l'ingresso in 22 paesi del mondo. Fra questi, oltre all'Italia e al Regno Unito, ci sono anche nazioni come Singapore, Qatar ed Emirati Arabi Uniti, ossia Stati non propriamente noti per il rispetto dei diritti umani e per la tutela delle libertà fondamentali dell'individuo.