Intelligenza artificiale, un database del rischio
Ci sono i rischi per la privacy, quelli per l’equità e l’uguaglianza sociale, quelli per la salvaguardia e la tenuta del sistema informativo, persino quelli per la sicurezza dei beni e delle persone se il miraggio (o l’incubo) del ricorso ad armi automatiche dovesse diventare realtà. E poi ancora sorveglianza, discriminazione, linguaggio tossico e attacchi informatici. In tutto fanno 777, suddivisi in sette domini e 23 sottodomini. Sono tutti i rischi connessi allo sviluppo dell’intelligenza artificiale che sono stati raccolti nell’AI Risk Repository stilato dal Mit FutureTech, il gruppo di ricerca interdisciplinare del Massachusetts Institute of Technology dedicato all’evoluzione della tecnologia informatica: si tratta del primo tentativo al mondo di raccogliere, analizzare e mettere in fila in un database accessibile a chiunque tutti i rischi che lo sviluppo dell’intelligenza artificiale potrà generare.
Il progetto nasce come un sostanziale lavoro di collocazione di tutta la letteratura esistente su questo argomento: ogni profilo di rischio è stato infatti tratto da ricerche, rapporti, articoli e altri documenti di taglio specialistico e accademico. Ed è forse proprio dall’analisi della letteratura di settore che è emersa l’esigenza di stilare un simile database. “Abbiamo rilevato che in media ogni framework menzionava soltanto il 34% dei 23 sottodomini che abbiamo identificato, quasi un quarto meno del 20%: nessun documento o panoramica di settore citava tutti i sottodomini e quello più completo arrivava al 70%”, ha commentato Peter Slattery, ricercatore presso il Mit FutureTech e responsabile del progetto, in una lunga intervista a TechCrunch. “Con una letteratura così frammentata – ha proseguito – non possiamo davvero dire di essere tutti sulla stessa pagina quando si parla di questo genere di rischi”.
Finora non si era dunque mai avuta una visione davvero omnicomprensiva di tutti i rischi connessi allo sviluppo dell’intelligenza artificiale. La letteratura di settore ha anzi mostrato fino a oggi una certa tendenza a porre la propria attenzione su specifici ambiti di rischio, trascurandone altri. Più del 70% dei framework indipendenti analizzati per la stesura del database, per esempio, includeva le possibili minacce alla privacy dei cittadini e i rischi connessi alla sicurezza stessa dell’intelligenza artificiale, mentre solo il 44% prendeva in esame il fenomeno della disinformazione. E se oltre il 50% dei documenti analizzava le possibili forme di discriminazione e falsa rappresentazione che l’intelligenza artificiale potrebbe contribuire a perpetuare, soltanto il 12% arrivava a citare il rischio di inquinamento dell’ecosistema informativo, ossia la crescita del volume di spam reso possibile dallo sviluppo e dall’evoluzione della tecnologia.
Ecco dunque dove nasce la necessità di un simile lavoro di ricerca. “L’abbiamo creato perché ne avevamo bisogno per un nostro progetto, ma abbiamo rapidamente capito che molti altri potevano avere la stessa necessità”, ha detto Slattery. Si tratta, per continuare a usare le parole di Slattery, di “curare e analizzare rigorosamente i rischi dell’intelligenza artificiale in un database accessibile pubblicamente, completo, estensibile e diviso per categorie, che chiunque può copiare e usare, e che – ha assicurato – sarà mantenuto aggiornato nel corso del tempo”. In definitiva, il database vuole essere soltanto un primo passo verso un’ampia comprensione del rischio connesso all’intelligenza artificiale. E magari anche uno strumento di supporto per chi fa ricerca a livello accademico o per chi, come nel caso del recente AI Act redatto dall’Unione Europea, si appresta a predisporre una disciplina giuridica in materia di intelligenza artificiale.