L'etica dell'intelligenza artificiale
L'intelligenza artificiale è sessista? A giudicare dai risultati di uno studio condotto recentemente negli Stati Uniti, sembrerebbe proprio di sì. Ryan Steed, PhD student della Carnegie Mellon University, e Aylin Caliskan, assistant professor della George Washington University, hanno chiesto a due algoritmi di intelligenza artificiale di completare l'immagine di una persona partendo unicamente da una foto del suo volto. Ebbene, di fronte alla faccia di un uomo, almeno nel 43% dei casi, gli algoritmi hanno eseguito l'incarico disegnando sotto il collo un completo elegante. Risultato del tutto diverso se invece ai due software veniva presentato il volto di una donna: nella maggioranza dei casi (53%), l'immagine è stata completata con un provocante bikini o con un top scollato. E poco importa se la faccia fosse quella della parlamentare statunitense Alexandria Ocasio-Cortez, una che negli ultimi anni è stata vista e fotografata soprattutto in completi eleganti e formali: per un algoritmo di intelligenza artificiale, la deputata democratica si veste soprattutto con abiti succinti.
L'esperimento è stato effettuato utilizzando iGPT e SimCLR, due algoritmi di creazione immagini che adottano un modello di apprendimento senza supervisione: in pratica, a differenza dei software del passato, non hanno bisogno di un'etichetta fornita da un essere umano per imparare a distinguere, per esempio, un bambino da un gatto. Il problema è che così facendo, senza una guida, possono assimilare anche i pregiudizi che si nascondono, più o meno velatamente, all'interno di un database di immagini. E diventare così inconsapevolmente sessisti.
Bias dell'algoritmo
Parafrasando la più famosa battuta di Jessica Rabbit, si potrebbe dire che gli algoritmi di intelligenza artificiale “non sono cattivi, è che li programmano così”. La dimostrazione arriva proprio dall'esperimento di Steed e Caliskan. Il team di ricerca ha solamente fornito un database di immagini agli algoritmi, senza dare nessuna indicazione che potesse orientare il loro processo di apprendimento. Se l'intelligenza artificiale è arrivata a elaborare che una donna si veste solitamente con abiti succinti, è perché gran parte delle immagini che gli erano state fornite ritraevano donne in abiti succinti. Non è insomma l'intelligenza artificiale a essere sessista, ma lo è probabilmente la società che l'ha sviluppata.
I cosiddetti bias dell'intelligenza artificiale sono noti da tempo. Nel 2015, per esempio, è venuto fuori che l'algoritmo utilizzato da Amazon per le sue politiche di assunzione sfavoriva le donne. E più recentemente un algoritmo di riconoscimento facciale negli Stati Uniti ha sbattuto ingiustamente in carcere un uomo di colore per un reato che non aveva commesso. Casi concreti che, insieme allo studio di Steed e Caliskan, fanno ben comprendere quanto i pregiudizi della società possano riflettersi sulle modalità di apprendimento di un'intelligenza artificiale. Gli autori dell'esperimento, a tal proposito, hanno voluto sottolineare tutti i rischi legati all'utilizzo di questo genere di tecnologie in contesti sensibili. “Ci sono applicazioni molto pericolose che possono portare a conseguenze inaspettate”, ha detto Caliskan. “Dobbiamo essere molto attenti a utilizzare queste tecnologie – ha proseguito – ma allo stesso tempo, ora che abbiamo a disposizione questi strumenti, possiamo provare a utilizzarle per il bene comune”.
Un uso etico dell'algoritmo
Già, ma che cos'è il bene comune? La domanda non è assolutamente scontata. E costituisce il principale ostacolo allo sviluppo di un'etica dell'intelligenza artificiale. Timandra Harkness, in un lungo articolo pubblicato su Unherd, ha affermato che, almeno a livello teorico, un algoritmo di intelligenza artificiale potrebbe pure sviluppare una qualche forma di senso morale. In fondo, scrive Harkness, “le macchine hanno imparato a superare i loro maestri umani nel giocare, nel selezionare immagini, persino nel controllare un veicolo su una strada reale”. E allora perché non possono sviluppare un senso morale? Forse perché neppure noi sappiamo in maniera chiara che cos'è la moralità. “La maggior parte di noi – scrive l'autrice – confonde i valori umani con una moralità impura e acciottolata, fatta di abitudini, linee di confine che abbiamo assimilato dalla famiglia, dalla religione, dalla legge o dalle norme sociali, e altre linee che abbiamo tracciato noi stessi come risultato di esperienza, istinti di correttezza, lealtà, amore, rabbia e intuizioni che faticheremmo a spiegare”. In pratica, prosegue, “non abbiamo un insieme unanime di valori umani che può essere inserito in un computer: se noi stessi facciamo fatica a comprendere cos'è giusto e cos'è sbagliato, come possiamo aspettarci che lo faccia una macchina?”.
Risolvere il dilemma non sarà sicuramente facile. Forse, almeno per il momento, sarebbe più utile cambiare completamente punto di vista. E passare dall'etica dell'algoritmo all'uso etico dell'algoritmo. È quello che si è proposta l'Italia con la pubblicazione, nel 2018, del Libro Bianco sull'intelligenza artificiale al servizio del cittadino. Anche il Parlamento Europeo, più recentemente, ha emanato una risoluzione sull'uso corretto dell'intelligenza artificiale, in cui trovano spazio anche i timori suscitati da deepfake e robot killer.