deepfake-sembra-tutto-vero
Fonte immagine: Sata Production - Shutterstock

Deepfake, sembra tutto vero

Algoritmi sempre più sofisticati di intelligenza artificiale sono in grado di generare immagini, video e audio estremamente realistici: simili strumenti sono stati già utilizzati per diffondere fake news e perpetrare truffe. Ecco perché, secondo Sebastiano Battiato dell’università di Catania, è fondamentale prestare attenzione e non fidarsi ciecamente di tutto quello che ci si presenta davanti

Lo scorso gennaio un dipendente della filiale di Hong Kong di una multinazionale si è seduto al suo pc per partecipare a una conference call con alcuni colleghi. Pochi giorni prima aveva ricevuto un’e-mail dal chief financial officer della società in cui gli veniva chiesto di effettuare una transazione in gran segreto. Temeva che potesse essere un tentativo di phishing, ma è bastata qualche battuta con i colleghi in videoconferenza per mettere da parte ogni dubbio: alla fine della riunione ha trasferito l’equivalente di circa 25 milioni di euro su cinque diversi conti correnti. Peccato però che quelli che vedeva sullo schermo del suo computer non fossero davvero i suoi colleghi: in realtà erano riproduzioni estremamente realistiche delle fattezze e delle voci dei suoi compagni di lavoro realizzate con un software di intelligenza artificiale. In pratica, lo sfortunato dipendente della filiale di Hong Kong era rimasto vittima di una truffa messa a punto con la tecnologia deepfake.
Stando a quanto ricostruito dalle autorità locali, i truffatori avrebbero scaricato una serie di video disponibili online che ritraevano le persone che avrebbero partecipato alla riunione, per poi sfruttare un sistema di intelligenza artificiale per riprodurne il volto e la voce. La polizia di Hong Kong ha voluto diffondere la notizia per mettere in guardia la popolazione da questo genere di truffa: in almeno altre 20 occasioni, per esempio, la tecnologia deepfake è stata utilizzata per aggirare i sistemi di riconoscimento facciale.


A disposizione di tutti

“Temo che episodi di questo genere saranno sempre più frequenti”, afferma Sebastiano Battiato, professore ordinario di Informatica presso l’università di Catania. “Ormai – aggiunge – i sistemi di generative AI, ossia software di intelligenza artificiale capaci di creare testi, immagini, video e audio, hanno raggiunto un tale livello di accuratezza che è difficile distinguere la realtà dalla finzione”. Il risultato sono contenuti così realistici da superare qualsiasi filtro cognitivo. “Se vedo l’immagine di un mio familiare sullo schermo di un pc, non tendo a chiedermi se sia davvero lui: penso che sia lui e basta”, chiarisce Battiato. Sistemi di questo genere sono stati già utilizzati in passato per diffondere fake news, turbare l’opinione pubblica, screditare avversari e adesso, come visto, anche per portare a termine vere e proprie truffe.
A preoccupare è soprattutto la diffusione che questi strumenti hanno raggiunto negli ultimi anni. “Tutte queste tecnologie sono sviluppate in ambito accademico e diventano di conseguenza oggetto di pubblicazioni su riviste specialistiche in cui, per motivi di trasparenza e di condivisione dei risultati raggiunti, viene spesso mostrato anche il codice sorgente del software realizzato”, illustra Battiato. Gruppi di hacker, magari motivati anche da buone intenzioni, hanno così la possibilità di reperire quasi a costo zero il codice sorgente della tecnologia del momento e di sviluppare tool che mettono i semplici cittadini nelle condizioni di poter utilizzare liberamente, in maniera semplice e intuitiva, gli ultimi progressi dell’informatica. “Basta fare un giro online per scovare app e programmi che consentono di clonare voci e realizzare video e immagini deepfake, magari senza neppure padroneggiare le basi dell’informatica e senza comprendere fino in fondo il funzionamento di una tecnologia estremamente complessa”, osserva Battiato.

Un passo in avanti notevole

Lo scorso 13 marzo il Parlamento Europeo ha approvato quello che è stato subito ribattezzato l’AI Act. Adesso, all’inizio di aprile, manca soltanto il via libera del Consiglio Europeo, poi la prima legge al mondo sull’intelligenza artificiale diventerà realtà. Il testo tocca la materia con un inedito approccio al rischio, con il divieto assoluto di utilizzare la tecnologia in ambiti che possano ledere i diritti inviolabili dei cittadini: al bando quindi strumenti di social scoring e di polizia predittiva, così come il monitoraggio delle emozioni a scuola e sul posto di lavoro e il riconoscimento facciale indiscriminato. “È un passo in avanti notevole, onestamente non mi aspettavo che saremmo arrivati così rapidamente all’approvazione del testo”, commenta Battiato. “Ci sono ancora alcuni punti da chiarire, nonché incognite su come la disciplina sarà effettivamente recepita nei vari ordinamenti nazionali, però la legge – precisa – ha un impianto coerente, fissa in maniera chiara i principi fondamentali della materia e potrà in futuro essere aggiornata ai nuovi progressi della tecnologia”.
Il testo tocca anche la questione dei deepfake: nessun divieto assoluto, ma l’obbligo di rendere noto in maniera chiara e tempestiva il fatto che il contenuto è stato generato o manipolato artificialmente.

Un gioco a guardie e ladri

L’approvazione dell’AI Act, per quanto lodevole, non risolverà in maniera definitiva il problema delle fake news e delle truffe perpetrate con strumenti di intelligenza artificiale. Innanzitutto perché i tempi di effettiva applicazione della disciplina appaiono decisamente lunghi, almeno due anni secondo le previsioni più ottimistiche. E poi perché i criminali del web hanno già dimostrato di saper aggirare i presidi messi a punto contro l’utilizzo illecito di queste tecnologie. “Sono già disponibili tool che consentono di riconoscere un contenuto deepfake”, afferma Battiato. Il problema è che spesso si innesca quella che Battiato definisce “una dinamica da guardie e ladri in cui, una volta individuato un algoritmo di generative AI, ecco subito spuntarne un altro che riesce a eludere i controlli del sistema”.
Allora che si fa? Battiato non scade nel pessimismo di chi teme che un giorno le macchine saranno talmente sofisticate da rendere impossibile la distinzione fra vero e falso. “Penso che l’intelligenza artificiale non sarà mai in grado di replicare fedelmente la complessità del reale”, afferma in chiusura. Però ammette che al momento è fondamentale stare attenti, non fidarsi immediatamente di tutto e, quando possibile, chiedere conferme e cercare riscontri. In fondo, allo sfortunato dipendente della filiale di Hong Kong sarebbe bastato fare una telefonata al suo responsabile per evitare che la sua azienda perdesse quasi 25 milioni di euro.