I casi Taylor Swift, Tom Hanks e non solo: i pericoli dietro ai deepfake facili da creare
Tecnologia ©IPA/FotogrammaL’ultimo caso ha visto la voce della cantante clonata per promuovere una inesistente campagna di giveaway di set di pentole, ma esistono altri precedenti che hanno visto coinvolti, loro malgrado, persone famose. E l’uso di tool di intelligenza artificiale sempre più semplici da utilizzare potrebbe, secondo le autorità statunitensi, comportare diversi rischi di sicurezza
AI4TRUST - IL PROGETTO CONTRO LA DISINFORMAZIONE
Tool di intelligenza artificiale sempre più semplici da utilizzare, deepfake creati in meno di 45 minuti, voci e volti di star ricreati sinteticamente: l’ultimo caso è proprio di questi giorni, e ha come involontaria protagonista Taylor Swift. Nei video circolati sui social, che secondo il fact-checking di AFP ha raccolto migliaia di visualizzazioni su Facebook, si sente quella che sembra essere la voce della cantante affermare che “a causa di un problema con l’imballaggio non possiamo vendere tremila set di pentole di Le Creuset, quindi le sto regalando ai miei leali fan”. I link di accompagnamento a questi post, però, rimandavano a una serie di questionari che richiedevano informazioni personali e a pagamenti che sarebbero serviti per sostenere le spese di spedizione: come confermato da McAfee, si tratta di un deepfake truffa generato dall’intelligenza artificiale.
Il precedente caso di Tom Hanks
Nel caso in questione, esperti contattati dal New York Times hanno evidenziato come l’intelligenza artificiale abbia permesso di creare una versione sintetica della voce di Taylor Swift, sovrapposta a immagini della cantante e a quelle dei prodotti di Le Creuset. La stessa compagnia ha confermato di non essere coinvolta in alcuna campagna di “giveaway” ai consumatori con Taylor Swift. Non si tratta, come detto prima, dell’unico caso in cui la voce o l’immagine di una celebrità sono state sfruttate per simili scopi con l’uso dell’intelligenza artificiale: a ottobre vi abbiamo raccontato del caso di Tom Hanks, riprodotto con l’IA in una promozione di un’assicurazione dentale. Era stato lo stesso attore a denunciare il caso su Instagram, sottolineando come non si trattasse della sua vera immagine e come lui non avesse niente a che fare con quella promozione.
leggi anche
Tom Hanks, in una pubblicità l'immagine AI dell'attore senza consenso
Tool di IA sempre più accessibili
Lo sviluppo dell’intelligenza artificiale nell’ultimo periodo ha reso molto più semplice creare simili contenuti, anche da parte di persone con basse conoscenze tecniche. In particolare - ha sottolineato al New York Times il professor Siwei Lyu, che dirige il Media Forensic Lab all’università di Buffalo - è diventato piuttosto semplice creare voci sintetiche e piuttosto difficile identificarle come tali: “Questi tool stanno diventando molto accessibili”, e ha spiegato che è possibile generare video di “qualità decente” in meno di 45 minuti. Un altro caso, simile a quelli indicati in precedenza, ha visto coinvolta la conduttrice televisiva statunitense Gayle King: la stessa giornalista ha denunciato in un post su Instagram come la sua voce fosse stata manipolata con l’intelligenza artificiale per far credere che stesse promuovendo un prodotto.
leggi anche
Arresto Trump, le foto deepfake create con l'Ai che sembrano vere
I possibili pericoli dei deepfake
L’arrivo di tool di intelligenza artificiale sempre più semplici da usare - e dunque alla portata di un numero crescente di persone - può comunque portare a pericoli non solo legati ai deepfake generati sfruttando immagini e voci di persone famose. Infatti, secondo diversi importati esponenti delle forze dell’ordine e della giustizia negli Stati Uniti, questi strumenti potrebbero rendere più semplici le attività di hackeraggio, truffe e riciclaggio di denaro. Secondo quanto riportato da Reuters, il procuratore di Manhattan Damian Williams ha detto che l’intelligenza artificiale potrebbe aiutare persone che non parlano inglese a creare messaggi che suonano credibili per cercare di truffare le persone. Mentre Breon Peace, procuratore di Brooklyn, ha affermato che immagini e video deepfake potrebbero essere usati per aggirare i sistemi di sicurezza delle banche per verificare l’identità dei loro clienti. E per Rob Joyce, direttore della cybersicurezza alla NSA, i tool di intelligenza artificiale facilmente utilizzabili potrebbero permettere di condurre operazioni di hackeraggi a persone altrimenti non capaci di compiere. Tuttavia, Joyce ha sottolineato anche come esista un altro lato della medaglia: gli sviluppi dell’IA infatti potrebbero aiutare anche le autorità a scovare crimini.
leggi anche
La disinformazione è "il più grande pericolo globale a breve termine"
Il progetto AI4TRUST
L’intelligenza artificiale può essere utilizzata anche allo scopo di contrastare la disinformazione online. Su questo si basa il progetto AI4TRUST, iniziativa europea che coinvolge 17 partner (tra i quali SkyTG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea: l’obiettivo è di contrastare la disinformazione online, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione delle persone.