Foto hard deepfake di Taylor Swift su X, nuovo allarme sui rischi dell’IA

Tecnologia
©IPA/Fotogramma

Immagini sessualmente esplicite della cantautrice - generate con l’intelligenza artificiale - sono diventate virali: una di queste sarebbe stata vista 47 milioni di volte. Il caso ha sollevato paure sui pericoli legati a un simile utilizzo di tool basati sull’IA, ed è intervenuta anche la Casa Bianca 

ascolta articolo

Nei giorni scorsi la cantautrice americana Taylor Swift è stata vittima di un attacco online: deepfake sessualmente espliciti raffiguranti la cantante sono apparsi su diverse piattaforme social, diventando virali. Le immagini, generate dall’intelligenza artificiale, sono state viste decine di milioni di volte: secondo quanto ricostruito dal New York Times, una specifica immagine diffusa su X sarebbe stata vista 47 milioni di volte prima che diversi account coinvolti fossero sospesi dal social network. I contenuti tuttavia, riporta ancora il quotidiano newyorkese, sono stati condivisi anche su altre piattaforme e hanno continuato a circolare nonostante gli sforzi delle compagnie per rimuoverli dalle loro piattaforme. Il caso ha nuovamente alimentato il dibattito sui possibili pericoli legati alla facilità con cui i nuovi tool basati sull’intelligenza artificiale - facilmente accessibili ed utilizzabili - possono generare deepfake e l'impatto che questi possono avere.

Le reazioni all’attacco contro Taylor Swift

Sul caso - riporta il Guardian - è intervenuta anche la portavoce della Casa Bianca, Karine Jean-Pierre, definendo “allarmanti” le immagini fake e affermando che le piattaforme social hanno la responsabilità di prevenire la circolazione di questo tipo di contenuti. E diversi politici statunitensi hanno lanciato appelli a punire la pratica di creare immagini sintetiche realistiche a sfondo hard. Sul caso - fa sapere Rolling Stone - è intervenuto anche il sindacato SAG-AFTRA, che rappresenta circa 170 000 lavoratori del settore dei media e dello spettacolo, definendo il caso “sconvolgente, dannoso e profondamente preoccupante”. X - secondo quanto riferito dal New York Times - ha fatto sapere in una nota che “i nostri team stanno rimuovendo le immagini e prendendo provvedimenti contro gli account che le hanno postate”. La piattaforma ha anche bloccato alcune ricerche legate al nome della cantante.  Nel frattempo i fan della cantante si sono mobilitati su X, invadendo il social postando contenuti non problematici, nel tentativo di nascondere e rendere più difficili da trovare i deepfake.

I precedenti casi di deepfake basati su star

Non è la prima volta che l’immagine di Taylor Swift viene manipolata per generare deepfake diffusi online: in precedenza quella che sembrava essere la voce della cantante - in realtà generata dall’intelligenza artificiale - annunciava un giveaway di set di pentole in realtà non esistente. E anche i volti e le voci di altre star, come Tom Hanks o Gayle King, erano stati manipolati contro la loro volontà e sfruttate in modi simili. I casi in questione stanno contribuendo ad alimentare il timore che, grazie a tool basati sull'intelligenza artificiale sempre più diffusi e facili da utilizzare, i deepfake in cui le persone ritratte fanno o dicono cose con cui non hanno nulla a che fare stiano diventando una potente e inarrestabile fonte di disinformazione. Un rischio che sta contagiando anche la politica: nelle scorse settimane una voce sintetica che sembrava essere quella del presidente Usa Joe Biden è stata sfruttata per fare delle telefonate registrate automatiche in occasione delle primarie in New Hampshire.

leggi anche

I casi Taylor Swift, Tom Hanks e non solo: pericoli dietro ai deepfake

Il progetto AI4TRUST contro la disinformazione

Poche settimane fa il World Economic Forum ha indicato nella disinformazione spinta dall’intelligenza artificiale il principale pericolo globale nei prossimi anni, mentre un report dell’Unione europea ha messo in luce come, e contro chi, vengono condotti gli attacchi di disinformazione da agenti malintenzionati. L’IA tuttavia può anche essere usata per contrastare simili fenomeni, e questo è lo scopo di AI4TRUST: è un progetto europeo che coinvolge 17 partner (tra i quali SkyTG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea. L’obiettivo del progetto è quello di contrastare la disinformazione online, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione delle persone.

leggi anche

AI4TRUST, intelligenza artificiale contro disinformazione online VIDEO

Tecnologia: I più letti