Elezioni Usa 2024 e disinformazione, tra intelligenza artificiale e rischio deepfake
MondoL'intelligenza artificiale generativa è una tecnologia che consente di creare contenuti audio, video e testuali di grande realismo, che possono confondersi con quelli prodotti da esseri umani. Ha influito sulla campagna elettorale americana in vari modi, contribuendo sia a episodi clamorosi di disinformazione sia alla creazione di contenuti satirici o propagandistici
L’intelligenza artificiale generativa è entrata nella campagna elettorale americana in molti modi. Da un lato è stata usata per diffondere disinformazione, dall'altro per creare contenuti satirici o propagandistici generati con l'I.A. che, senza una chiara indicazione della loro origine, potrebbero aver confuso il pubblico. I casi sono stati diversi, dalle immagini di Donald Trump che viene arrestato, alle immagini di Kamala Harris con un’uniforme comunista, fino a Joe Biden in tenuta militare. Sempre Biden è stato protagonista di uno dei casi di disinformazione più eclatanti: la sua voce è stata clonata e usata per effettuare migliaia di chiamate agli elettori americani, in cui il falso Biden consigliava loro di non andare a votare.
Secondo l'Atlantic Council, un think tank americano specializzato in politica internazionale, l'elevata verosimiglianza di questi contenuti ha favorito la loro rapida diffusione e popolarità, attirando l'attenzione di un vasto pubblico. Questa stessa attenzione ha però consentito ai media internazionali di intervenire prontamente per contrastare la disinformazione di questi contenuti.
Non solo, il Forum sulla Sicurezza Globale di Monaco ha ridimensionato alcune previsioni allarmistiche sull'impatto dell'AI nella diffusione di disinformazione diffuse a inizio anno. Questo, almeno per ora, è dovuto in parte ai limiti della tecnologia stessa: le versioni più avanzate di AI generativa sono ancora accessibili a un pubblico ristretto e richiedono competenze tecniche specifiche. Ciò ha contribuito a limitare la circolazione di immagini e video altamente realistici riguardanti figure pubbliche coinvolte nelle elezioni. Tuttavia, il Forum avverte che questa situazione potrebbe cambiare rapidamente se la tecnologia dovesse diventare più efficace e accessibile, un’eventualità che gli esperti considerano probabile.
Anche campagne di sensibilizzazione hanno contribuito a contenere i rischi di questa tecnologia nella produzione di disinformazione. Un esempio è l’iniziativa della no-profit americana "RepresentUs," che ha mostrato agli americani quanto possano sembrare realistici i video generati dall'AI. In uno spot, realizzato con la partecipazione di celebri attori di Hollywood, metà delle figure erano reali e l'altra metà create artificialmente. A questo si aggiungono le iniziative di alcuni Stati, come la California, che hanno introdotto leggi per limitare i contenuti elettorali prodotti con l'AI.
Un sondaggio del Pew Research Center mostra inoltre che il 57% degli americani è "estremamente preoccupato" per l'uso dell'AI nella creazione di fake news, indicando una consapevolezza diffusa del problema.
Sia l'Atlantic Council che il Forum sulla Sicurezza Globale di Monaco sollevano un’ulteriore questione riguardo l'uso dell’intelligenza artificiale nelle campagne elettorali: il labile confine tra contenuti satirici, di propaganda o disinformazione. "Diventerà sempre più complesso distinguere i deepfake dannosi dalla pubblicità politica legittima o dai contenuti satirici", avverte il Forum di Monaco. Un esempio recente è - ad esempio - il video condiviso su X da Elon Musk, che mostra un falso spot elettorale di Kamala Harris: nella clip, la voce clonata della vicepresidente sembra dichiarare "Mi candido alla presidenza perché Biden ha finalmente rivelato la sua demenza senile."
La situazione si complica ulteriormente quando il riferimento all’AI viene utilizzato per negare la realtà. L’Atlantic Council cita il caso di Donald Trump, che ha accusato Kamala Harris di aver manipolato le immagini dei suoi comizi con l’AI per gonfiare la dimensione del suo pubblico. L'accusa è stata smentita da foto e video di varie agenzie giornalistiche, ma il caso - sottolinea l’Istituto - evidenzia come questa tecnologia stia trasformando la nostra realtà, confondendo sempre più il confine tra vero e falso.
L’intelligenza artificiale può essere anche utilizzata per contrastare la disinformazione. Ne è un esempio AI4TRUST, un progetto europeo finanziato dal programma Horizon Europe dell’Unione Europea di cui Sky TG24 è partner e di cui questo articolo fa parte. AI4TRUST nasce con l'obiettivo di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker.