Intelligenza artificiale ed elezioni, il caso del voto in Argentina
Mondo Account Twitter Javier Milei / Account Instagram kukartificial e iaxlapatriaSergio Massa e Javier Milei, i due candidati al ballottaggio per le elezioni presidenziali, stanno facendo un uso massiccio di contenuti generati con l'intelligenza artificiale. Foto e video utilizzati in campagna elettorale anche per screditarsi a vicenda. A settembre, invece, alcuni deepfake sono circolati sui social alla vigilia del voto in Slovacchia. E l’attenzione si sta alzando verso quanto potrebbe accadere nel 2024 nelle elezioni presidenziali negli Stati Uniti
Tra un anno il mondo assisterà all’elezione del presidente degli Stati Uniti d’America. Un voto che potrebbe essere storico per diversi aspetti: in una corsa che - al netto dei problemi giudiziari dell’ex tycoon - sembra destinato a mettere nuovamente di fronte Donald Trump e Joe Biden, chiunque emergerà vincitore sarà il più anziano presidente mai eletto a Washington. E soprattutto, la corsa del 2024 potrebbe essere la prima ad essere segnata dall’uso dell’intelligenza artificiale nella comunicazione politica. Per farsi un’idea di quanto potrebbe accadere, è sufficiente rimanere in America, spostandosi a Sud, in Argentina, dove domenica si terrà il ballottaggio per le elezioni presidenziali. Sergio Massa e Javier Milei sono i due contendenti che si affronteranno nel voto per scegliere il nuovo presidente dell’Argentina. E le elezioni argentine, ha scritto il New York Times, "sono diventate rapidamente un banco di prova per l'A.I. nelle campagne elettorali" Massa e Milei stanno infatti “usando l’intelligenza artificiale per creare immagini e video per promuovere se stessi e attaccare l’altro”. E sebbene “molti dei contenuti fossero chiaramente falsi”, alcuni sembrano rientrare più nel campo della disinformazione.
Elezioni in Argentina e Intelligenza artificiale
La corsa elettorale, che ha attirato l’attenzione internazionale anche per alcune uscite mediatiche d’impatto di Milei, è anche tra le prime in cui i candidati hanno fatto un uso esteso dell’intelligenza artificiale. Secondo il NYT, la campagna elettorale di Massa ha usato l’IA per ritrarlo in contesti che lo mostrano come un soldato in guerra, come Indiana Jones e perfino in poster che rievocano quello di Barack Obama nel 2008.
Allo stesso tempo, l’avversario Javier Milei sembra aver usato l’intelligenza artificiale per mostrare se stesso come un leone in stile cartone animato. Ma l’IA è stata usata anche per attaccare l’avversario: un caso, citato dalla versione brasiliana della CNN, , è quello di un video della campagna elettorale di Massa. Il contenuto cerca di mettere in relazione l’avversario con Margaret Thatcher, premier britannica al tempo della guerra delle Falkland, una sconfitta ancora bruciante nell’immaginario pubblico dell’Argentina. E lo stesso sembra aver fatto Milei, pubblicando su X un’immagine del suo avversario ritratto in modo da ricordare Mao Tse-tung.
L’uso dell’IA, però, non si è limitato a ritrarre i contendenti in maniera positiva o negativa: si è anche arrivati a far dire ai candidati frasi in realtà mai pronunciate. Per esempio, in un video si facevano dire a Milei frasi, in realtà mai pronunciate, sul progetto di rendere legale la vendita di organi. Un deepfake da cui, riporta ancora il NYT, Sergio Massa ha preso le distanze e che successivamente è stato rimosso. Un esempio che però mette in luce i rischi che si annidano nell’utilizzo estensivo dell’intelligenza artificiale nelle campagne elettorali.
leggi anche
Live In Genova, Cingolani: senza sicurezza digitale tutti in pericolo
L’intelligenza artificiale e la disinformazione
Da tempo i ricercatori sono preoccupati per l’impatto che l’IA potrebbe avere sulle elezioni, sottolinea il New York Times. In particolare, i contenuti così generati potrebbero confondere gli elettori e alimentare i dubbi su cosa sia reale oppure no, oltre ad ampliare l’impatto della disinformazione già esistente online. D’altra parte, c’è però anche chi pensa che l’impatto dell’IA nel campo della misinformazione rischi di essere sopravvalutato: è il caso di una recente pubblicazione – firmata da Felix Simon dell’Oxford Internet Institute, Sacha Altay dell’Università di Zurigo e Hugo Mercier dell’Istituto Jean Nicod - che segnalato come questi timori potrebbero essere almeno in parte esagerati. Quello che sembra sicuro è che, a settembre, alla vigilia del voto in Slovacchia per il rinnovo del Parlamento, sui social sono stati diffusi dei video-deepfake con le voci dei politici: in uno di questi, riporta Bloomberg, si sentiva il leader di un partito discutere l’acquisto di voti con un giornalista. Il video è stato analizzato dai fact-checkers di AFP, che con l’aiuto di diversi esperti sono arrivati alla conclusione che si trattasse di un deepfake, creato da un’intelligenza artificiale addestrata a riprodurre la voce del politico tramite l’utilizzo di veri file audio. Un caso, sottolinea ancora Bloomberg, che sembra mostrare come queste tecnologie possano essere sfruttate per ingannare gli elettori nei giorni precedenti a elezioni particolarmente combattute.
leggi anche
Hamas-Israele, così la disinformazione sfrutta l’IA per creare bufale
Meta e l'advertising elettorale
L’utilizzo dell’IA - e il suo possibile impatto - sulle elezioni è dunque un tema sempre più al centro dell’attenzione. Meta ha annunciato che imporrà alle pubblicità elettorali su Facebook e Instagram di dichiarare l’eventuale utilizzo dell’intelligenza artificiale. Intanto, nei mesi scorsi sono emersi i primi casi di utilizzo dell’intelligenza artificiale nella campagna elettorale Usa: tra gli altri, ad aprile, in seguito all’annuncio di Joe Biden di voler candidarsi per un secondo mandato, il Partito Repubblicano ha postato su YouTube un video generato dall’IA che mostra ipotetici scenari catastrofici che potrebbero realizzarsi se l’attuale presidente vincesse le elezioni del 2024.
leggi anche
Intelligenza artificiale, 5 app gratis per riconoscere immagini fake
AI4TRUST: combattere la disinformazione anche grazie all'IA
È d'altra parte vero che la stessa intelligenza artificiale rappresenta uno strumento molto utile per combattere la mis/disinformazione. Questo tema, sempre più cruciale, è anche al centro del lavoro di AI4TRUST: il progetto, che coinvolge 17 partner (tra i quali SkyTG24) di 11 Paesi, è finanziato dal programma Horizon Europe dell’Unione Europea e mira a sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker. L’obiettivo è proprio quello di contrastare la disinformazione online, sfruttando le potenzialità che l’intelligenza artificiale può mettere a disposizione dei professionisti dei media.