Bangladesh, il peso della disinformazione generata dall’IA in vista delle elezioni

Mondo
©IPA/Fotogramma

Nel 2024 sono previste diverse importanti tornate elettorali in tutto il mondo, tra cui il voto per le Europee e per la Casa Bianca. Ci sono preoccupazioni sull’impatto che potrebbero avere informazioni false o manipolate generate dall’intelligenza artificiale, e secondo il Financial Times questo scenario si sta già verificando in Bangladesh 

ascolta articolo

AI4TRUST - IL PROGETTO CONTRO LA DISINFORMAZIONE
 

 In vista delle prossime elezioni in Bangladesh, previste all’inizio di gennaio, media e influencer che sostengono il governo starebbero promuovendo disinformazione creata con tool a basso costo di intelligenza artificiale. A sostenerlo è il Financial Times, secondo cui nel Paese - che conta 170 milioni di abitanti - si starebbe già verificando quello che i policy-makers in tutto il mondo temono: la disinformazione creata con l’intelligenza artificiale messa in campo per ingannare gli elettori ed esacerbare le divisioni in vista di elezioni molto importanti nel prossimo futuro.

I contenuti generati a basso costo

Sono diversi gli esempi indicati dal quotidiano britannico: a settembre un media online ha pubblicato su X un video in cui un conduttore accusava i diplomatici americani di interferire con le elezioni e li accusava per le violenze politiche: le immagini sono state generate, secondo il Financial Times, usando un tool di intelligenza artificiale che permette di creare filmati con avatar artificiali per 24 dollari al mese. È poi citato il caso di video deepfake contro l’opposizione pubblicati su Facebook, compreso uno in cui il leader in esilio di un partito suggerirebbe di “restare in silenzio” su Gaza per non irritare gli Stati Uniti, un tema particolarmente sentito nel Paese dove sono forti le simpatie a favore della Palestina. Il contenuto sarebbe poi stato rimosso da Meta.

L’IA verso le elezioni del 2024

Il caso del Bangladesh, come detto, ha aumentato l’attenzione sui potenziali pericoli posti dall’uso dell’intelligenza artificiale per generare e disseminare disinformazione. E - riporta ancora il Financial Times - sta crescendo la pressione sulle grandi aziende tech in vista di importanti elezioni del 2024: tra queste, il voto per il Parlamento europeo a giugno e le presidenziali negli Stati Uniti a novembre. Google e Meta - la società che controlla Instagram e Facebook - hanno già annunciato che imporranno alle campagne elettorali di specificare se i contenuti sono stati generati o modificati dall’IA.

leggi anche

L’IA per fare campagna elettorale dal carcere: il caso in Pakistan

I possibili rischi della disinformazione creata dall’IA

Per Miraj Ahmed Chowdhury, direttore di un gruppo di ricerca sui media in Bangladesh citato dal FT, sebbene il caso nel Paese fosse “ancora a un livello sperimentale”, mostrerebbe come potrebbe evolvere: “Quando si ha a disposizione tecnologie e strumenti come l’intelligenza artificiale, che permettono di produrre disinformazione in grande quantità, si può immaginare quale minaccia questo possa rappresentare”. Inoltre per Sabhanaz Rashid Diya, fondatrice del Tech Global Institute ed ex manager a Meta, uno dei problemi principali in questo campo è la mancanza di strumenti affidabili per identificare la disinformazione prodotta con l’intelligenza artificiale: i prodotti già disponibili non sarebbero infatti particolarmente efficaci nell’individuare contenuti non in inglese. E c’è poi un’altra possibile minaccia causata dalla diffusione di questo tipo di contenuti, secondo Diya: che i politici e altri personaggi influenti possano bollare come ‘deepfake’ - e così screditare - informazioni reali che li metterebbero in cattive luce: “È  facile per un politico dire ‘è un deepfake’, ‘è stato creato con l’intelligenza artificiale’, e alimentare la confusione”.

leggi anche

"Canali YouTube pro-Cina attaccavano gli Usa usando l'I.A.", il report

Mondo: I più letti