Guerra Hamas-Israele, così la disinformazione sfrutta l’I.A. per creare bufale

Mondo
Tommaso Spotti

Tommaso Spotti

Getty Images / Ipa

La guerra in Medio Oriente comporta anche un'ondata di disinformazione e misinformazione, da entrambe le parti. Un report di NewsGuard ha identificato un nuovo caso, nel quale a giocare un ruolo è anche l’intelligenza artificiale, con la falsa notizia della morte del presunto psichiatra di Benjamin Netanyahu

ascolta articolo

Anche l’intelligenza artificiale sta giocando un ruolo nella disinformazione e misinformazione intorno al conflitto in corso dal 7 ottobre tra Israele e Hamas. Una guerra segnata fin dall’inizio da un’ondata di contenuti online falsi o fuori contesto, a cui adesso si aggiunge un nuovo caso creato dall’IA e scoperto da NewsGuard, piattaforma che monitora l’affidabilità delle informazioni online. Si tratta della falsa notizia del suicidio dello psichiatra di Benjamin Netanyahu, diventata virale e generata - secondo NewsGuard - dall’intelligenza artificiale. (GUERRA ISRAELE-HAMAS: GLI AGGIORNAMENTI IN DIRETTA - LO SPECIALE)

Disinformazione e misinformazione nel conflitto

Prima di analizzare quest'ultimo caso, è necessario sottolineare come dall’inizio della guerra le informazioni false e manipolate siano circolate online colpendo entrambe le parti in conflitto. Una grande mole di video e di foto, che dicono di fare riferimento al conflitto, hanno invaso i social: sebbene tra questi molti siano aderenti alla realtà, ce ne sono altri che, per esempio, sfruttano immagini decontestualizzate per sostenere tesi false. Alcuni contenuti verificati da AP comprendono ad esempio due video, presentati come fossero stati realizzati a un giorno di distanza che affermano di mostrare prima un uomo palestinese ferito e dopo la stessa persona che realizza un video, additandolo dunque come un attore palestinese. I due video in realtà mostrano due persone diverse, e il primo - quello della persona ferita - è stato girato prima dello scoppio del conflitto. C’è poi un video - filmato in realtà nel 2022 - che mostra un ampio numero di Marines statunitensi arrivati in Israele e spacciato come un fatto avvenuto dopo l’attacco del 7 ottobre. E non ci sono solo video e foto: circolano anche informazioni false e manipolate. Tra queste, sottolinea il Guardian, si possono trovare tentativi di minimizzare la portata dell’attacco terroristico di Hamas del 7 ottobre oppure, in altri casi, accuse ai Palestinesi di fingere scene di violenza in una teoria del complotto che è stata definita “Pallywood” e secondo cui esisterebbe una sorta di Hollywood palestinese dedita alla realizzazione di contenuti di propaganda pro-Hamas. E in questo contesto di disinformazione e misinformazione online, NewsGuard ha individuato un nuovo esempio in cui a giocare un ruolo è anche l’intelligenza artificiale.

Online news on a smartphone and laptop. (Mockup website). Woman reading news or articles in a mobile phone screen application at home. Newspaper and portal on internet, copy space.

leggi anche

Intelligenza artificiale e misinformazione, studio: “Paure esagerate"

La bufala generata dall’IA dello psichiatra di Netanyahu

Il nuovo report di NewsGuard ha analizzato l’informazione virale - e falsa - secondo cui il presunto psichiatra del primo ministro israeliano Benjamin Netanyahu sarebbe morto suicida. Secondo l’indagine condotta da NewsGuard, l’affermazione sarebbe emersa il 6 novembre su un sito online. L’articolo, che sarebbe stato generato dall’intelligenza artificiale, affermerebbe che "il dottor Moshe Yatom, un noto psichiatra israeliano conosciuto per il suo lavoro nella cura di gravi malattie mentali, è stato trovato morto nella sua casa di Tel Aviv”, e aggiungerebbe che Yatom aveva lasciato una "devastante lettera d'addio che riguardava" Netanyahu. L'articolo generato dall'intelligenza artificiale - continua il report di NewsGuard - conteneva informazioni molto dettagliate, nonostante la notizia fosse completamente inventata. La notizia falsa si è rapidamente diffusa su diverse piattaforme in varie lingue ed è stata - riporta ancora NewsGuard - condivisa da migliaia di utenti sui social network. Tuttavia, non risulterebbe nessuno psichiatra in Israele chiamato Moshe Yatom. La stessa piattaforma, inoltre, già lo scorso maggio aveva identificato questo sito come generato dall’intelligenza artificiale: questo significa che il sito pubblica prevalentemente notizie generate dall'intelligenza artificiale, adottando una minima supervisione editoriale e senza divulgare in modo trasparente questa pratica ai lettori. NewsGuard, comunque, non ha trovato prove che la falsa affermazione facesse parte di una campagna online coordinata più ampia.

Over the shoulder view of young Asian woman managing finance and investment, analyzing stock market data on laptop at desk. Stock exchange, banking, finance, investment, financial trading concept. Smart banking with technology

leggi anche

AI, ecco come l'intelligenza artificiale cambierà il mondo del lavoro

Rischi (e potenzialità) dell’IA nella disinformazione

Come riportato ancora dal report di NewsGuard, in questo caso l’IA è stata ulteriormente utilizzata per diffondere la notizia falsa: un video su TikTok sembrerebbe aver utilizzato strumenti audio e avatar iper-realistici per simulare il racconto di una voce umana. Nelle immagini, infatti, appare l’avatar di una donna generata dall’IA ma con sembianze umane. Come detto, questo è solo un esempio tra i molti di informazioni false che mirano a colpire o screditare entrambe le parti in guerra. Tra questi si possono ancora citare due casi di narrazioni chiaramente false e purtroppo molto diffuse, riporta la BBC: quella secondo cui Israele avrebbe ucciso i suoi stessi civili il 7 ottobre, e nuovamente la falsa affermazione secondo cui attori inscenerebbero vittime palestinesi. Il caso del falso suicidio dello psichiatra di Netanyahu è tuttavia significativo per il ruolo che l’intelligenza artificiale può giocare nella creazione e diffusione di simili contenuti falsi o manipolati.  Sebbene le notizie false siano sempre esistite, l’enorme quantità di contenuti online prodotta ogni giorno rende sempre più complesso identificare e contrastare le informazioni false o manipolate. È però possibile utilizzare anche l’intelligenza artificiale per farlo, ed è questo l’obiettivo di AI4TRUST. Il progetto, che coinvolge 17 partner (tra i quali SkyTG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea, mira a sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker

 

Texture backgrounds | Explainers YouTube Thumbnails - Title text

leggi anche

AI4TRUST, intelligenza artificiale contro disinformazione online VIDEO

Mondo: I più letti