Proteste a Los Angeles, così la disinformazione si è diffusa online
Mondo ©GettyFoto e video presentati in maniera fuorviante sono stati diffuse online, così come contenuti generati dall’intelligenza artificiale. E in un caso, chi si è rivolto a chatbot per avere informazioni verificate è stato fuorviato
Mentre continuano ormai da giorni le proteste a Los Angeles contro le politiche di contrasto all’immigrazione decise da Donald Trump, la disinformazione su quanto sta avvenendo in California “sta dilagando online”. Secondo il New York Times “fotografie, video e testi fuorvianti sono stati ampiamente condivisi sui social media”, e questo ha “contribuito alla confusione su cosa stesse succedendo esattamente nelle strade”. E secondo il TIME queste proteste sono state uno dei primi grandi eventi di cronaca negli Stati Uniti ad avvenire “in un’era in cui gli strumenti di intelligenza artificiale sono diventati parte integrante della vita online”. E gli utenti dei social hanno usato questi tool “per creare deepfake e diffondere disinformazione, ma anche per verificare i fatti e smentire false affermazioni”.
I casi di disinformazione online
Come ricostruito dal NYT, negli ultimi giorni sono stati pubblicati diversi post online per veicolare l’idea che l’intera Los Angeles fosse coinvolta dalle proteste, mentre in realtà gli scontri sono avvenuti solamente in una zona circoscritta della città. Inoltre sono stati diffusi sui social - e in alcuni casi sono diventati virali - immagini e video fuorvianti. I fact-checkers di AFP hanno analizzato alcuni esempi: in un caso è stato condiviso su X un video, presentato come la scena di un assalto a un negozio durante le proteste. Si tratta in realtà di un filmato risalente a ottobre del 2024, e girato in un’altra città della California. Altri contenuti virale mostrano mattoni accatastati a bordo strada, che sarebbero stati piazzati strategicamente per far degenerare le proteste: le immagini in realtà provengono da un cantiere nel New Jersey e da un sito di vendite online. E ancora, un video presentato come scene di protesta a Los Angeles in realtà raffigura i supporter di una squadra locale prima di una partita.
Leggi anche
Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”
Il ruolo dell’intelligenza artificiale
Non ci sono però solamente i casi di informazioni false o manipolate che potrebbero aver influenzato il racconto online di quanto sta avvenendo in questi giorni in California. Come ricostruito dal TIME, infatti, insieme a foto e video autentici di grande impatto - come l’immagine della bandiera messicana sventolata intorno ad auto in fiamme - sono stati diffusi online anche contenuti generati dall’intelligenza artificiale. Tra questi viene citato il caso del presunto soldato Bob, che si sarebbe filmato mentre era in servizio a Los Angeles: secondo France 24 il video avrebbe raccolto più di un milione di visualizzazioni, ma poi rimosso da TikTok. E molti utenti avrebbero commentato il video ringraziando il soldato Bob per il suo servizio, senza realizzare che si trattava di immagini generate dall’intelligenza artificiale. “Quello che sta accadendo sui social è simile al caos dell’informazione sulle proteste dopo la morte di George Floyd nel 2020”, ha detto alla CNN Renée DiResta, ricercatore ed esperto su come le teorie del complotto si diffondono online. Con la differenza che oggi le immagini generate dall’IA sono abbondanti, e gli utenti sono frammentati su diverse piattaforme “dove vengono raccontate storie diverse”.
Il caso dell’immagine della Guardia Nazionale
Infine, un altro caso che ha fatto discutere è quello dell’immagine diffusa online dei membri della Guarda Nazionale che dormivano per terra all’interno di un’edificio federale a Los Angeles. Le foto sono state condivise anche dal governatore della California, Gavin Newsom, secondo cui le immagini dimostrerebbero come l’impiego delle truppe sarebbe stato organizzato male, e che i soldati erano “senza benzina, acqua e un posto dove dormire”. Secondo quanto ricostruito dall’emittente americana CBS, alcuni utenti online hanno messo in discussione l’autenticità delle immagini e Grok, il chatbot d’intelligenza artificiale di X, in una risposta fornita il 9 giugno ha sostenuto che “le foto probabilmente provengono dall'Afghanistan nel 2021, durante le operazioni di evacuazione della Guardia Nazionale nell'ambito dell'operazione Allies Refuge”. E secondo France24, una simile risposta sarebbe stata fornita anche da ChatGpt. Tuttavia le immagini sono autentiche, come confermato dall’U.S. Northern Command a CBS. Successivamente Grok ha fornito anche la risposta corretta.
Leggi anche
Usa, lettera virale della Casa Bianca non è stata corretta da Harvard
Il progetto AI4TRUST
Il contrasto alla disinformazione online è al centro del progetto AI4TRUST. Finanziato dal programma Horizon Europe dell’Unione Europea, nasce con l'obiettivo di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker.