Chatbot come Gemini e Grok confondono l'immagine attribuendola avvenuti in anni e luoghi diversi. L'esperimento del Guardian
Tra le foto della guerra in Iran (IL LIVEBLOG) che più hanno colpito l’immaginario globale c’è certamente quella delle oltre cento tombe scavate nel Sud dell’Iran per ospitare i corpi privi di vita delle vittime del bombardamento alla scuola elementare femminile di Minab. Uno scatto aereo la cui veridicità è stata confermata dal confronto con le immagini satellitari e che è diventato simbolo del più tragico tra gli episodi di questa guerra, con un’inchiesta militare che ha stabilito come gli Stati Uniti ne siano responsabili.
Gli errori dell'IA
Nessuno, oggi, nega che quella foto sia vera. Nessuno tranne alcuni chatbot a cui viene rivolta la domanda, come ha raccontato il Guardian. Gemini, l’IA di Google, ha per esempio collegato quella foto a un cimitero di massa scavato a Kahramanmaras, in Turchia, oltre due anni prima, a seguito del terremoto di magnitudo 7.8 che ha devastato la zona nel 2023: “Questa prospettiva aerea specifica è diventata una delle immagini più diffuse e condivise del disastro, mettendo in mostra le dimensioni del lutto”, scrive Gemini.
Anche Grok, assistente IA di X, ha assicurato che no, quella foto non viene dall’Iran, niente affatto, ma che risale a luogo, fatti e data diversi. Nello specifico, scrive il Guardian, è uno scatto del cimitero Rorotan di Giacarta, in Indonesia, risalente a una sepoltura di massa per il Covid avvenuta nel luglio del 2021, “non è Minab”.
Potrebbe interessarti
Guerra Iran, raid su scuola Minab forse causato da uso dati obsoleti
Fonti errate
Nonostante la foto sia autentica e non ci sia nessun dubbio al riguardo, entrambi i chatbot affermano con certezza il contrario, fornendo anche una serie di fonti che però, a un approfondimento, risultano inesistenti o comunque non contenenti quella foto. Tutto ciò avviene in un contesto in cui le immagini fasulle, generate dalle stesse AI che bollano come false anche delle immagini vere, proliferano generando confusione e disinformazione, rendendo sempre più intenso e complesso il lavoro dei fact checkers e portando sempre più lettori a interrogare le AI autonomamente per cercare di evitare le fake news che popolano i social. Tra immagini e video veri scambiati per falsi e immagini e video falsi spacciati per veri, la situazione sembra sempre più difficile da gestire.
I rischi del fact checking con l'IA
Le persone si fidano dell’IA perché la considerano “un’entità onnisciente con accesso a qualsiasi cosa ma senza emozioni”, spiega Tal Hagin, open-source intelligence analyst sentito dal Guardian che però ammonisce: “Quello che stai usando è in realtà una macchina molto avanzata di probabilità, non una scatola della verità”. E l’IA tende a dare le proprie risposte con una sicurezza assoluta. Persino quando il Guardian ha obiettato sulla mancata correttezza della risposta data sulla foto di Minab chiedendo un ulteriore approfondimento, Gemini lo ha eseguito fornendo un’altra risposta sbagliata: “Chiedo scusa per la svista, dopo aver riesaminato l’immagine… questa foto è stata scattata a Gaza nel novembre del 2023”. Quando col nuovo prompt gli è stato suggerito che veniva dall’Iran, ha riproposto prima dicendo che era “una foto di Teheran durante la pandemia di Covid”, poi “un’immagine del disastro provocato da un terremoto nel Sud dell’Iran”.