Nevicate record in Russia, ma alcuni video online sono stati generati con l'IA

Mondo

Nei giorni scorsi l’estremo oriente del Paese è stato colpito da quella che secondo Reuters è stata la “più grande nevicata degli ultimi 60 anni”. A fianco alle immagini reali, però, sono state diffusi anche diversi contenuti generati dall’intelligenza artificiale

ascolta articolo

Nei giorni scorsi la Kamchatcka, regione nell’estremo oriente della Russia, è stata colpita da quella che secondo Reuters è stata la “più grande nevicata degli ultimi 60 anni”. L’agenzia di stampa britannica ha riportato che in alcune aree sono caduti più di due metri di neve nella prima metà di gennaio. Secondo le immagini - come quella in testa a questo articolo - le nevicate hanno creato vasti cumuli alti diversi metri che hanno bloccato gli ingressi degli edifici e ricoperto le auto. Tuttavia, a fianco delle immagini reali circolate in questi giorni, sui social network sono state diffuse anche foto e video che - secondo quanto riportato da fact-checkers come BBC Verify e Facta - appaiono essere generate o modificare con l’intelligenza artificiale. Si tratta di contenuti che, sebbene presentino segni di manipolazione, stanno diventando sempre più difficili da individuare. Henk van Ess, un esperto nell’uso dell’IA nelle ricerche investigative, ha detto all’emittente britannica che quando simili immagini riescono a ingannare anche i giornalisti “si è di fronte a una crisi delle verifiche”.

I video generati dall’IA e le etichette

Come sottolineato dalla BBC, sebbene in effetti nella zona si siano registrate enormi nevicate a partire dal 12 gennaio, “molti dei video virali mostrano i segni tipici dei contenuti generati dall’IA”. La tv di stato britannica inoltre sottolinea come “diverse clip e foto sono state condivise su X, YouTube e Facebook senza segnalare il fatto che fossero fake”. Ci sono però anche stati casi in cui l’etichetta era stata apposta al contenuto: un video che ha ottenuto più di un milione di visualizzazioni su TikTok risulta infatti avere l’indicazione che è stato generato con l’uso dell’intelligenza artificiale. Secondo quanto ricostruito dalla BBC, il video in questione mostra enormi cumuli di neve che collassano: nelle immagini però si vedono delle tinte blu tra la neve, cosa che ci si aspetterebbe di vedere in clip di ghiacciai che si spezzano e cadono nel mare. Inoltre “altri segni rivelatori dell’uso dell'intelligenza artificiale nel filmato includono l'assenza di danni alla facciata degli edifici e la neve sui balconi”.

I segni a cui fare attenzione

I contenuti sono arrivati anche in Italia, e nei giorni scorsi - come sottolineato da Facta - sono stati diffusi almeno tre video creati con l’intelligenza artificiale. Alcuni di questi sembrano provenire da un canale YouTube, che nella descrizione specifica di pubblicare contenuti generati dall’IA. Distinguere foto e video creati o manipolati con l'intelligenza artificiale sta diventando sempre più complesso. In ogni caso, secondo l’organizzazione di fact-checking, alcuni elementi dei contenuti possono far sorgere il dubbio che i video non siano organici: per esempio si tratta di brevi clip, con un audio perfetto sebbene apparentemente registrati all’esterno e la neve non presenta alcun tipo di avvallamento. In un caso specifico poi le persone in movimento sopra ai cumuli apparivano muoversi in modo meccanico. Ci sono poi ulteriori dettagli a cui fare attenzione: in alcuni casi l’altezza raggiunta dalla neve appare essere irrealistica - coprendo un intero condominio di diversi piani - inoltre la neve stessa sembra essere concentrata soprattutto sulle facciate dei palazzi creando così una sorta di pista da sci.

Leggi anche

X, nuove misure per impedire a Grok di creare immagini di nudo con IA

Il progetto AI4TRUST

Riuscire a identificare i contenuti generati dall’intelligenza artificiale è - come parte degli sforzi per contrastare la disinformazione online - al centro di AI4TRUST, il progetto finanziato dal programma Horizon Europe dell’Unione Europea, di cui Sky TG24 è partner. AI4TRUST si propone di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker.

Leggi anche

Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”

Mondo: I più letti