"Homeless Man Prank", il trend su TikTok creato con IA mette in difficoltà la polizia Usa

Mondo
©Getty

Diversi dipartimenti delle forze dell’ordine negli Stati Uniti hanno pubblicato avvisi in cui chiedono di interrompere la diffusione di questo tipo di contenuti, perché alcune persone hanno chiamato la polizia spaventate da immagini create con l’intelligenza artificiale estremamente realistiche. Intanto sale l’allarme anche su Sora, il generatore di video di OpenAI: secondo NewsGuard il tool ha prodotto video convincenti che diffondevano affermazioni false nell’80% dei casi in cui gli è stato chiesto di farlo

ascolta articolo

La creazione di contenuti generati dall’intelligenza artificiale sta diventando sempre più facile e immediata, e la semplicità di accesso a questi strumenti sta crescendo di pari passo con la realisticità dei contenuti generati. Contenuti che possono avere un impatto significativo nel mondo reale. Come nel caso di uno "scherzo" inquietante che, diffusosi negli Stati Uniti, secondo quanto riportato dal New York Times ha spinto dipartimenti di Polizia in quattro diversi Stati a pubblicare degli avvisi pubblici per chiedere di interrompere il trend e per sottolinearne la pericolosità: le autorità hanno definito il trend “disturbante” e “pericoloso”, sottolineando come possa causare panico e costringere gli agenti a rispondere a emergenze in realtà inesistenti. Intanto, generatori IA sempre più potenti e realistici stanno causando allarme: secondo un report di NewsGuard, infatti, Sora 2 di OpenAI - la società che controlla ChatGPT - ha prodotto video convincenti che diffondevano affermazioni false nell’80% dei casi in cui gli è stato chiesto di farlo.

Il caso del #homelessmanprank

Nelle scorse settimane, come detto, si è diffuso su TikTok un contenuto fake basato sulla generazione di immagini con l’intelligenza artificiale. La cosa funziona così: una persona invia a un amico o a un familiare una foto IA di un senzatetto che bussa alla porta oppure intento a mangiare in cucina o a dormire nel letto di casa. A questo punto, chi ha ricevuto le immagini spesso reagisce con preoccupazione. Secondo quanto ricostruito da NBC uno di questi video avrebbe ottenuto oltre 5 milioni di like.  E secondo l’emittente ci sarebbero 1200 video sulla piattaforma con l’hashtag #homelessmanprank - la maggiornaza dei quali legati al trend - mentre altri hanno usato l’hashtag #aihomelessprank: in tutti i casi, comunque, l’idea di base è sempre quella di ingannare le persone e fargli credere che un senzatetto sia entrato in casa e stia usando le loro cose.

Vedi anche

Intelligenza artificiale, arriva il reato di deepfake

La diffusione del trend e l’allarme della polizia

Il trend non sembra essere limitato agli Stati Uniti: per esempio la BBC ha raccontato come la Dorset Police nel Regno Unito abbia pubblicato un avviso sull’ “AI homeless man prank”, dopo aver ricevuto una telefonata da parte di un genitore spaventato all’idea che un uomo fosse entrato in casa mentre la figlia si trovava da sola: la polizia ha spiegato che questi falsi allarmi impegnano risorse importanti, che rischiano così di non poter essere dispiegate per emergenze vere. E non è l’unico allarme diramato dalle forze dell’ordine: negli Stati Uniti infatti sono stati pubblicati avvisi simili da dipartimenti di polizia in Massachusetts, Michigan, New York e Wisconsin. Come riportato da ABC News, il Yonkers Police Department nello stato di New York ha persino pubblicato una foto generata dall’IA di un senzatetto all’interno della sede della polizia per mettere in guardia gli utenti su quanto sia facile creare un simile contenuto, che risulta essere molto convincente. 

Leggi anche

L’Intelligenza artificiale sta cambiando il modo in cui parliamo

I rischi reali e la disumanizzazione dei senzatetto

Le forze dell’ordine hanno fatto sapere - riporta ancora il New York Times - di essere state costrette a rispondere a diverse chiamate che segnalavano intrusioni nelle case, per poi scoprire sul posto che si trattava di contenuti generati dall’intelligenza artificiale. Una situazione potenzialmente pericolosa: come sottolineato dal dipartimento di polizia di Salem, in Massachusetts, potrebbero verificarsi casi in cui una persona chiama le forze dell’ordine per segnalare l’intrusione di una persona armata in casa. In quel caso, ci potrebbe essere il rischio che gli agenti armati si trovino di fronte altre persone o vicini ignari di quanto sta accadendo, creando una situazione di potenziale pericolo. Per l’ufficio dello sceriffo della contea di Shawano, in Wisconsin, il trend “non è divertente” e può mettere in pericolo sia gli agenti sia altre persone. E inoltre simili contenuti - come sottolineato dal dipartimento di polizia di Salem - “disumanizzano i senzatetto”. E, ovviamente, essere vittime del trend può causare paura o perfino panico. TikTok non ha commentato direttamente questo trend, ma ha sottolineato come i creator sul social debbano etichettare i loro contenuti generati dall’IA e l’azienda sta rimuovendo in modo sostenuto i materiali che violano le linee guida del social.

Leggi anche

Quando il chatbot non vuole lasciarti

Sora e i timori per la disinformazione

In questi giorni, comunque, non è stato solo un trend su TikTok a creare allarme sui contenuti molto realistici che possono essere generati con facilità sfruttando l’intelligenza artificiale. Infatti il lancio di Sora - avvenuto il 30 settembre da parte di OpenAI - ha sollevato domande su quello che può essere creato con l’app di generazione di video. Secondo quanto riportato dal New York Times, nei primi giorni successivi al lancio Sora è stata usata per creare video realistici di frodi elettorali, arresti, manifestazioni e crimini in città. Tutte cose in realtà mai avvenute. Secondo alcuni esperti, strumenti del genere potrebbero diventare terreno fertile per la creazione e diffusione di disinformazione: “È preoccupante per gli utenti che ogni giorno vengono esposti a chissà quanti di questi contenuti”, ha detto al NYT Hany Farid, professore di computer science a Berkeley. Da parte sua OpenAI ha detto che “le nostre regole di utilizzo vietano di creare inganni attraverso impersonificazioni, truffe o frodi, e prendiamo provvedimenti ogni volta che registriamo una violazione”.

NewsGuard: “Sora diffonde fake news nell’80% dei casi”

Anche NewsGuard, la società di monitoraggio dell'affidabilità dei siti di notizie e informazioni, ha condotto un’analisi sullo strumento di OpenAI. In base a questa ricerca, l’app ha prodotto video realistici che diffondevano affermazioni false nell’80% dei casi in cui gli è stato chiesto di farlo. Un risultato che, secondo NewsGuard, “dimostra con quanta facilità soggetti malintenzionati possano sfruttare questa potente nuova tecnologia per diffondere informazioni false su larga scala”. Nel report della società si legge che tra i contenuti creati da Sora ci sono anche “video che mostrano un funzionario elettorale moldavo distruggere delle schede elettorali con voti favorevoli alla Russia” e “un bambino trattenuto da agenti dell’immigrazione negli Stati Uniti”.
In ogni caso, sembra che OpenAI sia consapevole dei potenziali rischi legati all’uso improprio di Sora e si sia già attivata per contenerli: sulla System Card disponibile sul sito ufficiale dell’azienda dal 30 settembre si legge infatti che “le funzionalità avanzate di Sora 2 richiedono la valutazione di nuovi potenziali rischi, tra cui l'uso non consensuale dell’immagine altrui o la generazione di contenuti fuorvianti”. In ogni caso, si legge ancora, “stiamo adottando un approccio iterativo alla sicurezza, concentrandoci su aree in cui il contesto è particolarmente importante oppure in cui i rischi stanno ancora emergendo e non sono pienamente compresi”.

Leggi anche

Disinformazione, l’analisi: chabot IA riportano fake news in 35% casi

Il progetto AI4TRUST

Il contrasto alla disinformazione è al centro di AI4TRUST. Il progetto, finanziato dal programma Horizon Europe dell’Unione Europea, si propone di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker. AI4TRUST, di cui Sky TG24 è partner, è anche stato al centro di questo approfondimento andato in onda domenica 23 marzo e disponibile sulle piattaforme digitali di Sky TG24.

Leggi anche

Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”

Mondo: I più letti