“Milioni di persone hanno creato e diffuso deepfake nudi su Telegram”: l’analisi

Tecnologia
©Getty

Un’indagine condotta dal Guardian ha identificato almeno 150 canali sull’app di messaggistica, con utenti provenienti da molte parti del mondo: alcuni di questi avrebbero creato contenuti ‘nudificati’ a pagamento. Intanto il Garante britannico per la protezione dei dati ha annunciato l'apertura di un'indagine nei confronti di X per le immagini a sfondo sessuale generate da Grok

ascolta articolo

Mentre non si placa l’attenzione su quanto avvenuto nelle scorse settimane su X, con Grok AI che ha generato milioni di immagini sessualmente esplicite, un’analisi del Guardian ha svelato un altro caso di creazione di contenuti di questo tipo: secondo il quotidiano britannico, infatti, milioni di persone in tutto il mondo avrebbero generato e diffuso deepfake di nudi sull’app di messaggistica Telegram. Il Guardian ha identificato almeno 150 canali che sembrano avere utenti provenienti da molte parti del mondo. E alcuni di questi - scrive ancora il quotidiano - avrebbero offerto contenuti dietro un pagamento: “Gli utenti potevano caricare una foto e l'IA avrebbe prodotto un video di quella persona mentre compie atti sessuali". Altri invece offrivani "un feed di immagini sintetiche di celebrità, influencer dei social media e donne comuni, rappresentate nude o costrette a compiere atti sessuali dall’intelligenza artificiale”.

Il ruolo dei tool di IA

Il Guardian sottolinea come l’ampia diffusione di tool di IA facilmente accessibili abbia reso possibile trasformare chiunque in soggetti di contenuti espliciti non consensuali, visibili da milioni di persone. Bisogna comunque sottolineare che le regole di Telegram prevedono che gli utenti non possano pubblicare contenuti illegali pornografici su canali visibili, o “impegnarsi in attività riconosciute come illegali nella maggior parte dei Paesi”. L’azienda ha detto al quotidiano britannico che i deepfake pornografici e i tool per crearli sono esplicitamente proibiti dai suoi termini di servizio. Inoltre, una revisione di un database indipendente ha indicato che Telegram ha chiuso diversi di questi canali di ‘nudificazione’. La stessa piattaforma ha detto di aver rimosso più di 950mila contenuti di questo tipo nel corso del 2025.

Leggi anche

Musk convocato dalla procura di Parigi, perquisiti gli uffici di X

L’indagine nel Regno Unito su Grok

Intanto il Garante britannico per la protezione dei dati ha annunciato l'apertura di un'indagine nei confronti del social network X e della sua società di intelligenza artificiale xAI, entrambe di proprietà del tycoon Elon Musk, per le immagini a sfondo sessuale generate dal chatbot Grok, al centro di un'ondata di proteste a livello mondiale. "La creazione e la diffusione di tali contenuti sollevano gravi preoccupazioni ai sensi della legge britannica sulla protezione dei dati e presentano un rischio di potenziale danno significativo per il pubblico", è scritto in una nota. In precedenza anche l'autorità di regolamentazione dei media, Ofcom, aveva avviato un'indagine in merito, per le presunte violazioni dell'Online Safety Act.

Si muove anche l’Unione europea

Prima del Garante britannico, nei giorni scorsi anche la Commissione Ue ha avviato una nuova indagine formale contro X ai sensi delle norme sui servizi digitali, estendendo il procedimento del 2023. Valuterà se X abbia correttamente valutato e mitigato i rischi legati all'integrazione di Grok, inclusa la diffusione di contenuti illegali come immagini sessualmente esplicite manipolate con l'IA, compresi contenuti che potrebbero configurare materiale di abuso sessuale su minori. "I deepfake sessuali non consensuali di donne e bambini sono una forma violenta e inaccettabile di degradazione", ha dichiarato in una nota la vicepresidente della Commissione Henna Virkkunen.

Leggi anche

Grok e i deepfake, Bruxelles apre il fronte legale contro Elon Musk

Il progetto AI4TRUST

Riuscire a identificare i contenuti generati dall’intelligenza artificiale è - come parte degli sforzi per contrastare la disinformazione online - al centro di AI4TRUST, il progetto finanziato dal programma Horizon Europe dell’Unione Europea, di cui Sky TG24 è partner. AI4TRUST si propone di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker.

Leggi anche

Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”

Tecnologia: I più letti