Come l'AI ha trasformato una youtuber ucraina in una ragazza russa
Mondo ©GettySui social media cinesi, video creati con l'intelligenza artificiale vengono utilizzati per appropriarsi dell'identità di giovani donne, mostrandole come russe. Le immagini manipolate sono impiegate per promuovere i rapporti tra Cina e Russia
Sui social media cinesi è sempre più frequente vedere giovani ragazze promuovere legami commerciali e culturali tra Cina e Russia. Si tratta spesso di deepfake, video che vengono manipolati con l’intelligenza artificiale e che usano i volti e le voci di giovani donne realmente esistenti, facendole parlare in mandarino, con un leggero accento russo.
Olga Loiek, una youtuber ucraina, è stata vittima di vari furti di identità di questo tipo, da parte di diversi profili cinesi. Uno di questi, chiamato "Natasha imported food" vanta più 140 mila follower e viene presentato come appartenente a una trentunenne russa. Nei video, il volto di Olga Loiek viene impiegato per pubblicizzare prodotti russi e per esprimere opinioni sulla necessità del sostegno cinese all'economia russa.
La maggior parte dei video pubblicati promuovono prodotti commerciali, ma contengono anche elementi di propaganda politica. L'AI Accident Database, un progetto che registra casi di uso malevolo dell'intelligenza artificiale, ha segnalato diverse di queste situazioni e le vittime sono per lo più influencer. Figure che pubblicano molti contenuti online, che vengono poi manipolati e riutilizzati da terzi.
I deepfake utilizzati per frodi commerciali
Nonostante le caratteristiche propagandistiche di queste pubblicità siano una novità, l'utilizzo di volti clonati con l'AI per scopi pubblicitari non è una pratica nuova. Un esempio famoso è quello della cantante Taylor Swift, il cui deepfake è stato impiegato per promuovere vari prodotti sui social media.
Questi episodi, oltre ad avere delle ricadute psicologiche e reputazionali sulle vittime, rappresentano degli episodi di disinformazione, sempre più complessi da analizzare perché difficili da individuare. Per questo molte organizzazioni stanno sviluppando strumenti di “AI detection” per riconoscere contenuti sintetici falsi, come ad esempio AI4TRUST, un progetto finanziato dall'Unione Europea a cui collabora anche SkyTG24.