
Intelligenza artificiale, aumentano gli usi illeciti: cosa sapere su sextortion e ghostbot
L'Fbi ha lanciato l’allarme sull’AI e sui possibili ricatti legati a immagini di nudo sempre più realistiche: per questo stanno diventando comuni parole come sextortion e ghostbot, “fantasmi virtuali” di morti, soprattutto bambini, che diventano sempre più precisi grazie ai social media. A preoccupare è soprattutto la mancanza di leggi sulla protezione dei dati: per questo si pensa a una possibile clausola “do not bot me”, per evitare di essere digitalizzati alla propria dipartita

Immagini di nudi generate dall’intelligenza artificiale per estorcere soldi a malcapitati, anche minori: questo fenomeno si chiama sextortion ed è una minaccia su cui lancia un avvertimento l'Fbi, dopo aver ricevuto numerose segnalazioni di diverse vittime
GUARDA IL VIDEO: L'intelligenza artificiale protagonista al Computex 2023
L’INTELLIGENZA ARTIFICIALE – L'aumento dei rischi è dovuto anche al diffondersi di un’intelligenza artificiale sempre più precisa e accurata, che rende i fake sempre più realistici e contribuisce così all’aumento dei ricatti
ChatGpt e Google Bard, sondaggio Morgan Stanley su utenti AI nel mondo
COME PROTEGGERSI – I sistemi di protezione dal sextortion sono stati ricordati dall'Fbi, che suggerisce di limitare l'accesso alla visualizzazione delle immagini pubblicate sui social a una cerchia ristretta di amici, così da ridurne la copertura. Inoltre, nel caso in cui vi rendiate conto che è troppo tardi per agire in questo modo e che alcuni contenuti espliciti di cui siete protagonisti sono finiti in rete, è necessario contattare la piattaforma di riferimento per chiederne immediatamente la rimozione
L'intelligenza artificiale immagina Harry Potter in Sicilia. VIDEO
I GHOSTBOT - Mentre dal Regno Unito arriva un altro monito a stringere sulle regole riguardanti l'IA post-mortem: viene usata per i ghostbot, software che riportano in vita digitalmente persone che non ci sono più. Le immagini appaiono realistiche, meno artigianali rispetto ai deepfake che si potevano costruire prima e, in alcuni casi, sono stati presi di mira i bambini
Facebook, entro 50 anni gli utenti morti potrebbero superare i vivi
L’ALLARME DEL FBI – La questione dei ghostbot è assolutamente rilevante, come segnala anche il Fbi: “I progressi tecnologici stanno migliorando continuamente la qualità, la personalizzazione e l'accessibilità della creazione di contenuti abilitati all'intelligenza artificiale"
Cybersecurity, così l'Ai viene usata per difendere
SEMPRE PIÙ REALISTICI - Le nostre impronte digitali e i dati provenienti dai social media sono appunto la base per creare i ghostbot, software che con l'intelligenza artificiale generano reincarnazioni digitali dei defunti
San Giorgio a Cremano, arriva il circo con animali virtuali
LA MANCANZA DI LEGGI - Una ricerca della "Queen's University" di Belfast pone il problema della mancanza di leggi sulla protezione dei dati, che potrebbe causare un crescente abuso di ghostbot. Suggerisce anche una clausola "do not bot me" nei testamenti e in altri contratti per impedire alle persone di essere reincarnate digitalmente senza la necessaria firma e autorizzazione

SEMPRE PIÙ USATO – La necessità di tali leggi è dimostrata dall’uso sempre maggiore che si fa di queste tecnologie, anche tra le celebrità. Per esempio, un ologramma del defunto Robert Kardashian, creato utilizzando la tecnologia deepfake, è stato regalato a Kim Kardashian da Kanye West nel 2020, che ha usato le caratteristiche del padre e parlato con la sua voce
Usa, madre single sposa l'uomo perfetto ma è virtuale