Elezioni Usa, stretta della California sui deepfake: ecco cosa cambia

Mondo
Tommaso Spotti

Tommaso Spotti

©Getty

A fine luglio Elon Musk aveva ritwittato su X un video deepfake di Kamala Harris, il governatore californiano Gavin Newsom aveva risposto che questo tipo di manipolazioni “dovrebbe essere illegale”. Ora lo Stato ha approvato nuove norme specifiche sui contenuti elettorali, ma lo scontro si è subito spostato in tribunale. Il consigliere di Newsom a Sky TG24: “Nuove norme un passo per arginare il pericolo”

ascolta articolo

La California ha deciso di porre un freno ai deepfake sulle elezioni, in vista del voto del 5 novembre. Il governatore democratico Gavin Newsom due giorni fa ha infatto “firmato tre misure per rimuovere i contenuti ingannevoli dalle grandi piattaforme online, aumentare la responsabilità e informare meglio gli elettori”. In particolare lo Stato americano ha reso illegale creare e pubblicare deepfake relativi alle elezioni nei 120 giorni prima del voto e nei 60 giorni successivi. E, spiega il New York Times, tra le altre cose imporrà ai social network di moderare la diffusione di simili contenuti legati alle elezioni. “C’è un clima molto teso e violento” negli Stati Uniti, “dobbiamo cercare di smorzare i toni per arginare il pericolo, e questo è un passo in quella direzione”, ha spiegato a Sky TG24 Brian Brokaw, consulente che lavora con il governatore Newsom.

La mossa della California - che è già stata impugnata davanti a un tribunale - arriva dopo un caso scatenato da un video deepfake di Kamala Harris ritwittato da Elon Musk, con lo stesso proprietario di X che è nuovamente intervenuto dopo l’approvazione delle nuove norme.

Il deepfake di Harris e l’attacco di Newsom

Il caso è nato a fine luglio 2024, quando Elon Musk ha ricondiviso sul suo account X un video deepfake basato su un filmato della campagna elettorale di Kamala Harris, che sembra esser stato modificato digitalmente per alterare la voce della vicepresidente in modo da farle dire cose diverse da quelle realmente affermate. La versione manipolata del video - spiega ancora il New York Times - non contiene un disclaimer, ma l’account che l’ha diffuso originariamente ha scritto nel post che si trattava di una parodia. Sul caso - che ha immediatamente sollevato polemiche sull’utilizzo di deepfake in campagna elettorale - è intervenuto il governatore della California, Gavin Newsom, che ha scritto: “Manipolare una voce in una "pubblicità" come questa dovrebbe essere illegale. Firmerò una legge tra qualche settimana per assicurarmi che lo sia”.

La stretta della California sui deepfake

A distanza di nemmeno due mesi, Newsom ha firmato tre leggi per contrastare l’utilizzo dell’intelligenza artificiale nella creazione di immagini o video deepfake elettorali in vista del voto del 5 novembre. In particolare una di queste norme - spiega l’Associated Press - rende illegale creare e pubblicare deepfake relative alle elezioni nei 120 giorni prima del voto e nei 60 giorni successivi. In ogni caso le parodie e la satira sono esentate dal divieto a patto che siano chiaramente segnalate.

Le restanti norme, tra le altre cose, prevedono un inedito obbligo per le piattaforme social a intervenire sul materiale ingannevole a partire dal prossimo anno, rimuovendolo o etichettandolo entro 72 ore dalla segnalazione. Sarà inoltre - sempre a partire dal 2025 - reso obbligatorio inserire un'etichetta sugli spot elettorali generati con tool di intelligenza artificiale. "Salvaguardare l'integrità delle elezioni è essenziale per la democrazia, ed è fondamentale garantire che l'intelligenza artificiale non venga impiegata per minare la fiducia del pubblico attraverso la disinformazione, soprattutto nell'attuale clima politico teso", ha affermato Newsom in una dichiarazione.

Le nuove leggi della California arrivano mentre a Washington un gruppo bipartisan di parlamentari sta cercando di far approvare dal Congresso il divieto per le campagne elettorali e i gruppi politici di usare l’intelligenza artificiale per rappresentare in modo distorto o ingannevole le idee dei rivali facendo finta di essere loro.

leggi anche

Harris è nel mirino di AI e creatori di deepfake (anche pornografici)

La causa contro le nuove norme della California

Il giorno dopo la firma delle nuove regole, però, lo scontro sui deepfake si è spostato in tribunale: l'utente che ha diffuso il video deepfake di Kamala Harris - spiega infatti Forbes - ha presentato una causa per bloccare le leggi. Il caso è stato presentato di fronte all’Eastern District del tribunale federale della California, e l’utente afferma che le nuove norme rappresenterebbero un chiaro caso di uso del “potere statale per costringere le aziende private di social media a censurare l’espressione dei cittadini ​​eliminando i contenuti generati dall’intelligenza artificiale relativi alle elezioni”.  La causa - spiega ancora Forbes - sostiene che l’uomo abbia “l’assoluto diritto costituzionale di fare satira su politici che reputa non dovrebbero essere eletti”. Il video pubblicato su X, come detto in precedenza, non presentava un banner ma il post d’accompagnamento specifica come si trattasse di una parodia. Tuttavia secondo l’utente questo non sarebbe sufficiente a far rientrare il contenuto tra la satira protetta dalla legge, perché questa richiede che il disclaimer appaia nel video scritto in un carattere grande quanto il resto del testo nel video.

Il nuovo intervento di Elon Musk

Intanto sul tema è di nuovo intervenuto Elon Musk. Il proprietario di X ha nuovamente diffuso sulla piattaforma il post con il video, scrivendo: “Il governatore della California ha appena reso illegale questo video parodia, violando la Costituzione degli Stati Uniti. Sarebbe un peccato se diventasse virale”.

leggi anche

Corea del Sud, emergenza deepfake porno: che cosa sta succedendo

Consigliere Newsom a Sky TG24: “Nuove leggi passo per arginare pericolo”

Sul caso è intervenuto anche Brian Brokaw - consulente che lavora con il governatore Newsom - ospite di Sky TG24 Mondo, che ha detto: “Abbiamo visto come l’IA può essere usata in modo negativo, pensiamo a Elon Musk. È stato twittato video deepfake di Kamala Harris: io l'ho guardato, e pensavo fosse lei. Lui ha detto che era una parodia, e che tutti dovevano capire lo scherzo”. Per Brokaw l’IA “può essere usata in modo negativo da persone che hanno cattive intenzione. Potremmo finire nella situazione in cui qualcuno potrebbe andare in guerra basandosi su un deepfake”. Brokaw ha aggiunto che “c’è un clima molto teso e violento” negli Stati Uniti, “dobbiamo cercare di smorzare i toni per arginare il pericolo, e questo è un passo in quella direzione”.

leggi anche

Elezioni Usa, sondaggio Fox: Harris in vantaggio su Trump di due punti

L’intelligenza artificiale può essere utilizza anche per combattere la disinformazione: è il caso di AI4TRUST, un progetto finanziato dall'Unione Europea a cui partecipa anche Sky TG24 e di cui questo articolo fa parte.

Mondo: I più letti