Introduzione
La presidente del Consiglio ha postato un esempio di foto falsa, generata con l'Intelligenza artificiale, in cui il suo volto è finito sul corpo di una donna in abbigliamento intimo. Una di quelle che "girano in questi giorni" e che vengono "spacciate per vere da qualche solerte oppositore", ha spiegato, pubblicando il post di un utente che commentando l'immagine definiva "vergognoso" che "una presidente del Consiglio si presenti in queste condizioni". I deepfake "sono uno strumento pericoloso, perché possono ingannare, manipolare e colpire chiunque. Io posso difendermi. Molti altri no", è l’avvertimento della premier. Ma nel nostro Paese ci sono delle norme che intervengono sull’uso di informazioni manipolate?
Quello che devi sapere
I precedenti per Giorgia Meloni
Cinque anni fa, quando era ancora solo la leader di Fratelli d’Italia, il volto di Giorgia Meloni fu usato per un filmino hard pubblicato su un sito pornografico da due uomini, padre e figlio, finiti poi a processo a Sassari. Nel frattempo le tecnologie digitali per realizzare contenuti realistici ma falsi sono diventate sempre più efficaci e disponibili. Finendo talvolta per essere usate anche in politica. Sull'immagine fake che ha pubblicato, la premier scherza - "Chi l'ha realizzata mi ha anche migliorata parecchio" - prima dell'affondo: "Pur di attaccare e di inventare falsità, ormai si usa davvero qualsiasi cosa". E per proteggersi dall'inganno, aggiunge: "Una regola dovrebbe valere sempre: verificare prima di credere, e credere prima di condividere. Perché oggi capita a me, domani può capitare a chiunque".
Per approfondire su insider: Deepfake e abusi su Telegram, l'IA che trasforma il web in un incubo
Ascani: "Meloni bocciò la nostra proposta di legge"
Alla presidente del Consiglio sono arrivate parole di solidarietà da tutto l’arco parlamentare, ma anche qualche stoccata. Secondo Anna Ascani, del Pd, Meloni "dimentica che il suo governo ha agito anche qui col solito schema: introducendo un reato. Niente di più inutile". Il riferimento è alla legge approvata a settembre 2025, ma per la vicepresidente della Camera manca "una legge che permetta alle autorità preposte di chiedere alle piattaforme la rimozione immediata di contenuti di questo tipo, soprattutto quelli che inquinano il dibattito pubblico e la formazione del consenso in particolare in campagna elettorale. E questa legge - attacca - non esiste perché questo esecutivo non l'ha voluta: la mia pdl per contrastare gli usi distorti di contenuti prodotti con l'intelligenza artificiale diffusi sui social è stata bocciata proprio dal suo governo, nell'imbarazzo della maggioranza che in Parlamento balbettava sorpresa dalla chiusura totale su una questione che riguarda tutti ed è interesse di tutti".
Vedi anche: Disinformazione, deepfake e il progetto AI4TRUST. VIDEO
Il reato introdotto nel 2025
Il reato di cui parla Ascani è quello introdotto con la legge quadro sull'Intelligenza artificiale, approvata al Senato in via definitiva il 17 settembre 2025 con il voto favorevole della maggioranza (77 i Sì) e quello contrario delle opposizioni (55 i No). Il provvedimento di 28 articoli, al Capo V introduce modifiche al codice penale per punire l’uso illecito dell’Intelligenza artificiale. In particolare è penalmente perseguibile chi diffonde contenuti generati con IA in modo ingannevole, le cosiddette deepfake appunto, e chi utilizza l’IA in modo da compromettere la sicurezza o l’integrità di persone o sistemi. La legge sull'Intelligenza Artificiale, aveva spiegato Alberto Barachini, sottosegretario con delega a Editoria e informazione, "introduce una novità internazionale, il reato del deepfake. Siamo i primi. Il reato è punibile da 1 a 5 anni di reclusione per coloro che tramite gli strumenti di Intelligenza Artificiale modificano un contenuto e quindi mistificano la realtà tradendo la fiducia dei cittadini".
Leggi anche: Ue, aperta nuova indagine su X per contenuti deepfake sessuali su Grok
La proposta di legge del Pd
Invece la proposta di legge del Pd, poi bocciata, a cui si riferisce Ascani si concentrava soprattutto sulla creazione e diffusione di contenuti manipolati con l’Intelligenza artificiale nel corso di campagne elettorali, se finalizzati a ingannare gli elettori e a influenzare il voto. Il testo era approdato alla Camera con il parere contrario della maggioranza, motivato con la sovrapposizione rispetto ad alcune norme contenute in una delega in materia e in parte in contrasto con il regolamento europeo.
Il Disegno di Legge 644
Sta invece ancora facendo il suo percorso parlamentare il Ddl 644 che - spiega Wired - "attribuisce a ogni individuo il diritto esclusivo sulla propria identità personale, anche quando ricreata dall’AI" e potrebbe introdurre "la presunzione di danno: in caso di deepfake, si presume che la vittima subisca un danno e sarà l’autore della manipolazione a dover dimostrare il contrario". Inoltre, se il testo fosse confermato, ci sarebbe "un obbligo di trasparenza: chi diffonde contenuti generati o alterati dall’AI dovrà dichiararlo chiaramente, in linea con l’AI Act europeo e il Code of Practice".
Leggi anche: Truffe con i deepfake, a che cosa fare attenzione e come provare a difendersi