Intelligenza artificiale e deepfake: l'intervista a Oren Etzioni

Tecnologia
Francesco Di Blasi

Francesco Di Blasi

L’intervista a Oren Etzioni, il fondatore di TrueMedia.org, un’organizzazione no profit che offre una piattaforma gratuita per analizzare l'autenticità dei contenuti online e combattere il fenomeno dei deepfake

ascolta articolo

Gli investimenti globali in intelligenza artificiale (A.I.), tra il 2020 e il 2024 sono quasi raddoppiati secondo i dati di Goldman Sachs, una una delle più importanti banche d'investimento al mondo.  Sono molti i vantaggi che, secondo gli analisti, l’A.I. può portare: da diagnosi mediche più precise, al monitoraggio del cambiamento climatico fino a sistemi di apprendimento personalizzati per le esigenze di ogni studente.

 

Di questo boom di investimenti fanno parte anche gli strumenti di A.I. detection, cioè quelle tecnologie in grado di rivelare se una foto, un video o un testo sono stati generati da un’intelligenza artificiale generativa. Le aziende che offrono strumenti per identificare se qualcosa è stato realizzato con l'intelligenza artificiale operano in settori molto diversi tra loro, dalla cybersicurezza per evitare frodi, ai servizi antiplagio per analizzare i lavori degli studenti, fino al campo del contrasto alla disinformazione.

Oren Etzioni, professore dell'Università di Washington, è stato uno dei primi ricercatori ad avvertire, nel 2019, che una nuova tipologia di A.I. avrebbe accelerato la diffusione della disinformazione online. La sua battaglia contro questo fenomeno lo ha portato a fondare TrueMedia.org, un'organizzazione no profit che offre servizi gratuiti per l’identificazione di deepfake online. “La nostra piattaforma permette all’utente di inserire un link dove è presente un media sospetto e automaticamente si riceve un analisi sulla probabilità di quando quel contenuto sia stato generato artificialmente”, dice il ricercatore a SkyTG24.  

 

Il tema dei deepfake è al centro anche del white paper realizzato nell’ambito di alcuni progetti di ricerca (Vera.ai, AI4TRUST - di cui Sky TG24 è partner -, AI4media e TITAN) finanziati dall’Unione europea e che hanno l'obiettivo di sviluppare tool bastai sull'I.A. contro la disinformazione .

 

Secondo Etzioni il fenomeno dei deepfake ha assunto una portata talmente preoccupante da richiedere una legislazione specifica che ne punisca l’utilizzo in concomitanza dei periodi elettorali. “La soluzione potrebbe essere non tanto tecnica, quanto in termini delle regole del gioco", spiega Etzioni, secondo cui un approccio normativo che sanzioni l’uso malevolo dei deepfake potrebbe essere più efficace rispetto al blocco degli strumenti in grado di crearli, una soluzione considerata difficile sul piano pratico. 

Nel frattempo Meta, la società che controlla Instagram e Facebook, ha annunciato che a partire da maggio introdurrà l'etichetta "made with A.I." (Realizzato con l’A.I.) sui contenuti sintetici diffusi sulle proprie piattaforme. Anche YouTube ha annunciato provvedimenti simili, in quello che sembra uno sforzo delle piattaforme di contrastare il fenomeno della disinformazione online. Non mancano però le contraddizioni. Meta ad esempio, ha di recente comunicato la chiusura di CrowTangle, uno strumento per monitorare contenuti virali, spesso utilizzato da giornalisti e fact-checker per individuare notizie false.

 

Tecnologia: I più letti