Disinformazione e IA generativa, white paper: a che punto siamo, tra sfide e opportunità

Tecnologia
Tommaso Spotti

Tommaso Spotti

©Getty

Un documento, frutto del lavoro combinato di 4 progetti di ricerca, affronta il ruolo dell’intelligenza artificiale nel generare contenuti di disinformazione ma anche il possibile uso dell’IA per contrastarli. E lancia una “big ask” per poter progredire in questo campo

ascolta articolo

Disinformazione e intelligenza artificiale generativa sono due tra i temi maggiormente al centro del dibattito pubblico: se la prima è stata indicata come “la più grande minaccia” a breve termine per la stabilità globale, l’impetuoso sviluppo della seconda ha ormai da tempo catturato l’attenzione generale per l’impatto che può avere su ampi settori del mondo del lavoro e della società. Gli sviluppi dell’intelligenza artificiale potrebbero avere un profondo impatto anche sulla disinformazione stessa, non solo per la capacità di creare e diffondere simili contenuti ma anche come mezzo per contrastarli. Adesso un nuovo white paper - un libro bianco, cioè un documento informativo - analizza i principali progressi in questi campi, così come le sfide e le opportunità che si prospettano. Il paper nasce nell'ambito di un gruppo di progetti di ricerca finanziati dall’Unione europea attivi in questo campo: Vera.ai, AI4TRUST - di cui Sky TG24 è partner -, AI4media e TITAN.

CLICCA QUI PER LEGGERE IL WHITE PAPER

Il punto su disinformazione e intelligenza artificiale

Negli ultimi anni - spiega il white paper - i tool di IA generativa sono diventati facilmente accessibili, e di pari passo lo è diventato anche il suo eventuale utilizzo per creare campagne di disinformazione molto convincenti e a prezzi sostenibili. Anche le piattaforme social e app di messaggistica sono state colpite in alcuni casi, e le azioni messe in campo finora per contrastare la diffusione di questo tipo di contenuti hanno ottenuto risultati contrastanti. Il white paper dunque approfondisce quelle che sono le attuali capacità dell’intelligenza artificiale nel generare contenuti di disinformazione, ma anche gli sviluppi dell’uso dell’IA per contrastarli. Un lavoro che è frutto della collaborazione di “quattro diversi progetti europei, che hanno lo stesso obiettivo: usare l’intelligenza artificiale per combattere la disinformazione”, spiega Riccardo Gallotti, a capo dell’unità Complex Human Behaviour della Fondazione Bruno Kessler e coordinatore del progetto AI4TRUST. “Il valore aggiunto di questo white paper è che unisce le esperienze e competenze di molti importanti ricercatori in questo campo, e ne è risultato un documento di grande valore”, aggiunge Symeon Papadopoulos, Principal Researcher presso il CERTH-ITI e coordinatore del progetto Vera.ai.

Fake news written in red on a backlit laptop keyboard close-up with selective focus in a blue ambiant light

leggi anche

Disinformazione ed elezioni, allarme dagli Stati Uniti su rischi IA

I “deepfake” e gli strumenti per contrastarli

Nel documento viene dato ampio spazio ai tipi di contenuti di disinformazione generati dall’intelligenza artificiale, che spaziano dalle immagini ai video, dagli audio ai testi, con un’analisi puntuale delle tecnologie impiegate ed esempi rilevanti della loro applicazione. Tra questi ci sono anche i “deepfake”: si tratta di contenuti sintetici, manipolati con l’intelligenza artificiale per rimpiazzare in modo convincente l’aspetto di una persona con quello di qualcun altro. “Spesso il termine deepfake è usato in modo non accurato nel dibattito pubblico, riferendosi a qualsiasi contenuto generato o modificato digitalmente”, sottolinea Papadopoulos.

Nel white paper vengono trattati diversi tipi di contenuti sintetici: quelli visuali sono le immagini completamente generate dall’intelligenza artificiale e che ritraggono volti e figure umane, così come le manipolazioni dei volti (per esempio per modificarne l’età o alcune caratteristiche), la sostituzione dei volti in immagini o video originali, o anche la rievocazione di un volto e il “lip-synching” delle labbra per far sembrare che una persona stia dicendo una specifica cosa. A questi si aggiungono poi gli audio sintetici, in cui le voci vengono riprodotte per asserire determinate frasi. Il documento approfondisce poi i recenti progressi nello scovare questi contenuti generati dall’intelligenza artificiale, sottolineando come le diverse ricerche stiano approfondendo le migliori strategie per ottenere questo obiettivo.

 

2G88F7A Biometric identification of a person's face using AI and superimposing on another using deepfake. Vector illustration.

leggi anche

I casi Taylor Swift, Tom Hanks e non solo: pericoli dietro ai deepfake

Opportunità e sfide dell’IA contro la disinformazione

Il white paper offre un’ampia panoramica sull’utilizzo dell’IA per contrastare la disinformazione, tra opportunità e sfide che devono essere risolte: “L’intelligenza artificiale è necessaria per combattere la disinformazione, ma al momento stiamo inseguendo”, spiega ancora Gallotti. “I modelli generativi - e in generali gli ultimi modelli di IA - sono molto facili da usare, molto economici, molto ‘umani’ nel modo in cui puoi comunicarci. E quindi oggi è molto facile l’accesso a queste tecnologie”, che fino a pochi anni fa erano alla portata solamente di esperti del settore. “Ci sono due problemi principali”, aggiunge Papadopoulos: “Il primo è tecnico, i grandi modelli di IA sono realizzati da compagnie che hanno accesso a enormi capacità computazionali e hanno reclutato i migliori sviluppatori del mondo. Così hanno creato questi modelli molto potenti, capaci di generare contenuti molto realistici. Dunque il primo punto è realizzare strumenti di intelligenza artificiale in grado di riconoscere questi contenuti. Il secondo punto è che la società fa fatica a tenere il passo con questi rischi e le tecnologie sottostanti: educare i cittadini sul potenziale di queste tecnologie, e sui rischi ad esse associate, è molto importante”.

 

Photo illustration showing ChatGPT and OpenAI research laboratory logo and inscription at a mobile phone smartphone screen with a blurry background. Open AI is an app using artificial intelligence technology. Italy is the first European country to ban and block the robot Chat GPT application and website. ChatGPT is an artificial-intelligence (AI) chatbot developed by OpenAI and launched in November 2022 using reinforcement learning techniques both from machine and human feedback. Tunis, Tunisia on April 02, 2023. (Photo by Yassine Mahjoub/SIPA) //MAHJOUBYASSINE_MAHJOUB0339/Credit:Yassine Mahjoub/SIPA/2304030848

leggi anche

Cybersecurity, chi e come utilizza ChatGPT in attacco e in difesa

I tool per individuare i contenuti generati dall’IA

“Ci possono essere diverse forme di contenuti inaffidabili”, spiega ancora Gallotti. “Oggi stiamo facendo enormi sforzi, in diversi progetti, per creare tecnologie che permettano agli esperti dei media, ai fact-checkers ma anche ai cittadini comuni di diventare più consapevoli e anche più abili nell’identificare i contenuti che potenzialmente potrebbero essere falsi”. I progetti di ricerca coinvolti nella realizzazione del white paper hanno dunque il compito di “sviluppare metodologie e tecnologie che servono a dimostrare quanto è possibile fare e quello che si può richiedere di fare successivamente alle grandi compagnie digitali”. Nel dettaglio, focalizzandosi sull’uso dell’intelligenza artificiale per contrastare la disinformazione, “quello su cui è possibile far leva è l’automazione e la velocizzazione di diverse attività di verifica”, spiega Papadopoulos. “In un futuro non troppo lontano soluzioni basate su modelli di intelligenza artificiale potrebbero essere molto utili per i giornalisti, fact-checkers e anche per il pubblico”. Il white paper indica poi alcuni tool basati sull’intelligenza artificiale già disponibili per individuare i contenuti generati dall’IA e integrati nel plugin InVID-WeVerify: questi permettono di analizzare video, testi e immagini. In più sono in fase di ricerca e sviluppo altri strumenti basati sull’IA, con lo scopo di formare sia i professionisti dei media sia i cittadini a comprendere maggiormente le tecnologie basate sull’intelligenza artificiale, il loro funzionamento, le opportunità e i rischi annessi.

 

Google, Cannes LIONS Events of the 70th International Festival of Creativity, Palais des Festivals et des Congres, La Croisette, Cannes FRANCE - 20/06/2023//SYSPEO_sysC035/Credit:SYSPEO/SIPA/2306242156

leggi anche

Google, stop a immagini di persone generate da Gemini: cosa è successo

I rischi della disinformazione generata dall’IA

L’altro lato della medaglia, comunque, rimane: “I rischi sono evidenti”, aggiunge ancora Papadopoulos. "Oggi chiunque, anche senza competenze tecniche specifiche, può generare contenuti sintetici in diversi formati, dal testo alle immagini fino ai video. È molto semplice per attori malintenzionati creare una falsa narrativa, ci sono barriere molto basse nella generazione di disinformazione. I pericoli sono significativi, e solo di recente le persone hanno iniziato ad accorgersene. Stanno poi arrivando diverse elezioni importanti, tra cui quelle europee: saranno un importante test per misurare quanto le società saranno capaci di rispondere a questi pericoli”. Un tema che viene affrontato nel dettaglio all’interno del white paper, sottolineando come la minaccia posta dall’IA generativa ai processi democratici e all’integrità delle elezioni non è più solo ipotetica. Come sottolineato, del resto, anche dal recente WEF a Davos che ha indicato nella disinformazione spinta dall’intelligenza artificiale il più grave pericolo globale nei prossimi anni.

 

navalny_ansa_67

leggi anche

Come la disinformazione sta colpendo Navalny e la moglie

Cosa serve per progredire nella lotta alla disinformazione

Alla conclusione del white paper è presente una “big ask”, una grande richiesta: l’accesso ad ampi dataset e a grandi capacità di computazione. “L’intelligenza artificiale si fa con grandissimi sforzi computazionali, che le compagnie che producono IA generativa stanno realizzando con grandissimi investimenti di denaro”, conclude Gallotti. “I nostri finanziamenti non sono sempre commisurati a quelli industriali. Da un lato è necessario riuscire a concertare i nostri sforzi - come nel caso di questa collaborazione - in modo da usarli meglio, e dall’altro avere l’opportunità di avere spazi di lavoro comune sul modello del CERN”. E questo permetterebbe di “mettere insieme i nostri metodi, raccogliere i diversi dati, trovare uno spazio comune così che l’uno possa costruire sul lavoro degli altri”. Un punto sottolineato anche da Papadopoulos, secondo cui “sarebbe importante avere un centro permanente, un servizio pubblico su cui potersi affidare e che sia sempre presente. In un momento in cui l’impatto dell’intelligenza artificiale è così grande sulla società, serve qualcosa in più oltre a progetti temporanei su cui stiamo lavorando oggi. Servirebbe un supporto di più lungo periodo per sostenere la ricerca sul tema”. Infine “non si può sottolineare abbastanza la differenza tra le grandi società e i partner europei di ricerca, siamo in una posizione di svantaggio: se l’Europa vuole avere un ruolo importante, bisogna ripensare come vengono supportati i ricercatori in Europa tramite le necessarie infrastrutture e risorse”.

 

Tecnologia: I più letti