Intelligenza artificiale, rischi e opportunità per l’informazione online

Tecnologia

I sistemi di IA generativa presentano forti problemi di disinformazione, ma anche la possibilità per giornalisti e fact-checker di verificare in maniera più avanzata i contenuti online. Se ne è discusso a Bruxelles, nell’ambito di un evento del progetto di AI4Trust

ascolta articolo

Mentre il Parlamento Europeo si appresta a votare l'AI Act - uno dei primi provvedimenti a livello globale a regolamentare l'uso di sistemi di intelligenza artificiale - a Bruxelles si è discusso delle sfide che i nuovi algoritmi di Intelligenza artificiale generativa pongono al settore dell'informazione. "Generative AI - What is the cost for the information industry" è il titolo dell’evento organizzato nell'ambito del progetto AI4TRUST (di cui Sky TG24 è partner) con la partecipazione di istituzioni, think tank, università e aziende impegnate nei settori dell’informazione e dela tecnologia.

Rischi e opportunità dell'IA

Da una parte ci sono le opportunità, ben evidenti alla Commissione Europea e ai milioni di utenti che negli ultimi mesi hanno utilizzato strumenti come ChatGPT, Midjourney e DALL-E per automatizzare la scrittura di testi e la creazione di immagini. Opportunità che riguardano anche il mondo dell’informazione, con la possibilità, ad esempio, per giornalisti e fact-checker di verificare in maniera avanzata i contenuti digitali e così offrire un’informazione di maggiore qualità.

Dall'altra ci sono i tanti rischi che questi sistemi presentano. Dalla violazione del copyright alla mancanza di trasparenza, passando per la creazione di nuovi monopoli e l’impatto sul mercato del lavoro, fino ad arrivare al tema che oggi preoccupa di più gli esperti del settore: la possibilità di creare in modalità massiva contenuti del tutto falsi, ingannevoli o manipolatori.

 

BEYOND_1456x520_CLAIM

approfondimento

Beyond, 5 puntate sul mondo che cambia: guarda tutti gli episodi

Contrastare attività illegali

Ricordando il processo legislativo attualmente in corso al Parlamento Europeo, Yordanka Ivanova della Commissione Europea (DG CNECT), ha sottolineato l'importanza di trovare un bilanciamento tra le opportunità e i rischi, costruendo framework collaborativi di lungo periodo, in grado di garantire meccanismi di fiducia per i cittadini e di innovazione pe le imprese.

Proprio nell’ottica di mitigare i rischi e garantire un’informazione di migliore qualità, diversi speaker hanno richiamato l’attenzione sull’introduzione di “guardrail” in grado di contrastare le attività illegali, così come di riconoscere il copyright e di etichettare in maniera trasparente i contenuti generati con il supporto dell’AI. 

 

artificial-intelligence-pixabay

approfondimento

Cybersecurity, così l’AI viene utilizzata per difendere

Il progetto AI4Trust

Il tema della fiducia nell’ecosistema dell’informazione è alla base anche del progetto AI4Trust, promosso da un consorzio di 17 organizzazioni europee impegnate a contrastare la disinformazione a livello giornalistico, accademico, tecnologico e di policy. L'obiettivo di AI4Trust è quello di supportare fact-checker e giornalisti, attraverso una piattaforma che integra il monitoraggio automatico delle notizie online con tecnologie di verifica dei contenuti basate sull’intelligenza artificiale. La piattaforma sarà realizzata in modalità multi-formato (testo, audio, visual) e multilingue (inglese, francese, tedesco, greco, italiano, portoghese, spagnolo). 

04 January 2019, Mecklenburg-Western Pomerania, Schwerin: ILLUSTRATION - The html code for programming a web page can be seen on the monitor of a laptop. (posed photo. Photo: Jens Büttner/dpa-Zentralbild/ZB

approfondimento

Intelligenza artificiale, Ue e Usa annunciano codice di condotta

Tecnologia: I più letti