Intelligenza artificiale e misinformazione, uno studio: “Paure esagerate”

Tecnologia
Tommaso Spotti

Tommaso Spotti

©Getty

La diffusione dei contenuti falsi o manipolati generati dall’IA solleva diverse preoccupazioni, ma secondo una recente pubblicazione queste potrebbero essere eccessive. Inoltre le nuove tecnologie possono offrire anche strumenti a giornalisti per migliorare la qualità dell’informazione affidabile. Del tema si occupa il progetto AI4TRUST

ascolta articolo

La diffusione dell’intelligenza artificiale generativa - cioè quell’intelligenza artificiale che crea nuovi contenuti (audio, testo, video…) in base alle informazioni e dati che le sono forniti, come per esempio ChatGPT - sta sollevando preoccupazioni anche per l’impatto che potrebbe avere sulla creazione e diffusione di contenuti fuorvianti e falsi  (misinformazione/disinformazione online). Due report della scorsa primavera hanno indicato per esempio l’esistenza di dozzine di siti che sfruttano l’IA per creare contenuti ingannevoli. NewsGuard - sito di monitoraggio dell’affidabilità delle informazioni - ha individuato 528 siti che sfruttano l’intelligenza artificiale per generare false narrative. Una recente pubblicazione – firmata da Felix Simon dell’Oxford Internet Institute, Sacha Altay dell’Università di Zurigo e Hugo Mercier dell’Istituto Jean Nicod - ha offerto un nuovo punto di vista sui timori sul possibile impatto dell’IA sulla misinformazione, segnalando che questi potrebbero essere almeno in parte esagerati.

 

La pubblicazione su IA e misinformazione

La pubblicazione esamina tre possibili rischi posti dalla diffusione dell’intelligenza artificiale generativa: l’aumento della quantità della misinformazione, l’aumento della qualità della misinformazione e l’aumento della personalizzazione della misinformazione. Secondo i ricercatori queste tre preoccupazioni sono - almeno per il momento - speculative e le ricerche esistenti suggeriscono come l’intelligenza artificiale generativa possa avere effetti modesti nel panorama della misinformazione. E non solo: secondo gli autori del paper l’IA potrebbe anche aiutare a migliorare la qualità dell’informazione proveniente da siti affidabili. “Allarmi eccessivi e speculativi sugli effetti negativi dell’intelligenza artificiale sul pubblico e la democrazia, anche se in buona fede, possono avere conseguenze negative. Queste includono una riduzione nella fiducia in notizie accurare e nelle istituzioni che le producono, o mettendo in ombra altri problemi posti dall’intelligenza artificiale generativa”, ha dichiarato Felix Simon.

 

leggi anche

Intelligenza artificiale, rischi e opportunità per informazione online

Quantità, qualità e personalizzazione

In particolare, nel caso del possibile aumento della quantità della misinformazione il documento sottolinea come l’esistenza di più materiale di questo tipo non implichi necessariamente un maggiore consumo. Per i ricercatori, infatti, la fruizione di misinformazione è maggiormente limitata dalla domanda e non dall’offerta, e non esistono allo stato attuale prove di una domanda non assorbita dal mercato. Per quanto riguarda invece l’aumento di qualità della misinformazione, i ricercatori sottolineano come anche qualora l’IA fosse in grado di migliorare l’appeal di questi contenuti, la maggior parte delle persone resterebbero comunque non esposte e un eventuale aumento della qualità rimarrebbe ampiamente invisibile al pubblico. Infine, per quanto riguarda la possibilità che l’intelligenza renda più semplice creare e bersagliare gli utenti con misinformazione personalizzata, i ricercatori ammettono che sembri plausibile: tuttavia allo stato attuale le tecnologie che permettono il micro-targeting non sono influenzate direttamente dall’IA, e il costo per raggiungere le persone con misinformazione rimane un collo di bottiglia irrisolto. Infine, la capacità di persuasione di determinati tipi di contenuti personalizzati, sottolineano i ricercatori, risulta essere limitata.

 

leggi anche

Depressione, secondo uno studio ChatGpt potrebbe aiutare chi ne soffre

Rischi e potenzialità dell’Intelligenza artificiale

A ogni modo, gli autori riconoscono che l’esistenza e l’utilizzo dell’intelligenza artificiale generativa comporti dei possibili rischi: “Il tempo dirà se gli allarmi riguardo l’IA saranno giustificati o meno, ma in ogni caso la discussione del suo impatto sulla misinformazione potrebbe beneficiare dall’essere più pacato e basato su evidenze, in particolare sullo sfondo dello sforzo regolatorio in atto”. Inoltre gli autori del paper indicano anche che l’intelligenza artificiale generativa potrebbe anche aumentare la qualità delle fonti d’informazione affidabili: per esempio, l’IA potrebbe aiutare il lavoro dei giornalisti in alcune aree. Del tema dell’utilizzo dell’intelligenza artificiale per contrastare le informazioni fuorvianti o manipolate si occupa il progetto AI4TRUST, iniziativa europea che coinvolge 17 partner (tra i quali Sky TG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea. AI4TRUST mira a contrastare la disinformazione, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione. Il consorzio punta a realizzare soluzioni ibride che combinino l’IA e le capacità umane per mitigare gli effetti della disinformazione online. Il sistema monitorerà - grazie a nuovi algoritmi di intelligenza artificiale - numerosi social media e piattaforme tradizionali, analizzando diversi tipi di contenuti (foto, video e testi) in diverse lingue e identificando possibili informazioni manipolate o false. Questo permetterà ai giornalisti e fact-checkers di rispondere più velocemente ed efficacemente a questo tipo di contenuti, mitigandone gli effetti e disincentivandone allo stesso tempo la produzione e diffusione.

 

leggi anche

AI4TRUST, intelligenza artificiale contro disinformazione online VIDEO

Tecnologia: I più letti