I contenuti manipolati o falsi in rete amplificano le crisi esistenti, rendono più profonde le divisioni nella società e possono danneggiare il funzionamento delle democrazie. Il rischio è che una nuova generazione di questi contenuti, realizzati anche grazie all’intelligenza artificiale, venga creata e diffusa a una velocità ancora maggiore. L’IA può però diventare anche un potente alleato per giornalisti, fact-checkers e decisori politici: ecco che cosa si propone di realizzare il progetto AI4TRUST
Contrastare la disinformazione online, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione delle persone: è questo l’obiettivo di AI4TRUST, iniziativa europea che coinvolge 17 partner (tra i quali SkyTG24) da 11 Paesi e finanziata dal programma Horizon Europe dell’Unione Europea. (RIVEDI LA PUNTATA DI PROGRESS SUL TEMA) Un progetto che mira a creare un ambiente sicuro, che integri il monitoraggio di social network e media con le più avanzate tecnologie basate sull’intelligenza artificiale così da rendere più efficace l’attività di giornalisti, fact-checkers e decisori politici. (TUTTE LE INFORMAZIONI SU AI4TRUST)
Disinformazione online e intelligenza artificiale
La disinformazione online sta investendo in modo crescente la società, in particolare su temi quali la salute, il riscaldamento globale e i cambiamenti sociali. E anche se le "notizie false" sono sempre esistite, l’enorme quantità di contenuti online prodotta ogni giorno rende sempre più complesso identificare e contrastare le informazioni false o manipolate. La nuova generazione di questi contenuti - realizzati anche grazie all’intelligenza artificiale generativa - viene creata e diffusa a una velocità tale da rendere molto complesso per gli esseri umani monitorarla e contrastarne gli effetti, come nel caso di questo network di 36 siti che usano l'IA per generare contenuti inaffidabili scoperto in Italia da NewsGuard. La penetrazione sempre più diffusa di informazioni false o manipolate può contribuire ad esacerbare le crisi e rendere più profonde le divisioni, danneggiando il funzionamento delle società democratiche.
leggi anche
Intelligenza artificiale e disinformazione, il progetto AI4TRUST
L’iniziativa AI4TRUST
Come detto, la produzione e diffusione di contenuti falsi o manipolati è troppo ampia per essere monitorata e contrasta solamente dagli esseri umani. È però possibile sfruttare l’intelligenza artificiale per farlo, ed è questo l’obiettivo del progetto AI4TRUST: nei prossimi anni il consorzio si propone di realizzare soluzioni ibride che combinino l’IA e le capacità umane per mitigare gli effetti della disinformazione online. Il sistema monitorerà - grazie a nuovi algoritmi di intelligenza artificiale - numerosi social media e piattaforme tradizionali, analizzando diversi tipi di contenuti (foto, video e testi) in diverse lingue e identificando possibili informazioni manipolate o false. Questo permetterà ai giornalisti e fact-checkers di rispondere più velocemente ed efficacemente a questo tipo di contenuti, mitigandone gli effetti e disincentivandone allo stesso tempo la produzione e diffusione. AI4TRUST realizzerà quindi una piattaforma online per fornire a media, ricercatori e decisori politici elementi chiavi per identificare e contrastare informazioni manipolate o false.