L’AI tra pregiudizi e disinformazione: parla Gina Neff
MondoLa sociologa Gina Neff, direttrice del Centro Minderoo per la tecnologia e la democrazia dell'Università di Cambridge ed esponente di punta del progetto a contrasto della disinformazione AI4TRUST, parla dell’impatto dell’AI nella nostra società in un’intervista a SKYTG24.
L’intelligenza artificiale sta affascinando il mondo, suscitando sia entusiasmo che allarme, per la sua capacità di replicare, ma anche di sostituire, attività tipicamente umane. Uno degli aspetti più conosciuti dell'A.I., come dimostrato dal popolare chatbot "ChatGPT", è la sua capacità di generare testi e immagini. È però la capacità di questa tecnologia di gestire enormi quantità di dati che la rende sempre più pervasiva nella nostra società, anche quando non ce ne accorgiamo.
Gina Neff, Direttrice del Centro Minderoo per la tecnologia e la democrazia dell'Università di Cambridge e membro del consorzio AI4TRUST che si occupa di sviluppare una piattaforma di A.I. per il contrasto alla disinformazione, è convinta che “un'intelligenza artificiale al servizio della società debba essere prima di tutto trasparente, permettendo alle persone di comprendere chiaramente quando e come questa tecnologia viene utilizzata”, dice a SkyTG24.
Sviluppo dell’Intelligenza artificiale: l’importanza della qualità dei dati
Secondo Neff, i benefici che l’A.I. può portare, grazie alla sua capacità di gestire una quantità di dati impossibile da gestire per un essere umano, sono molteplici: dall'accelerazione della ricerca per trovare nuove cure mediche, allo studio di soluzioni per ridurre i cambiamenti climatici, fino a una migliore gestione del personale di un’azienda.
Sono proprio queste capacità di incidere sulla vita delle persone che rendono l’A.I. uno strumento potenzialmente molto pericoloso. Come ricorda Neff, sono già capitati casi in cui, un errore di programmazione di un’intelligenza artificiale, ha prodotto casi di discrimnazione.
Intelligenza artificiale e rischio discriminazione
“Amazon implementò un sistema di intelligenza artificiale per la selezione automatica dei curriculum, con l'intento di diversificare il background degli ingegneri assunti - racconta Neff - ma la predominanza di ingegneri maschi tra i dipendenti dell’azienda portò il sistema sviluppare un bias involontario”. Il sistema imparò a identificare i curriculum migliori basandosi su dati storici, che si riferivano in prevalenza a ingegneri maschi. Questo portò l’A.I. ad essere molto efficiente nel filtrare i candidati da scartare, la maggior parte dei quali, per via del bias di sistema, erano donne.
Secondo Neff, per evitare di utilizzare dati vecchi, la soluzione applicata da molte aziende di A.I. rischia di accentuare ancora di più questi rischi. Si tratta dello “scraping” di informazioni da internet, una pratica che consiste nell'estrarre informazioni dai siti web e dai social media. Il rischio è che i pregiudizi umani presenti nei testi disponibili online possano essere replicati anche nei sistemi di intelligenza artificiale, perpetuando questi bias. Per questo secondo Neff “una delle sfide più grandi che abbiamo nell'addestramento dei sistemi di intelligenza artificiale è la capacità di selezionare dati di qualità.”
L'intelligenza artificiale e rischio disinformazione
Oltre a casi di discrimiminazione, l’utilizzo di dati di scarsa qualità per addestrare i sistemi di A.I. può portare anche a casi di disinformazione. Sempre più motori di ricerca, come Google e Bing di Microsoft, stanno incorporando l'intelligenza artificiale nei loro sistemi per fornire testi scritti, anziché semplici elenchi di link. La qualità delle fonti utilizzate da questi sistemi nel generare risposte è fondamentale affinché queste siano esatte e veritiere.
Il rischio di disinformazione associato all'intelligenza artificiale non si limita solo alla sua difficoltà nel distinguere fonti affidabili, ma comprende anche la sua capacità di creare notizie false su vasta scala su richiesta di attori malintenzionati. Nel corso delle elezioni del 2024, sono stati numerosi i casi in cui l'AI è stata impiegata per ingannare gli elettori.
Il rischio secondo Neff è che un'ondata di informazioni errate potrebbe surclassare il numero di quelle corrette, seminando dubbi e incertezze tra gli elettori e le persone in generale. La professoressa dell’Università di Cambridge resta però positiva, perché, dice, “l’A.I. può essere utilizzata anche per scopi benefici, come cerca di fare il progetto AI4TRUST”.
“L'obiettivo è quello di integrare il lavoro di giornalisti e fact-checker per sviluppare una piattaforma che con l’A.I. contrasti la disinformazione”, dice. Al progetto AI4TRUST, finanziato dal programma Horizon Europe dell’Unione Europea, fa parte anche SKYTG24.