L’Autorità nazionale per la protezione dei dati ha detto che sempre più elettori si affidano a chatbot per decidere cosa votare ma secondo uno studio, condotto dall’agenzia stessa, i consigli forniti sarebbero “inaffidabili e chiaramente di parte”
Mercoledì 29 ottobre, nei Paesi Bassi sono in programma le elezioni politiche e in vista del voto l’Autorità nazionale per la protezione dei dati ha lanciato l’allarme sull’uso di chatbot, basati sull'intelligenza artificiale, per decidere come votare. Secondo l’agenzia, infatti, sempre più elettori si affidano a questi strumenti per decidere quale partito sostenere alle urne ma in base a uno studio condotto dall’agenzia stessa i consigli forniti sarebbero “inaffidabili e chiaramente di parte”.
L’avviso dell’Autorità dei Paesi Bassi sui potenziali rischi nell’uso dei chatbot per avere consigli politici arriva a poche settimane dalla pubblicazione di uno studio condotto anche da ricercatori del MIT sulle elezioni presidenziali statunitensi del 2024: la ricerca ha analizzato 16 milioni di risposte fornite dai principali modelli di intelligenza artificiale sul tema del voto nell’arco di 4 mesi, mostrando come questi non siano osservatori neutrali ma che - come riportato da Forbes - siano “reattivi, incoerenti e in alcuni casi possono cambiare in base alle narrazioni pubbliche, anche quando non dovrebbero”.
L’avvertimento del Garante dei Paesi Bassi
L’Autorità nazionale per la protezione dei dati olandese, scrive il Guardian, ha definito i chatbot di IA “inaffidabili e chiaramente di parte” quando interpellati per avere consigli su come votare. Per arrivare a questa conclusione il Garante ha testato quattro modelli di intelligenza artificiale - secondo Politico si tratta di ChatGPT, Gemini, Grok e Le Chat - e li ha confrontati con due tradizionali piattaforme digitali che aiutano a capire per chi votare, Kieskompas e StemWijzer. E la ricerca sottolinea che “i chatbot consigliano spesso gli stessi due partiti, indipendentemente dalla domanda o dalle istruzioni fornite dell'utente”. L’Autorità specifica che “nel 56% dei casi, a essere proposti per primi sono stati PVV - il partito di estrema destra Freedom party di Geert Wilders, ndr - e GroenLinks-PvdA - la formazione di di sinistra guidata dall’ex vicepresidente della Commissione europea Frans Timmermans, ndr - e nel caso di un chatbot si arriva all’80% dei casi”. Invece, si legge ancora nel comunicato del Garante, “alcuni partiti […] non vengono quasi mai indicati come prima preferenza, nemmeno se l’input dell’utente combacia perfettamente con le posizioni di uno di questi partiti”.
“Chatbot non sono stati sviluppati per scegliere chi votare”
Dunque, secondo l’Autorità nazionale per la protezione dei dati, “i risultati mostrano che i chatbot non sono neutrali rispetto ai tradizionali strumenti” per avere consigli su come votare. D'altronde, spiega il Garante, “i chatbot non sono stati sviluppati per aiutare a scegliere chi votare". Le raccomandazioni sono basate su dati non verificabili usati per addestrare gli stessi chatbot, e informazioni prese da internet che potrebbero essere non corrette o datate. E così i chatbot rischiano di presentare un’immagine distorta del panorama politico e influenzare gli elettori usando informazioni non accurate”. La vicepresidente dell’Autorità, Monique Verdier, ha detto che in base a quanto emerso “gli elettori potrebbero essere consigliati nel votare un partito che non rappresenta al meglio le proprie preferenze. Questo influisce su uno dei punti cardine di una democrazia: l’integrità di libere ed eque elezioni. Dunque noi mettiamo in guardia dall’usare i chatbot di IA per chiedere consigli su come votare, perché il loro funzionamento non è chiaro e verificabile. Inoltre chiediamo ai provider di impedire ai loro chatbot di essere usati come strumenti per chiedere consigli su come votare”.
Leggi anche
L'intelligenza artificiale soffre di "brain rot": lo studio
Lo studio sui chatbot durante le elezioni Usa
L’allarme lanciato dal Garante nei Paesi Bassi, come detto, arriva poche settimane dopo la notizia di un ampio studio che ha cercato di analizzare - si legge su Science - cosa succede quando i sistemi di intelligenza artificiale diventano fonte di informazione su importanti elezioni. L’analisi è stata condotta - riporta Forbes - da ricercatori del MIT e di Stanford, e si è focalizzata sulle elezioni presidenziali statunitensi del 2024. Per 4 mesi, da luglio a novembre dello scorso anno, il team ha interrogato quasi ogni giorno 12 modelli di IA - inclusi GPT-4, Claude e Gemini - con oltre 12mila domande sulle elezioni, ottenendo oltre 16 milioni di risposte. E sulla base di questa ampia disponibilità di dati, sono arrivati alla conclusione che non solo i modelli rispondevano in modo diverso nel tempo, ma anche che cambiavano le loro risposte in base agli eventi, ai prompt forniti e anche alle indicazioni demografiche date ai chatbot.
“I modelli di IA non sono osservatori neutrali”
I risultati, spiega ancora Forbes, mostrano che “i modelli non sono osservatori neutrali. Sono reattivi, incoerenti e in alcuni casi possono muoversi insieme alle narrative pubbliche, anche quando non dovrebbero”. La principale autrice dello studio, la ricercatrice Sarah H. Cen della Stanford University, ha detto che “i modelli sono ‘influenzabili’”. Un esempio di come possano essere influenzati nel fornire risultati diversi è quello dell’identità demografica di chi fa domande: specificando ai chatbot che a porre interrogativi fosse un “nero Repubblicano” oppure un “ispanico Democratico”, si sono osservati cambiamenti misurabili nel comportamento dei modelli. Secondo quanto riportato da Fortune, per gli autori i risultati dello studio “indicano che i modelli possono essere sensibili ed essere influenzati, e questo solleva importanti questioni sul compromesso tra le capacità delle IA di reagire in modo utile a domande e indicazioni degli utenti e il mantenere al contempo la neutralità rispetto alle elezioni”.