Nel 2024 sono state chiamate alle urne 1,6 miliardi di persone in 74 elezioni nazionali in 62 Paesi. Secondo il report dell’Istituto internazionale per la democrazia e l'assistenza democratica, in 43 elezioni si sono registrati episodi di disinformazione. L’intelligenza artificiale invece è stata usata "principalmente per scopi satirici piuttosto che per esplicite manipolazioni, rivelandosi meno dirompente di quanto si temesse"
Il 2024 è stato un anno segnato da diverse, importanti, tornate elettorali in tutto il mondo: ha visto recarsi alle urne 1,6 miliardi di persone in 74 elezioni nazionali in 62 Paesi. E secondo il rapporto sulle elezioni dello scorso anno pubblicato dall'Istituto internazionale per la democrazia e l'assistenza democratica - e basato sull'analisi di esperti e sul portale Global Election Monitor - “quarantatré elezioni nazionali nel 2024 hanno visto casi di disinformazione e di informazione fuorviante” tesi a minare “la credibilità degli attori politici o del processo elettorale stesso. L'ambiente informativo intorno alle elezioni rimane un obiettivo strategico per gli attori delle minacce ibride, come parte delle strategie di guerra non convenzionali per raggiungere scopi geopolitici". Il rapporto però sottolinea anche che una delle potenziali minacce più temute alla vigilia, l’intelligenza artificiale, è stata impiegata durante le campagne elettorali "principalmente per scopi satirici”, e “rivelandosi meno dirompente per le elezioni di quanto si temesse".
Che cosa è successo nel 2024
Nel documento si legge che "nel 2024 sono stati rilevati casi di minacce ibride contro le elezioni, attraverso operazioni condotte" in Paesi dell'Ue e anche "in Georgia, Stati Uniti, Moldavia, Taiwan e Isole Salomone". E secondo gli autori del report, le piattaforme digitali e le app di messaggistica hanno “giocato un ruolo centrale nell’esecuzione delle azioni dannose durante le elezioni del 2024”. In particolare queste tecnologie “hanno dato agli attori malintenzionati strumenti potenti per diffondere la disinformazione, amplificare le narrative divisive e coordinare vaste operazioni segrete”. Inoltre un ruolo "significativo nella manipolazione delle elezioni in tutto il mondo nel 2024" è stato giocato da influencer: secondo il rapporto, che riprende un'analisi di Freedom House, questi avrebbero agito come "superdiffusori di messaggi favorevoli ai candidati filo-russi o, nel caso di Taiwan, di narrazioni volte a scoraggiare il voto".

Leggi anche
Proteste a Los Angeles, così la disinformazione si è diffusa online
I consigli per contrastare la disinformazione
Il rapporto offre anche suggerimenti su come intervenire per contrastare gli effetti della disinformazione: secondo gli autori “gli interventi dovrebbero focalizzarsi sul rafforzamento della resilienza prima che le minacce si materializzino”. Queste strategie “includono sistemi di rilevamento precoce e meccanismi di consapevolezza situazionale, come il monitoraggio dei social media, la condivisione di informazioni e sistemi di allerta precoce a livello locale, nazionale, regionale e globale, con una maggiore cooperazione tra i settori per prevenire la disinformazione prima che attecchisca”. Per gli autori “costruire e mantenere elevati livelli di fiducia nelle istituzioni gioca un ruolo fondamentale nel mitigare l'impatto della disinformazione, poiché istituzioni credibili possono fungere da fonti affidabili di informazione”. Viene poi sottolineata la necessità di “coinvolgere la società civile, il mondo accademico e gli esperti nella lotta alla disinformazione”.
Come è stata usata l’intelligenza artificiale
Infine, il rapporto analizza anche l’utilizzo che è stato fatto dell’intelligenza artificiale nel corso dell’anno scorso: secondo gli autori “l’IA è stata usata in numerose campagne elettorali più per scopi satirici che per manipolazioni esplicite: questo suggerisce, a prima vista, un'applicazione meno dirompente di quanto inizialmente previsto”. Nonostante i timori della vigilia, e nonostante in certi casi fosse osservabile anche un uso malevolo dell’intelligenza artificiale, nel complesso “le valutazioni indicano che ha avuto scarso impatto sui risultati”.

Leggi anche
I chatbot sbagliano sempre più: perché non possiamo (ancora) fidarci
Il progetto AI4TRUST
Il contrasto alla disinformazione online è al centro del progetto AI4TRUST. Finanziato dal programma Horizon Europe dell’Unione Europea, nasce con l'obiettivo di sviluppare una piattaforma contro la disinformazione che combini l'apporto dell'intelligenza artificiale con le verifiche di giornalisti e fact-checker.
