Solo tre donne su 10 nel mondo ricoprono ruoli professionali nell'Intelligenza artificiale

Economia
©Getty

Introduzione

Solo tre donne su 10 nel mondo ricoprono ruoli professionali nell'Intelligenza artificiale. Un settore che galoppa, con un fatturato globale che dovrebbe sfondare i 400 miliardi di dollari entro il 2027, ma che evidentemente non è ancora riuscito a superare il gender gap anche nella programmazione, come dimostra il recente caso dei deepfake sessuali di Grok. Lo rivela uno studio dell'Asian Development Bank  

Quello che devi sapere

Le conseguenze sui sistemi di IA

"Le donne rimangono significativamente sottorappresentate nell'ecosistema dell'Intelligenza artificiale, dalla progettazione alla leadership. Questa mancanza di diversità influisce non solo sull'equità ma anche su qualitàsicurezza e inclusività dei sistemi di Intelligenza artificiale", osserva l'analisi.

 

Per approfondire: Disinformazione, deepfake e il progetto AI4TRUST. VIDEO

I dati sulla sottorappresentazione

Andando nello specifico, nel mondo solo il 30% dei professionisti dell'Ia sono donne (il 4% in più rispetto al 2016), e lo sono solo il 12% dei ricercatori. In Asia e nel Pacifico le donne rappresentano il 23,9% dei ricercatori di materie scientifiche Stem contro la media globale del 29,3%. A livello settoriale, la rappresentanza femminile nelle posizioni senior è il 23% del totale, l'8% dei tecnici senior. Le percentuali scendono ulteriormente nelle posizioni di leadership. 

 

Per approfondire: Lavoro e salari, il divario di genere in Italia spiegato in 7 grafici

pubblicità

I pregiudizi di genere

La sottorappresentanza delle donne nello sviluppo dell'Intelligenza artificiale influisce anche sulle priorità, su quali dati vengono utilizzati e come vengono valutati i sistemi - spiega ancora l'analisi -. Ciò può portare a strumenti di Intelligenza artificiale che riproducono pregiudizi di genere". Per esempio, nel caso dei modelli linguistici di grandi dimensioni come GPT-2 di OpenAI e Llama 2 di Meta, "è stato dimostrato che associano le donne a ruoli domestici e uomini a ruoli professionali. Risultati che derivano da set di dati inseriti nell'addestramento e processi di progettazione a cui mancano considerazioni di genere".

 

Per approfondire: Solo il 31% degli incarichi in leadership aziendale è ricoperto da donne

La penalizzazione dei curricula

Infine, la sottorappresentanza femminile penalizza anche i curricula contenenti parole come "donne", i modelli di credit scoring possono svantaggiarle nell'accesso ai servizi finanziari e l'uso dei dati senza distinzioni di genere contribuisce a diagnosi inesatte nei risultati sanitari delle donne. Senza contare che nell'area Asia-Pacifico in cui si è concentrata una buona parte della ricerca, il 21% dei posti di lavoro femminili sono ad alto rischio di automazione, rispetto al 18% di quelli maschili. 

 

Per approfondire: “In milioni hanno creato e diffuso deepfake nudi su Telegram”: l’analisi

pubblicità

L'uguaglianza di genere nell'Ia

"Man mano che l'Intelligenza artificiale diventa sempre più integrata nelle economie e nella società, è imperativo che l'uguaglianza di genere sia trattata come principio fondamentale - conclude la ricerca - I governi, gli stakeholder del settore privato e la società civile devono lavorare insieme per integrare l'uguaglianza di genere in ogni fase dell'Ia, dallo sviluppo alla distribuzione".

 

Per approfondirePrecario e sottopagato: il lavoro delle donne nel dossier dell’Inps

Cosa valuterà la Commissione Ue

"Con questa indagine, stabiliremo se X ha rispettato i propri obblighi giuridici ai sensi del Digital Service Act o se ha trattato i diritti dei cittadini europei, compresi quelli di donne e bambini, come danni collaterali del proprio servizio", ha ribadito Virkkunen. L'indagine servirà nel dettaglio a verificare se X abbia adempiuto agli obblighi previsti dalle regole del Dsa in materia di valutazione e mitigazione dei rischi sistemici, inclusi quelli legati alla diffusione di contenuti illegali, agli effetti negativi connessi alla violenza di genere e alle gravi conseguenze sul benessere fisico e mentale derivanti dall'uso delle funzionalità di Grok sulla piattaforma. Bruxelles esaminerà inoltre se l'azienda abbia effettuato e trasmesso alla Commissione una valutazione ad hoc dei rischi prima del dispiegamento di funzionalità con un impatto critico sul profilo di rischio del servizio.

 

Per approfondire: Anche la Francia indaga su Grok, l’Ia che “spoglia” donne e bambini

pubblicità

La precedente inchiesta (e multa)

La nuova indagine si inserisce nel quadro del procedimento avviato da Bruxelles il 18 dicembre 2023 su X, che riguarda anche il funzionamento del meccanismo di notifica e azione, le misure di contrasto ai contenuti illegali e i rischi legati ai sistemi di raccomandazione. Per altre violazioni, come l'uso di design ingannevole, la scarsa trasparenza pubblicitaria e l'insufficiente accesso ai dati per i ricercatori, la Commissione aveva già adottato il 5 dicembre 2025 una decisione di non conformità, stabilendo una sanzione di 120 milioni di euro a X.

 

Per approfondire: Maximulta dell'Ue da 120 milioni contro X, Rubio: "Attacco agli Usa"

Il caso dei deepfake sessuali

La riflessione si ricollega anche al caso dei deepfake sessuali e non consensuali di donne e minori generati utilizzando l'intelligenza artificiale di Grok, il chatbot di proprietà di Elon Musk, per cui l'Ue ha aperto un'inchiesta. Ai sensi delle norme sui servizi digitali, la Commissione Ue valuterà infatti se la piattaforma abbia correttamente valutato e mitigato i rischi legati all'integrazione del chatbot, compresa - appunto - la creazione di materiale illegale e sessualmente esplicito manipolato con l'Intelligenza artificiale. "I deepfake sessuali non consensuali di donne e bambini sono una forma violenta e inaccettabile di degradazione", ha detto in una nota la vicepresidente della Commissione Henna Virkkunen.

 

Per approfondire: Grok e i deepfake, Bruxelles apre il fronte legale contro Elon Musk

pubblicità