Da Alexa a Siri, assistenti vocali solo con voci femminili: l’Onu chiede parità di genere
TecnologiaSecondo un report dell'Unesco, le repliche soft degli assistenti virtuali di fronte a insulti di genere diffonderebbero la concezione di una donna sottomessa e remissiva: le voci utilizzate dovrebbero essere neutre
Gli assistenti vocali continuano a diffondersi ed evolversi, avvicinando il proprio linguaggio sempre più a quello umano, presentando però una costante: le voci utilizzate sono nella maggioranza dei casi femminili. Secondo uno studio pubblicato dall’Unesco, si si tratta da una particolarità da non trascurare, poiché contribuirebbe a rafforzare gli stereotipi legati al genere. Il titolo della ricerca, ‘Arrossirei, se potessi’, è tratto da una risposta data in passato da Siri, assistente vocale di Apple, a un insulto a sfondo sessuale, una replica piuttosto remissiva che sarebbe eloquente dell’immagine della donna che, in molti casi, le voci femminili presenti su smart speaker ed altri dispositivi darebbero agli utenti.
Voci solo femminili in un’industria maschile
Il software di Intelligenza Artificiale (AI) di Siri è stato recentemente aggiornato per modificare la risposta data in circostanze simili; tuttavia, “la tendenza alla sottomissione degli assistenti vocali di fronte ad abusi di genere rimane invariata dal 2011”, anno in cui questa tecnologia cominciò a diffondersi, come spiegano gli autori dello studio pubblicato dall’organizzazione specializzata dell’Onu. Oltre a Siri, anche Cortana di Microsoft e Alexa di Amazon possiedono nomi e voci femminili, una scelta estremamente particolare se si considera che tra i ricercatori in AI le donne rappresentano appena il 12%. Secondo il report dell’Unesco, tutto ciò contribuirebbe a dipingere le donne come “docili aiutanti, disponibili semplicemente premendo un pulsante o attraverso comandi vocali diretti come ‘hey’ o ‘ok’”, riporta la BBC.
Assistenti vocali influenzano come si parla alle donne
Con una quantità di assistenti vocali sempre maggiore, l’idea che il genere femminile tenda a tollerare cattivi trattamenti potrebbe permeare nella società, in modo particolare tra i bambini che rischierebbero di essere influenzati nel loro modo di interagire con le donne. Per evitare tutto ciò, gli autori dello studio suggeriscono agli sviluppatori di lavorare a un nuovo tipo di voce neutrale per gli assistenti vocali, programmando questi aiutanti virtuali per scoraggiare con le loro risposte insulti basati sul genere. Secondo la direttrice per l'Uguaglianza di genere all’Unesco, Saniye Gulser Corat, la “sottomissione che è inculcata negli assistenti vocali influenza il modo in cui le persone parlano alle voci femminili” e per bloccare sul nascere la diffusione di una simile concezione è necessario, concludono gli autori, “resettare una visione della tecnologia basata sul genere e garantire parità per le ragazze e le donne”.