Wikipedia, la guerra dei (ro)bot che si correggono fra loro

Tecnologia
Il logo di Wikipedia (Getty Images)
getty_Images_-_correzioni_Wikipedia

Gran parte delle revisioni negli articoli dell’enciclopedia online sono prodotte da automatismi, che spesso però sono in conflitto

Sbagliare è umano, correggere è robotico. Gli articoli di Wikipedia sono continuamente soggetti a correzioni e revisioni; molte di queste non sono opera di un editor in carne e ossa, ma di un programma automatico (bot), che spesso modifica ciò che un altro programma automatico aveva scritto. A svelare il conflitto è uno studio congiunto dell’Università di Oxford e dell’istituto britannico Alan Turing.



Correzioni da robot - Parecchie delle operazioni di editing effettuate da Wikipedia possono essere effettuate meccanicamente: correggere gli errori di ortografia, aggiungere link ad altre pagine dell’enciclopedia, eliminare insulti e linguaggio non appropriato. Per questo non sono persone reali a lavorarci, ma "bots", ovvero sistemi automatici in grado di sostituire le parole sbagliate con quelle corrette secondo l’impostazione e le linee guida del sito.

Inoltre, i software sono programmati anche per tenere sotto controllo le pagine che sono state corrette, in modo da accorgersi immediatamente di eventuali modifiche da parte degli utenti. Ogni volta che una pagina viene aggiornata, una segnalazione automatica giunge a tutti i "bots" che hanno messo mano all’articolo. La conseguenza è una sequenza continua di correzioni reciproche, che invece non si produce quando sono esseri umani a modificare un articolo.



Lo studio su Wikipedia - A evidenziare questa prassi è uno studio congiunto dell’Università di Oxford e dell’istituto britannico Alan Turing, intitolato "Even good bots fight", portato a termine da quattro ricercatori:  Milena Tsvetkova, Ruth Garc’a-Gavilanes, Luciano Floridi e Taha Yasseri. Secondo quest’ultimo, il modo in cui i robot agiscono nell’ecosistema di Wikipedia, e della rete in generale, sfugge al controllo umano, dato che la loro programmazione implica un numero molto alto di conseguenze, quasi impossibili da calcolare. Secondo lo studio, bisognerebbe migliorare la cooperazione tra gli algoritmi robotici, per gestire con efficienza i compiti che vengono loro affidati. Questo richiederebbe un'attenzione maggiore da parte dei programmatori, che non sempre riescono a identificare i problemi. Nel caso di Wikipedia gli effetti collaterali sono una semplice perdita di tempo del sistema, ma in alcuni casi si arriva a situazioni più gravi: nel mese di marzo Microsoft fu costretta a disattivare Tay, il suo twittatore automatico che aveva postato insulti razzisti e sessisti, appresi in fretta dagli utenti del social network.

 

 

Le correzioni cambiano con la lingua - Un'altra curiosità dello studio congiunto riguarda le diverse edizioni di Wikipedia: in base alla lingua in cui sono scritte le nuove pagine si ha una media differente di revisioni. I meno conflittuali sembrano essere i "bots" che agiscono sulle pagine in tedesco, che si correggono a vicenda 24 volte in media a pagina. Al contrario le pagine in inglese subiscono 105 correzioni in media e le portoghesi 185: impossibile per dei correttori reali sostenere questo ritmo.

Tecnologia: I più letti

[an error occurred while processing this directive]