Intelligenza artificiale, i robot rischiano di sviluppare pregiudizi
TecnologiaUn nuovo studio rivela come le macchine possano apprendere questi comportamenti dall’uomo e imitarli facilmente
I progressi nel campo dell’Intelligenza artificiale potrebbero portare alla realizzazione di robot capaci di sviluppare pregiudizi in modo autonomo, comportamenti che gli automi apprenderebbero dai loro simili o dagli stessi esseri umani. Ad affermarlo è una ricerca realizzata da un team dell’Università di Cardiff e del Massachusetts Institute of Technology di Boston. Lo studio, che ha trovato spazio sulle pagine della rivista Scientific Reports, si basa su migliaia di simulazioni effettuate al computer che evidenzierebbero come mostrare pregiudizi verso gli altri sia un atteggiamento che non richiede un alto livello di abilità cognitiva, e potrebbe di conseguenza “essere facilmente esibito dalle macchine con Intelligenza artificiale”.
Come si sviluppa il pregiudizio
Sviluppare pregiudizi non è raro all’interno della società umana. Sarebbe proprio la frequenza di tali comportamenti a far sì che i robot possano imparare a imitarli senza troppe difficoltà. I ricercatori hanno condotto alcuni semplici giochi in cui le macchine dovevano decidere a chi donare qualcosa all’interno o fuori da un gruppo, scelta che si basava sulla reputazione di un individuo unita a una propria strategia. Con il procedere delle simulazioni, gli automi mostravano la capacità di sviluppare nuovi piani e di copiare ciò che facevano gli altri, sia dentro che al di fuori della propria cerchia. Roger Whitaker, professore all’Università di Cardiff e co-autore dello studio, afferma che le simulazioni hanno aiutato il team “a capire meglio come evolvono i pregiudizi, e le condizioni che li promuovono o li impediscono”.
"Questi comportamenti - prosegue il docente - attraverso l’evoluzione possono essere incentivati nelle popolazioni virtuali, a detrimento di una più ampia connettività verso gli altri. La protezione da gruppi pregiudiziali può inavvertitamente condurre gli individui a formare ulteriori gruppi pregiudiziali, dai quali potrebbe nascere una popolazione fratturata”.
Conoscenze falsate in gruppi ristretti
Secondo Giorgio Buttazzo, insegnante di ingegneria informatica alla Scuola Superiore Sant’Anna di Pisa, l’Intelligenza artificiale non sarebbe ancora in grado di portare alla formazione di pregiudizi autonomamente. “Questo nuovo studio è un lavoro teorico che, attraverso modelli matematici, prova a simulare delle interazioni sociali fra individui, a prescindere che siano robot o umani”, spiega Buttazzo. “Quello che dimostra è che quando la comunicazione e lo scambio di informazioni avviene tra piccoli gruppi, è più facile che si formino delle conoscenze falsate”. Al contrario, l’apertura verso cerchie più estese farebbe calare il rischio di pregiudizi a causa dell’esistenza di più fonti da cui attingere. Il docente afferma però che in futuro, con macchine in grado di scambiarsi informazioni in modo autonomo, bisognerà essere cauti nel modo in cui i robot entrano in comunicazione, per evitare che essi sfuggano al controllo umano. “Per prevenire questo rischio - conclude l’esperto - dobbiamo capire le strategie migliori per addestrare le macchine e fornire loro non solo pura conoscenza, ma anche regole etiche".