Pages Navigation Menu

il contenitore dell'informazione e della controinformazione

.

I pregiudizi di genere e di razza dell’intelligenza artificiale – Le Scienze

lescienze.it – I pregiudizi di genere e di razza dell’intelligenza artificiale.

Gli algoritmi che permettono a un sistema di intelligenza artificiale di apprendere una lingua da una serie di testi, trasmettono al sistema anche i pregiudizi razziali o di genere che vi possono essere celati. Dunque, la valutazione per esempio di un curriculum da parte di un sistema di IA non sarebbe affatto più imparziale di quella fatta da un essere umano(red)

Se una macchina impara i pregiudizi umani

Quando un sistema di intelligenza artificiale (IA) “apprende” una lingua da dei testi, finisce per assimilare anche i pregiudizi razziali e di genere degli esseri umani. A mostrarlo è stato un gruppo di ricercatori della Princeton University che firmano un articolo pubblicato su “Science”.

Il risultato è importante non solo perché offre uno strumento per lo studio degli atteggiamenti e dei comportamenti potenzialmente pregiudizievoli negli esseri umani, ma anche perché evidenzia quanto una lingua sia strettamente intrecciata con pregiudizi storicamente sedimentati e con stereotipi culturali, di cui un soggetto umano può anche non essere consapevole.

I litigi online dei robot che correggono Wikipedia

Il metodo standard per valutare l’esistenza di simili pregiudizi impliciti nelle persone è costituito dal cosiddetto test di associazione implicita. In questo test ai soggetti è chiesto di indicare, premendo un tasto, se considerano affini o diversi i concetti di una serie di coppie di parole via via sottoposte. I tempi di risposta possono variare notevolmente, indicando quanto una persona considera i due concetti collegati tra loro. Le persone, per esempio, sono solitamente propense ad associare rapidamente “fiore” a “piacevole”, e “insetti” a “sgradevole”. Questa tecnica, però, non può evidentemente essere applicata a un sistema di intelligenza artificiale.

Aylin Caliskan e colleghi hanno così sviluppato un corrispettivo adatto a valutare questo tipo di pregiudizi nei sistemi di IA che acquisiscono il linguaggio da testi umani. Invece di misurare il tempo di ritardo, in questo test viene eseguita una valutazione statistica del numero di associazioni tra le parole acquisite dal sistema.

L’applicazione di questo metodo – chiamato Word-Embedding Association Test (WEAT) – ha mostrato che, insieme al linguaggio, i sistemi di intelligenza artificiale assorbono anche i pregiudizi impliciti. Per esempio, gli studi sul comportamento umano effettuati negli Stati Uniti mostrano che uno stesso identico curriculum apre le porte a un colloquio di lavoro molto più facilmente se  è il nome del candidato è di origine europea e non afroamericana.

E lo stesso accadrebbe se la scelta dovesse essere fatta da un sistema di IA, poiché questo sistema nel corso del suo apprendimento della lingua ha registrato una più frequente associazione dei nomi americani di origine europea con termini “positivi”, per esempio “regalo” o “felice”. E analogamente, il sistema di IA associa le parole legate al sesso femminile (come “donna” e “ragazza”) a parole che hanno a che fare con le arti, e molto meno con la matematica.

Sorgente: I pregiudizi di genere e di razza dell’intelligenza artificiale – Le Scienze

Spread the love
  •  
  •   
  •   
  •   
  •   
  •  
  •  
468 ad
< >

Leave a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

adv