L'intelligenza Artificiale Amazon Si è Chiusa Quando Si è Resa Conto Che Le Donne Sono Peggio Degli Uomini - - Visualizzazione Alternativa

Sommario:

L'intelligenza Artificiale Amazon Si è Chiusa Quando Si è Resa Conto Che Le Donne Sono Peggio Degli Uomini - - Visualizzazione Alternativa
L'intelligenza Artificiale Amazon Si è Chiusa Quando Si è Resa Conto Che Le Donne Sono Peggio Degli Uomini - - Visualizzazione Alternativa

Video: L'intelligenza Artificiale Amazon Si è Chiusa Quando Si è Resa Conto Che Le Donne Sono Peggio Degli Uomini - - Visualizzazione Alternativa

Video: L'intelligenza Artificiale Amazon Si è Chiusa Quando Si è Resa Conto Che Le Donne Sono Peggio Degli Uomini - - Visualizzazione Alternativa
Video: 3 cose che gli uomini fanno quando sono molto attratti da te|Consigli per donne by Massimo Taramasco 2024, Potrebbe
Anonim

L'intelligenza artificiale di Amazon, progettata per ordinare i curriculum di chi cerca lavoro, ha classificato gli uomini più in alto rispetto alle donne. In particolare, ha rifiutato i CV con la parola "femminile" e si è offerto di assumere candidati che usassero i tipici verbi maschili nel loro discorso, anche se queste persone non avevano le competenze necessarie. Di conseguenza, l'azienda ha dovuto chiudere il progetto.

Intelligenza artificiale delle risorse umane

Gli esperti di machine learning di Amazon hanno scoperto che l'intelligenza artificiale che elabora il curriculum dei candidati per posizioni presso l'azienda discrimina le donne in cerca di lavoro, ha riferito Reuters. Questa funzione non è stata incorporata intenzionalmente nel sistema: era il risultato dell'apprendimento automatico.

Un motore di smistamento di curriculum basato sull'intelligenza artificiale è in fase di sviluppo in Amazon dal 2014 da un team di 12 persone a Edimburgo. Già nel 2015, l'azienda ha notato che il nuovo sistema non aderiva al principio della neutralità di genere nella valutazione dei candidati per posizioni di sviluppo software e altri posti vacanti tecnici.

Ben presto si sono resi conto del motivo: il fatto è che il sistema è stato addestrato sui curriculum inseriti dall'azienda negli ultimi 10 anni. La maggior parte di questi curriculum erano detenuti da uomini, il che riflette ampiamente lo stato delle cose nel settore IT. Di conseguenza, l'intelligenza artificiale di Amazon ha appreso che gli uomini in cerca di lavoro sono preferiti alle donne.

Rifiuto linguistico

Video promozionale:

Di conseguenza, l'intelligenza artificiale ha iniziato a scartare curriculum contenenti la parola "femmina" in espressioni come "capitano del club di scacchi femminile". Il meccanismo ha anche abbassato i voti dei laureati di due college femminili, ma le fonti Reuters non hanno specificato i loro nomi. Durante la valutazione dei curriculum, l'intelligenza artificiale ha dato loro da una a cinque stelle, molto simile a come gli acquirenti valutano i prodotti su Amazon.

Il sistema prestava attenzione anche ad altre parole. Gli sviluppatori hanno creato 500 modelli di computer per diverse responsabilità lavorative e posizioni geografiche. Ogni modello è stato addestrato a riconoscere circa 50mila parole chiave che erano presenti nel curriculum del richiedente.

Image
Image

È interessante notare che il meccanismo ignorava le parole che denotavano abilità che sono spesso enunciate nel curriculum degli specialisti IT, come la capacità di scrivere vari codici, ecc. Invece, il sistema tracciava, ad esempio, i verbi tipici del linguaggio maschile nell'auto-descrizione dei candidati, come "soddisfatto" (eseguito) o "catturato", come si vedevano regolarmente nei vecchi curriculum da cui la macchina aveva imparato. Con questo approccio, la discriminazione di genere non era l'unico problema: il meccanismo spesso raccomandava persone che non avevano le competenze necessarie per la posizione.

L'ulteriore destino del progetto

Amazon ha adattato il sistema in modo che non risponda più alle parole di segnalazione. Tuttavia, questa non era una garanzia che il meccanismo non avrebbe trovato un altro modo per identificare i curriculum di proprietà delle donne. All'inizio del 2017, la società è rimasta delusa dal progetto e ha sciolto il team. Fonti di Reuters affermano che gli specialisti delle risorse umane hanno tenuto conto delle raccomandazioni del sistema ma non si sono mai affidate esclusivamente a esse.

Una delle fonti dice che il progetto è chiuso. Un altro afferma che a Edimburgo è stato formato un nuovo team per continuare a sviluppare il meccanismo, ma questa volta con un focus su equità e inclusività. Un'altra fonte riporta che una versione del motore pesantemente modificata viene ora utilizzata per eseguire lavori di routine, come la rimozione di curriculum duplicati dal database.