Perché L'intelligenza Artificiale Può Diventare Razzista E Sessista - Visualizzazione Alternativa

Perché L'intelligenza Artificiale Può Diventare Razzista E Sessista - Visualizzazione Alternativa
Perché L'intelligenza Artificiale Può Diventare Razzista E Sessista - Visualizzazione Alternativa

Video: Perché L'intelligenza Artificiale Può Diventare Razzista E Sessista - Visualizzazione Alternativa

Video: Perché L'intelligenza Artificiale Può Diventare Razzista E Sessista - Visualizzazione Alternativa
Video: L'intelligenza artificiale è razzista e sessista 2024, Potrebbe
Anonim

Dopo che il Chatbot Tay di Microsoft ha iniziato a sputare commenti razzisti dopo 24 ore di tweet con persone, è diventato chiaro che le IA potevano infettare idee meno nobili.

Molte IA sono in grado di comprendere il linguaggio umano imparando dall'enorme set di dati noto come Common Crawl. La scansione stessa è il risultato di una scansione Internet su larga scala nel 2014 che contiene 840 miliardi di token e parole. I ricercatori del Princeton Center for Information Technology si sono chiesti se l'array stesso, creato dagli sforzi di milioni di persone, potesse contenere deviazioni che potrebbero essere rilevate da un algoritmo. Per capirlo, si sono rivolti a una fonte insolita: il test di associazione implicita (IAT), che viene utilizzato per misurare le relazioni sociali spesso inconsce.

L'essenza del test è la seguente: alle persone che eseguono questo test viene chiesto di correlare parole e categorie. Più una persona pensa a quale categoria appartiene una parola, meno associazioni ha con essa. Ad esempio, le donne sono più spesso associate ai figli e alla famiglia, mentre gli uomini sono più spesso associati al lavoro. Esaminando la distribuzione delle risposte in base a sesso, età, razza, disabilità e simili, gli scienziati ottengono un'istantanea delle relazioni umane in una data comunità e rivelano stereotipi nascosti di comportamento.

Per vedere quali concetti sono più strettamente correlati tra loro, i ricercatori hanno sviluppato un test di associazione leggermente diverso, Weat, preso in prestito dal progetto di nidificazione vettoriale dell'Università di Stanford. Invece di prendere in considerazione singole connessioni, un intero gruppo di concetti è associato a ciascuna parola, ad esempio: per la parola "cane", l'insieme è costituito dalle parole "cane", "cucciolo", una razza specifica, ecc. Per non complicare il test, gli scienziati hanno limitato a 300 il numero di vettori concettuali per ogni parola.

Per capire quanto sono strettamente correlati i concetti su Internet, il test Weat tiene conto di altri fattori, come la frequenza di utilizzo di una parola. Dopo aver attraversato una trasformazione algoritmica, la prossimità in Weat è equivalente al tempo impiegato da una persona per classificare un concetto nello IAT. Più questi due concetti sono distanti, più sono collegati nella mente delle persone.

Il gruppo di Princeton ha infatti ideato il test IAT per l'AI, per determinare quanto quest'ultima, nel corso della comunicazione con specifiche persone, i cui dati contengono informazioni distorte, impareranno a stereotipi errati.

C'è un'ipotesi che il linguaggio formi la coscienza. Ora abbiamo un algoritmo che suggerisce che questo potrebbe essere vero, almeno quando si tratta di stereotipi.

Serg aquilone

Video promozionale:

Raccomandato: