L'intelligenza Artificiale Può Cambiare Le Nostre Vite Per Sempre, Ma Al Momento Siamo Su Un Sentiero Oscuro - Visualizzazione Alternativa

L'intelligenza Artificiale Può Cambiare Le Nostre Vite Per Sempre, Ma Al Momento Siamo Su Un Sentiero Oscuro - Visualizzazione Alternativa
L'intelligenza Artificiale Può Cambiare Le Nostre Vite Per Sempre, Ma Al Momento Siamo Su Un Sentiero Oscuro - Visualizzazione Alternativa

Video: L'intelligenza Artificiale Può Cambiare Le Nostre Vite Per Sempre, Ma Al Momento Siamo Su Un Sentiero Oscuro - Visualizzazione Alternativa

Video: L'intelligenza Artificiale Può Cambiare Le Nostre Vite Per Sempre, Ma Al Momento Siamo Su Un Sentiero Oscuro - Visualizzazione Alternativa
Video: StuffCube - Intelligenza Artificiale 2024, Potrebbe
Anonim

L'intelligenza artificiale (AI) sta già rimodellando il mondo in modi visibili. I dati guidano il nostro ecosistema digitale globale e le tecnologie AI scoprono modelli nei dati.

Smartphone, case intelligenti e città intelligenti stanno influenzando il modo in cui viviamo e interagiamo, ei sistemi di intelligenza artificiale sono sempre più coinvolti nelle decisioni di assunzione, nella diagnostica medica e nelle decisioni giudiziarie. Se questo scenario è utopico o distopico dipende da noi.

I potenziali rischi dell'IA sono elencati molte volte. Robot assassini e disoccupazione massiccia sono problemi comuni, mentre alcune persone temono addirittura l'estinzione. Proiezioni più ottimistiche affermano che l'intelligenza artificiale aggiungerà 15 trilioni di dollari all'economia globale entro il 2030 e alla fine ci condurrà a una sorta di nirvana sociale.

Dobbiamo certamente considerare l'impatto che tali tecnologie hanno sulle nostre società. Uno dei problemi principali è che i sistemi di intelligenza artificiale rafforzano i pregiudizi sociali esistenti, con un effetto devastante.

Diversi noti esempi di questo fenomeno hanno ricevuto un'attenzione diffusa: moderni sistemi di traduzione automatica automatizzata e sistemi di riconoscimento delle immagini.

Questi problemi sorgono perché tali sistemi utilizzano modelli matematici (come le reti neurali) per definire modelli in grandi set di dati di addestramento. Se questi dati vengono gravemente distorti in vari modi, gli errori intrinseci verranno inevitabilmente studiati e riprodotti dai sistemi addestrati.

Le tecnologie autonome di parte sono problematiche perché possono potenzialmente isolare gruppi come donne, minoranze etniche o anziani, esacerbando così gli squilibri sociali esistenti.

Se i sistemi di intelligenza artificiale vengono addestrati, ad esempio, dai dati degli arresti della polizia, qualsiasi pregiudizio conscio o inconscio manifestato negli schemi di arresto esistenti verrà duplicato dal sistema di intelligenza artificiale "previdenza della polizia" addestrato da questi dati.

Video promozionale:

Riconoscendo le gravi implicazioni di ciò, varie organizzazioni rispettabili hanno recentemente raccomandato che tutti i sistemi di intelligenza artificiale siano addestrati su dati oggettivi. Le linee guida etiche pubblicate all'inizio del 2019 dalla Commissione europea hanno suggerito la seguente raccomandazione:

Quando i dati vengono raccolti, possono contenere errori socialmente costruiti, imprecisioni. Questo deve essere affrontato prima di addestrare l'IA su qualsiasi set di dati.

Sembra tutto abbastanza ragionevole. Sfortunatamente, a volte semplicemente non è possibile garantire l'imparzialità di determinati set di dati prima della formazione. Un esempio concreto dovrebbe chiarirlo.

Tutti i moderni sistemi di traduzione automatica (come Google Translate) imparano dalle coppie di frasi.

Il sistema anglo-francese utilizza dati che collegano frasi inglesi ("lei è alta") con frasi francesi equivalenti ("elle est grande").

Potrebbero esserci 500 milioni di tali coppie in un dato set di dati di addestramento, e quindi solo un miliardo di frasi individuali. Tutti i pregiudizi di genere devono essere rimossi da questo tipo di set di dati se vogliamo impedire che nel sistema vengano generati risultati come i seguenti:

La traduzione francese è stata creata utilizzando Google Traduttore l'11 ottobre 2019 ed è errata: "Ils" è un plurale maschile in francese e appare qui nonostante il contesto indichi chiaramente che si fa riferimento sulle donne.

Questo è un classico esempio di un sistema automatizzato che preferisce lo standard maschile predefinito a causa di pregiudizi nei dati di allenamento.

Complessivamente, il 70 percento dei pronomi generici nei set di dati di traduzione sono maschili e il 30 percento sono femminili. Ciò è dovuto al fatto che i testi utilizzati per tali scopi si riferiscono più spesso agli uomini che alle donne.

Per evitare di ripetere gli errori esistenti del sistema di traduzione, sarebbe necessario escludere dai dati coppie specifiche di frasi in modo che i pronomi maschile e femminile si incontrino in un rapporto 50/50 sia sul lato inglese che su quello francese. Ciò impedirà al sistema di assegnare probabilità più alte ai pronomi maschili.

E anche se il sottoinsieme risultante dei dati è completamente bilanciato per genere, sarà comunque distorto in vari modi (ad esempio, etnia o età). In verità, sarebbe difficile eliminare completamente tutti questi errori.

Se una persona dedica solo cinque secondi alla lettura di ciascuna delle un miliardo di frasi nei dati di addestramento dell'IA, ci vorranno 159 anni per testarle tutte - e ciò presuppone la volontà di lavorare tutto il giorno e la notte, senza pause pranzo.

Alternativa?

Pertanto, non è realistico richiedere che tutti i set di dati di addestramento siano imparziali prima di costruire i sistemi di intelligenza artificiale. Tali requisiti di alto livello di solito presuppongono che "AI" denoti un gruppo omogeneo di modelli matematici e approcci algoritmici.

In effetti, diversi compiti di intelligenza artificiale richiedono tipi di sistemi completamente diversi. E sottovalutare completamente questa diversità maschera i problemi reali associati, diciamo, a dati altamente distorti. Questo è un peccato in quanto significa che altre soluzioni al problema del bias dei dati vengono trascurate.

Ad esempio, i pregiudizi in un sistema di traduzione automatica addestrato possono essere ridotti in modo significativo se il sistema viene adattato dopo essere stato addestrato su un set di dati ampio e inevitabilmente parziale.

Questa operazione può essere eseguita utilizzando un set di dati molto più piccolo e meno confuso. Pertanto, la maggior parte dei dati può essere altamente parziale, ma non è necessario un sistema addestrato. Sfortunatamente, questi metodi sono raramente discussi da coloro che sviluppano linee guida e quadri giuridici per la ricerca sull'IA.

Se i sistemi di intelligenza artificiale semplicemente esacerbano gli squilibri sociali esistenti, è più probabile che scoraggino che promuovano un cambiamento sociale positivo. Se le tecnologie di intelligenza artificiale che utilizziamo sempre più quotidianamente fossero molto meno prevenute di noi, potrebbero aiutarci a riconoscere e affrontare i nostri pregiudizi in agguato.

Naturalmente, questo è ciò per cui dovremmo tendere. Pertanto, i progettisti di intelligenza artificiale devono pensare molto più attentamente alle implicazioni sociali dei sistemi che creano, mentre coloro che scrivono di intelligenza artificiale devono capire più da vicino come i sistemi di intelligenza artificiale sono effettivamente progettati e costruiti.

Perché se ci stiamo davvero avvicinando a un idillio tecnologico o ad un'apocalisse, il primo sarebbe preferibile.

Victoria Vetrova

Raccomandato: