Gli Scienziati Hanno Smesso Di Capire Come Funziona L'intelligenza Artificiale - Visualizzazione Alternativa

Gli Scienziati Hanno Smesso Di Capire Come Funziona L'intelligenza Artificiale - Visualizzazione Alternativa
Gli Scienziati Hanno Smesso Di Capire Come Funziona L'intelligenza Artificiale - Visualizzazione Alternativa

Video: Gli Scienziati Hanno Smesso Di Capire Come Funziona L'intelligenza Artificiale - Visualizzazione Alternativa

Video: Gli Scienziati Hanno Smesso Di Capire Come Funziona L'intelligenza Artificiale - Visualizzazione Alternativa
Video: Gli Scienziati Hanno Scoperto 13 Segni di Intelligenza Straordinaria 2024, Potrebbe
Anonim

Scienziati e programmatori hanno smesso di capire come l'intelligenza artificiale prende le decisioni. Questo problema è stato annunciato da diversi specialisti alla conferenza principale sull'IA - Neural Information Processing Systems - tenutasi a Long Beach (California).

Gli esperti intervistati da Quartz affermano di dover agire prima che il sistema diventi troppo complesso.

"Non vogliamo dare per scontate le decisioni sull'intelligenza artificiale senza comprenderne la logica", afferma Jason Yosinski di Uber. "Affinché la società accetti i modelli di apprendimento automatico, dobbiamo sapere come l'IA arriva a determinate conclusioni".

Il problema che molti esperti chiamano "scatola nera" è davvero grave. L'esperienza precedente ha dimostrato che l'IA ha la tendenza a prendere decisioni distorte e tracciare analogie dove non dovrebbero. Poiché le reti neurali oggi si infiltrano gradualmente nelle forze dell'ordine, nel sistema sanitario, nella ricerca scientifica e negli algoritmi che determinano ciò che vedi sul tuo feed di notizie di Facebook, l'errore AI può essere molto costoso.

Ad esempio, Kiri Wagstaff, un esperto di intelligenza artificiale presso il Jet Propolusion Lab (NASA), cita una missione su Marte. I dispositivi si trovano a 200 milioni di miglia dalla Terra e costano centinaia di milioni di dollari, quindi qualsiasi errore nel lavoro dell'IA è semplicemente inaccettabile.

Le persone hanno bisogno di sapere cosa sta facendo l'IA e perché. Altrimenti, come possono fidarsi di lui per controllare apparecchiature costose?”Dice Wagstaff.

Al momento, lo scienziato sta lavorando a un algoritmo che ordina le immagini scattate da vari veicoli spaziali della NASA. Poiché il numero di immagini è nell'ordine dei milioni, il computer consente di ordinare ed evidenziare quelle più interessanti senza spendere una grande quantità di tempo in questo processo. Il problema, tuttavia, sta nel fatto che spesso solo l'IA da sola sa perché certe immagini che seleziona sono insolite.

Quindi, conclude Wagstaff, se c'è un errore all'interno di questo algoritmo, un giorno potrebbe perdere informazioni molto importanti.

Video promozionale:

"Fondamentalmente, il computer ti dà un'immagine e dice:" Guarda, questo è interessante ". Ma non puoi sempre capire perché è interessante: a causa del colore, della forma degli oggetti o della loro posizione nello spazio - probabilmente non lo sai ", dice lo scienziato.

Hannah Wallach, ricercatrice senior presso Microsoft, concorda con le conclusioni dei suoi colleghi.

Con la diffusione dell'apprendimento automatico e l'aumento della posta in gioco, non possiamo più considerare questi sistemi come scatole nere. Dobbiamo capire cosa sta succedendo al loro interno e cosa stanno facendo”, ha detto il ricercatore.

Gli scienziati stanno fortunatamente cercando di trovare metodi per comprendere la logica dell'intelligenza artificiale. Pertanto, la ricercatrice di Google Mitra Raghu ha presentato un rapporto che descrive il processo di tracciamento delle azioni dei singoli "neuroni" di una rete neurale. Analizzando milioni di operazioni, è stata in grado di capire quale dei "neuroni" artificiali si concentrava su idee sbagliate e spegnerli. Ciò dimostra che tradurre il lavoro delle reti neurali in una forma accessibile alla comprensione umana non è un compito così impossibile.

Un'altra opzione per risolvere il problema è testare regolarmente le abilità sviluppate dall'intelligenza artificiale.

"È come se gli insegnanti di scuola chiedessero ai bambini di raccontare con parole loro ciò che hanno capito dalla spiegazione dell'insegnante", dice Wagstaff.

Detto questo, l'importanza di comprendere le parti interne dell'algoritmo non è solo quella di evitare che un ipotetico rover cada da una roccia marziana; rendendosi conto di quale sia il guasto, è possibile migliorare ulteriormente i sistemi esistenti.

"Se il tuo sistema non funziona e non sai perché, è molto difficile fare qualcosa al riguardo", dice Yosinski. "Se sai cosa è successo, la situazione può sempre essere corretta".

Materiali utilizzati dal sito hightech.fm

Raccomandato: