La Vera Intelligenza Artificiale Può Essere Creata Risolvendo Tre Problemi Principali: - Visualizzazione Alternativa

Sommario:

La Vera Intelligenza Artificiale Può Essere Creata Risolvendo Tre Problemi Principali: - Visualizzazione Alternativa
La Vera Intelligenza Artificiale Può Essere Creata Risolvendo Tre Problemi Principali: - Visualizzazione Alternativa

Video: La Vera Intelligenza Artificiale Può Essere Creata Risolvendo Tre Problemi Principali: - Visualizzazione Alternativa

Video: La Vera Intelligenza Artificiale Può Essere Creata Risolvendo Tre Problemi Principali: - Visualizzazione Alternativa
Video: Intelligenza artificiale e social network - Codice, La vita è digitale 04/08/2017 2024, Potrebbe
Anonim

In una conferenza sul deep machine learning tenutasi a Londra il mese scorso, un argomento è stato sollevato più volte: l'importanza di capire cosa facciamo veramente. Mentre aziende come Google continuano a sostenere che viviamo tutti nel "primo secolo dell'intelligenza artificiale", quando il machine learning sta appena iniziando a scoprire nuovi campi di attività (come il riconoscimento vocale e delle immagini), coloro che sono davvero in prima linea nella ricerca sull'IA, cerca di sottolineare che ci sono molte altre sfide da affrontare prima che arrivi la vera età dell'IA. Anche se abbiamo già assistenti digitali in grado di parlare come i computer nei film di fantascienza, questo non significa che siamo seriamente vicini alla creazione di una vera intelligenza artificiale.

Alla fine, tutti i problemi che ostacolano la creazione di una vera IA sono i seguenti: nella quantità di informazioni che dovranno essere investite in esse; nella nostra incapacità di creare un'intelligenza artificiale che possa far fronte altrettanto bene a più compiti contemporaneamente; beh, in effetti, non abbiamo idea di come tali sistemi dovrebbero effettivamente funzionare. Le tecnologie di machine learning sono già in grado di fare cose meravigliose nel 2016, ma a volte queste cose possono essere difficili da spiegare, anche per i creatori stessi. Per non parlare di quanti soldi costa tutto. Diamo uno sguardo più da vicino alle complessità che gli ingegneri di intelligenza artificiale devono affrontare oggi.

Prima le informazioni, poi l'IA

Comprendiamo tutti perfettamente che l'IA deve avere accesso alle informazioni per studiare il mondo che ci circonda, ma non capiamo esattamente quante informazioni siano necessarie. Secondo Neil Lawrence, professore presso il Dipartimento di Machine Learning presso la Sheffield University e membro del team di sviluppo della tecnologia AI di Amazon, questi sistemi avranno bisogno di centinaia e migliaia di volte più informazioni di un essere umano per imparare a capire il mondo e riconoscere determinati oggetti.

"Se si esaminano tutti i settori e le aree in cui gli ingegneri hanno ottenuto un certo successo nel machine deep learning, è possibile vedere immediatamente quante informazioni sono state utilizzate per risolvere tutti questi problemi", afferma Lawrence, citando come esempio le stesse tecnologie di riconoscimento vocale e di immagini.

Aziende come Google e Facebook hanno accesso a montagne di informazioni, il che, ovviamente, rende più facile creare vari strumenti utili (le stesse tecnologie di ricerca vocale per Android, ad esempio).

Per Lawrence, l'informazione è ora ciò che era il carbone nei primi anni della rivoluzione industriale. Ad esempio, Lawrence cita Thomas Newcomen, un inglese che creò nel 1712 (in realtà 60 anni prima della creazione di una macchina del genere da parte di James Watt) una versione primitiva di una macchina a vapore alimentata a carbone. L'invenzione di Newcomen non era perfetta. Rispetto alla macchina di Watt, si è rivelato inefficiente e troppo costoso da usare. Per la maggior parte, poteva essere utilizzato solo nelle miniere di carbone, dove la quantità di carburante necessaria compensava le carenze della macchina.

Un esempio della tecnologia di riconoscimento delle immagini aperte di Facebook

Video promozionale:

Image
Image

Lawrence ritiene che potrebbero esserci centinaia di questi Newcomen in tutto il mondo che sviluppano i propri modelli di apprendimento automatico. Forse ci sono idee veramente rivoluzionarie tra di loro, ma senza che le loro tecnologie accedano a enormi database di informazioni su di loro, molto probabilmente, nessuno lo saprà mai. Grandi aziende come Google, Facebook e Microsoft - sono i modernissimi "minatori di carbone". Hanno accesso a una quantità illimitata di informazioni, quindi possono creare sistemi di apprendimento automatico inefficaci e quindi migliorarli. Le piccole startup possono davvero avere grandi idee, ma non realizzeranno mai nulla di utile senza l'accesso alle basi di informazioni.

Questo problema diventa ancora più chiaro quando si esaminano le aree in cui ottenere le informazioni necessarie diventa ancora più difficile. Prendiamo, ad esempio, il sistema sanitario, in cui l'intelligenza artificiale potrebbe essere utilizzata per eseguire attività legate alla visione artificiale, ad esempio trovare e riconoscere tumori maligni ai raggi X. Ma l'accesso a tali dati è solitamente molto limitato. Il principale fattore limitante qui, secondo Lawrence, è l'attuale percezione delle persone che non è etico per terzi accedere a questo tipo di informazioni. Il problema principale, secondo Lawrence, non sta nel trovare modi per diffondere le informazioni, ma in come rendere i sistemi di apprendimento automatico più efficienti e insegnare a lavorare con meno informazioni. E questi miglioramenti nell'efficienza, secondo lo scienziato, potrebbero richiedere gli stessi 60 anni.come nel caso dell'auto di Watt.

La specializzazione è un vicolo cieco. L'intelligenza artificiale deve essere in grado di svolgere più compiti

Un'altra sfida chiave per lo sviluppo di modelli di machine learning veramente profondi è il fatto che tutti i nostri attuali sistemi di IA sono, in effetti, molto stupidi. Secondo Rya Hudsell, una ricercatrice presso DeepMind di Google, a questi sistemi può essere effettivamente insegnato a svolgere compiti di riconoscimento dei gatti, a insegnare a giocare e allo stesso tempo a renderli molto efficaci nell'esecuzione di questi compiti. Ma "al momento nel mondo non esiste una singola rete neurale a tutti gli effetti e metodi che la addestrino a riconoscere le immagini, suonare a Space Invaders e contemplare la musica". A loro volta, sono le reti neurali la base fondamentale per la creazione di sistemi di apprendimento profondo per le macchine.

E questo problema è molto più significativo di quanto possa sembrare a prima vista. Quando DeepMind ha annunciato lo scorso febbraio di aver costruito un sistema in grado di riprodurre 49 giochi Atari, potrebbe davvero essere visto come un grande risultato. Ma alla fine si è scoperto che dopo che il sistema ha completato il passaggio di un gioco, ogni volta deve essere riqualificato per giocarne un altro. Hudsell osserva che non possiamo insegnare al sistema a giocare tutti i giochi contemporaneamente, poiché le regole di ciascuno si mescoleranno tra loro e alla fine interferiranno con il compito. Ogni volta devi riapprendere la macchina, e ogni volta il sistema "dimentica" come giocare al gioco precedente.

“Per creare un'intelligenza artificiale generale, abbiamo bisogno di qualcosa che ci aiuti a insegnare a una macchina a eseguire più attività contemporaneamente. Ora non possiamo nemmeno addestrarli a giocare , afferma Hadsell.

La soluzione può essere nascosta nelle cosiddette reti neurali progressive, che combinano sistemi di apprendimento profondo indipendenti in un unico insieme per un lavoro più efficiente con le informazioni. In un documento scientifico pubblicato che affronta questo problema, Hadsell e il suo team di ricercatori hanno parlato di come la loro rete neurale progressiva fosse in grado di adattarsi al gioco Pong, in cui le condizioni erano un po 'diverse ogni volta (in un caso, i colori erano cambiati; nell'altro, erano confusi controllo), molto più veloce della rete neurale "ordinaria", che doveva essere addestrata di nuovo ogni volta.

Il principio di base di una rete neurale progressiva

Image
Image

Il metodo si è dimostrato molto promettente ed è stato recentemente utilizzato per mettere a punto i bracci robotici, accelerando il processo di apprendimento da una settimana a un solo giorno. Sfortunatamente, anche questo metodo ha i suoi limiti. Hudsell osserva che nel caso di reti neurali progressive, il processo di apprendimento non può essere ridotto alla semplice aggiunta di nuovi compiti alla loro memoria. Se continui a combinare questi sistemi insieme, presto o tardi arriverai a "un modello troppo complesso che sarà impossibile tracciare". In questo caso, parleremo di un livello diverso. Il livello al quale le varie attività verranno generalmente eseguite nello stesso modo. Costruire un'intelligenza artificiale in grado di progettare sedie e creare un'intelligenza artificiale del livello di intelligenza umana in grado di scrivere poesie e risolvere equazioni differenziali non sono la stessa cosa.

L'intelligenza artificiale può essere chiamata intelligenza artificiale se possiamo mostrare come funziona

Un altro scoraggiante ostacolo è capire come l'intelligenza artificiale arriverà alle sue conclusioni quando risolverà i problemi. Le reti neurali sono generalmente impermeabili all'osservatore. Nonostante sappiamo come vengono raccolti e come le informazioni fluiscono attraverso di essi, le decisioni che prendono di solito rimangono al di là di ogni spiegazione.

Un eccellente esempio di questo problema è l'esperimento Virginia Tech. I ricercatori hanno creato un sistema di tracciamento per la rete neurale che registra con quali pixel in un'immagine digitale il computer inizia la sua analisi. I ricercatori hanno mostrato le immagini della rete neurale della camera da letto e hanno posto la domanda: "Cosa c'è appeso alle finestre?" La macchina, invece di guardare direttamente le finestre, ha iniziato ad analizzare le immagini partendo dal pavimento. Un letto entrò nel suo campo visivo e la macchina rispose: "ci sono le tende alle finestre". La risposta si è rivelata corretta, ma solo perché al sistema è stato "insegnato" a lavorare con una quantità limitata di dati. Sulla base dell'immagine mostrata, la rete neurale ha concluso che se la foto mostra una camera da letto, molto probabilmente dovrebbero esserci tende alle finestre. Quindi, quando un dettaglio è entrato nel suo campo visivo,che di solito si trova in qualsiasi camera da letto (in questo caso, un letto), non ha analizzato ulteriormente l'immagine. Forse non ha nemmeno visto questo letto, ha visto le tende. È logico, ma molto superficiale e attratto. Inoltre, molte camere da letto non hanno le tende!

La tecnologia di tracciamento è solo uno strumento che può aiutarci a capire cosa spinge una macchina a prendere una decisione particolare, ma esistono metodi migliori che possono aggiungere più logica e analisi approfondite ai sistemi di apprendimento automatico. Murray Shanahan, professore di robotica cognitiva all'Imperial College di Londra, ritiene che la migliore soluzione al problema sia rivedere il paradigma antiquato dell'IA - AI simbolica, o GOFAI (Good Old-Fashioned Artificial Intelligence, "buona vecchia intelligenza artificiale"). Il suo paradigma si riduce al fatto che assolutamente qualsiasi compito può essere suddiviso in elementi logici di base, in cui ogni parola è solo un insieme complesso di semplici simboli. Combinando questi simboli - in azioni, eventi, oggetti e così via - il pensiero può essere sintetizzato. Basti pensare che tali sviluppi sono stati effettuati ai tempi in cui i computer erano scatole gigantesche delle dimensioni di una stanza, che lavoravano su nastro magnetico (i lavori iniziarono a metà degli anni '50 e proseguirono fino alla fine degli anni '80 del secolo scorso).

La proposta di Shanahan è di combinare descrizioni simboliche GOFAI e tecnologie di apprendimento profondo. Ciò consentirà non solo di fornire a tali sistemi nuove informazioni e di attendere che deducano determinati modelli di comportamento e risoluzione dei problemi sulla base di queste informazioni, ma l'approccio di Shanahan è progettato per dotare tali sistemi di punti di partenza per la comprensione del mondo. Questo, a suo avviso, non solo risolverà il problema della trasparenza dell'IA, ma anche il problema dell'apprendimento trasferibile descritto da Hadsell.

"È sicuro dire che Breakout è molto simile a Pong, perché in entrambi i casi vengono utilizzate" piattaforme "e" palle ", ma dal punto di vista della percezione umana e della logica, sono due giochi completamente diversi. Ed è praticamente impossibile tracciare paralleli tra di loro. È come cercare di combinare la struttura dell'atomo e la struttura dell'intero sistema solare ".

Shanahan ei suoi colleghi dell'Imperial College di Londra stanno attualmente lavorando a un nuovo metodo per l'apprendimento automatico (che chiamano apprendimento stimolato simbolico profondo) e hanno pubblicato alcuni piccoli esperimenti. Il metodo è ancora agli inizi e quindi è difficile dire ancora se scalerà a sistemi più grandi che lavorano con diversi tipi di dati. Tuttavia, ci sono ancora possibilità che questo metodo diventi qualcosa di più. Dopotutto, il deep learning è sempre stato la parte più noiosa e noiosa dello sviluppo dell'IA fino a quando i ricercatori non hanno trovato un modo per accedere rapidamente ai dati e hanno acquisito un'enorme potenza di elaborazione. Abbastanza possibileè tempo di tornare ai vecchi paradigmi di intelligenza artificiale e provarli in un nuovo ambiente.

NIKOLAY KHIZHNYAK

Raccomandato: