Cosa Sta Succedendo Con L'intelligenza Artificiale? Analisi Di 16 625 Opere Negli Ultimi 25 Anni - Visualizzazione Alternativa

Sommario:

Cosa Sta Succedendo Con L'intelligenza Artificiale? Analisi Di 16 625 Opere Negli Ultimi 25 Anni - Visualizzazione Alternativa
Cosa Sta Succedendo Con L'intelligenza Artificiale? Analisi Di 16 625 Opere Negli Ultimi 25 Anni - Visualizzazione Alternativa

Video: Cosa Sta Succedendo Con L'intelligenza Artificiale? Analisi Di 16 625 Opere Negli Ultimi 25 Anni - Visualizzazione Alternativa

Video: Cosa Sta Succedendo Con L'intelligenza Artificiale? Analisi Di 16 625 Opere Negli Ultimi 25 Anni - Visualizzazione Alternativa
Video: Intelligenza Artificiale: tra mito e realtà | Luisella Giani | TEDxBolognaSalon 2024, Ottobre
Anonim

Praticamente tutto ciò che si sente oggi sull'intelligenza artificiale proviene dal deep learning. Questa categoria di algoritmi funziona con le statistiche per trovare schemi nei dati e si è dimostrata estremamente potente nell'imitare le abilità umane, come la nostra capacità di vedere e sentire. In misura molto ridotta, può persino imitare la nostra capacità di ragionare. Questi algoritmi supportano Google Search, Facebook Newsfeed, il motore di raccomandazione Netflix e modellano settori come la sanità e l'istruzione.

Come si sviluppa l'apprendimento profondo

Nonostante il fatto che l'apprendimento profondo abbia portato praticamente da solo al pubblico l'intelligenza artificiale, rappresenta solo un piccolo lampo nel compito storico dell'umanità di riprodurre la propria intelligenza. È in prima linea in questa ricerca da meno di un decennio. Se mettiamo da parte tutta la storia di questa zona, è facile capire che presto potrebbe anche andare via.

Gli alti e bassi improvvisi di vari metodi hanno a lungo caratterizzato la ricerca sull'IA, ha detto. C'è stata un'intensa competizione tra idee diverse ogni decennio. Quindi, di tanto in tanto, l'interruttore gira e l'intera comunità inizia a fare una cosa.

I nostri colleghi del MIT Technology Review volevano visualizzare questi problemi e iniziare. A tal fine, si sono rivolti a uno dei più grandi database di articoli scientifici aperti noto come arXiv. Hanno scaricato estratti da un totale di 16.625 articoli disponibili nella sezione AI fino al 18 novembre 2018 e hanno rintracciato le parole menzionate nel corso degli anni per vedere come si è evoluto il campo.

Attraverso la loro analisi, sono emerse tre tendenze principali: il passaggio all'apprendimento automatico alla fine degli anni '90 e all'inizio degli anni 2000, l'aumento della popolarità delle reti neurali iniziata nei primi anni del 2010 e l'aumento dell'apprendimento per rinforzo negli ultimi anni.

Video promozionale:

Ma prima, alcuni avvertimenti. Innanzitutto, la sezione arXiv con AI risale al 1993 e il termine "intelligenza artificiale" risale agli anni '50, quindi il database stesso rappresenta solo gli ultimi capitoli della storia del campo. In secondo luogo, i documenti aggiunti ogni anno al database rappresentano solo una frazione del lavoro che si sta attualmente svolgendo in quest'area. Tuttavia, arXiv offre una risorsa eccellente per identificare alcune delle principali tendenze di ricerca e per vedere il tiro alla fune tra diversi campi ideologici.

Il paradigma del machine learning

Il cambiamento più grande scoperto dai ricercatori è stato l'allontanamento dai sistemi basati sulla conoscenza verso i primi anni 2000. Tali sistemi informatici si basano sull'idea che sia possibile codificare tutta la conoscenza umana in un sistema di regole. Gli scienziati si sono invece rivolti al machine learning, la categoria madre degli algoritmi che includono il deep learning.

Tra le 100 parole menzionate, quelle associate ai sistemi basati sulla conoscenza - "logica", "vincoli" e "regola" - sono diminuite di più. E quelli relativi all'apprendimento automatico - "dati", "rete", "prestazioni" - sono cresciuti di più.

La ragione di questo cambiamento del tempo è molto semplice. Negli anni '80, i sistemi basati sulla conoscenza stavano guadagnando popolarità tra i fan, grazie all'entusiasmo per progetti ambiziosi che cercavano di ricreare il buon senso nelle macchine. Ma quando questi progetti si sono sviluppati, i ricercatori hanno dovuto affrontare una sfida importante: è stato necessario codificare troppe regole perché il sistema potesse fare qualcosa di utile. Ciò ha comportato un aumento dei costi e un rallentamento significativo dei processi in corso.

La risposta a questo problema è l'apprendimento automatico. Piuttosto che richiedere alle persone di codificare manualmente centinaia di migliaia di regole, questo approccio programma le macchine per estrarre automaticamente quelle regole da una pila di dati. Allo stesso modo, questo campo si è allontanato dai sistemi basati sulla conoscenza e si è rivolto al miglioramento dell'apprendimento automatico.

Il boom delle reti neurali

All'interno del nuovo paradigma dell'apprendimento automatico, la transizione all'apprendimento profondo non è avvenuta dall'oggi al domani. Invece, un'analisi dei termini chiave ha dimostrato che gli scienziati hanno testato molti metodi oltre alle reti neurali, i principali meccanismi di apprendimento profondo. Altri metodi popolari includevano reti bayesiane, macchine a vettori di supporto e algoritmi evolutivi, che utilizzano tutti approcci diversi per trovare modelli nei dati.

Durante gli anni '90 e 2000, c'era una forte concorrenza tra questi metodi. Poi, nel 2012, una svolta drammatica ha portato a un altro cambiamento nel tempo. Durante il concorso annuale ImageNet per accelerare i progressi nella visione artificiale, un ricercatore di nome Jeffrey Hinton, insieme ai colleghi dell'Università di Toronto, ha ottenuto la migliore precisione di riconoscimento delle immagini con un errore di poco superiore al 10%.

La tecnica di apprendimento profondo che ha utilizzato ha generato una nuova ondata di ricerca, prima nella comunità della visualizzazione e poi oltre. Poiché sempre più scienziati hanno iniziato a utilizzarlo per ottenere risultati impressionanti, la popolarità di questa tecnica, insieme alla popolarità delle reti neurali, è aumentata alle stelle.

La crescita dell'apprendimento per rinforzo

L'analisi ha mostrato che alcuni anni dopo il periodo di massimo splendore del deep learning, c'è stato un terzo e ultimo cambiamento nella ricerca sull'IA.

Oltre ai vari metodi di apprendimento automatico, esistono tre diversi tipi: apprendimento supervisionato, apprendimento non supervisionato e apprendimento di rinforzo. L'apprendimento supervisionato, che implica l'alimentazione dei dati con tag alla macchina, è il più comunemente utilizzato e ha anche le applicazioni più pratiche oggi. Tuttavia, negli ultimi anni, l'apprendimento per rinforzo, che imita il processo di apprendimento degli animali attraverso carote e bastoni, punizioni e ricompense, ha portato a un rapido aumento dei riferimenti nelle opere.

L'idea in sé non è nuova, ma non ha funzionato per molti decenni. "Gli specialisti dell'apprendimento supervisionato hanno riso degli specialisti dell'apprendimento per rinforzo", afferma Domingos. Ma come con l'apprendimento profondo, un punto di svolta ha portato improvvisamente in primo piano il metodo.

Quel momento è arrivato nell'ottobre 2015, quando AlphaGo di DeepMind, allenato con rinforzi, ha sconfitto il campione del mondo nell'antico gioco del go. L'impatto sulla comunità di ricerca è stato immediato.

I prossimi dieci anni

Il MIT Technology Review fornisce solo l'ultima istantanea della concorrenza tra le idee che caratterizzano la ricerca sull'IA. Tuttavia, illustra l'incongruenza del perseguimento della duplicazione dell'intelligenza. "È importante capire che nessuno sa come risolvere questo problema", afferma Domingos.

Molti dei metodi in uso da 25 anni sono emersi più o meno nello stesso periodo negli anni '50 e non sono riusciti a far fronte alle sfide e ai successi di ogni decennio. Le reti neurali, ad esempio, hanno raggiunto il picco negli anni '60 e leggermente negli anni '80, ma sono quasi morte prima di riguadagnare la loro popolarità grazie al deep learning.

Ogni decennio, in altre parole, ha visto il predominio di una tecnica diversa: reti neurali alla fine degli anni '50 e '60, vari tentativi simbolici negli anni '70, sistemi basati sulla conoscenza negli anni '80, reti bayesiane negli anni '90, vettori di riferimento in zero e reti neurali di nuovo negli anni 2010.

Gli anni 2020 non saranno diversi, afferma Domingos. Ciò significa che l'era del deep learning potrebbe presto finire. Ma cosa accadrà dopo - una vecchia tecnica in una nuova gloria o un paradigma completamente nuovo - questo è oggetto di accese controversie nella comunità.

Ilya Khel

Raccomandato: