L'intelligenza Artificiale è Tutt'altro Che Intelligente Come Tu Ed Elon Musk Pensate Che Sia - Visualizzazione Alternativa

Sommario:

L'intelligenza Artificiale è Tutt'altro Che Intelligente Come Tu Ed Elon Musk Pensate Che Sia - Visualizzazione Alternativa
L'intelligenza Artificiale è Tutt'altro Che Intelligente Come Tu Ed Elon Musk Pensate Che Sia - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Tutt'altro Che Intelligente Come Tu Ed Elon Musk Pensate Che Sia - Visualizzazione Alternativa

Video: L'intelligenza Artificiale è Tutt'altro Che Intelligente Come Tu Ed Elon Musk Pensate Che Sia - Visualizzazione Alternativa
Video: The future we're building -- and boring | Elon Musk 2024, Potrebbe
Anonim

Nel marzo 2016, l'algoritmo del computer AlphaGo di DeepMind è stato in grado di sconfiggere Lee Sedol, allora il miglior giocatore di puzzle go del mondo. Questo evento è diventato uno di quei momenti decisivi nella storia dell'industria tecnologica, che un tempo sono stati la vittoria del computer IBM Deep Blue sul campione mondiale di scacchi Garry Kasparov e la vittoria del supercomputer Watson della stessa IBM nel quiz Jeopardy per polymath nel 2011.

Eppure, nonostante queste vittorie, per quanto impressionanti possano essere, si tratta più di algoritmi di addestramento e uso della potenza di calcolo grezza che di vera intelligenza artificiale. L'ex professore di robotica del MIT Rodney Brooks, che ha co-fondato iRobot e successivamente Rethink Robotics, afferma che imparare un algoritmo per riprodurre un puzzle di strategia complesso non è intelligenza. Almeno non nel modo in cui lo immaginiamo per una persona.

L'esperto spiega che per quanto forte possa essere AlphaGo nel portare a termine il compito che gli è stato assegnato, in realtà non è capace di nient'altro. Inoltre, è impostato per giocare solo a Go su un campo standard 19 x 19. In un'intervista a TechCrunch, Brooks ha parlato di come ha recentemente avuto l'opportunità di chattare con il team di DeepMind e scoprire un dettaglio interessante. Alla domanda su cosa sarebbe successo se gli organizzatori avessero cambiato le dimensioni del go board e lo avessero aumentato a 29 x 29 caselle, il team di AlphaGo ha ammesso che anche un leggero cambiamento del campo di gioco avrebbe portato "siamo finiti".

"Penso che le persone vedano quanto bene un algoritmo fa una cosa e sembrano pensare immediatamente che possa farne altre altrettanto efficacemente. Ma il punto è che non può ", ha commentato Brooks.

Intelligenza grossolana

Nel maggio di quest'anno, in un'intervista con Davin Coldway al TechCrunch Disrupt, Kasparov ha osservato che sviluppare un computer in grado di giocare a scacchi a livello globale è una cosa, ma chiamare un computer del genere intelligenza artificiale pura, dal momento che non lo è, è un'altra. È solo una macchina che mette tutta la sua potenza di calcolo per risolvere un problema a cui è abituata a fare meglio.

“Negli scacchi, le macchine vincono grazie alla potenza del calcolo profondo. Possono diventare completamente invincibili con un enorme database, hardware molto veloce e algoritmi più logici. Tuttavia, mancano di comprensione. Non riconoscono schemi strategici. Le macchine non hanno scopo , ha detto Kasparov.

Video promozionale:

Gil Pratt, CEO del Toyota Institute, la divisione Toyota di AI e AI nei robot domestici e nelle auto a guida autonoma, ha parlato con TechCrunch alla Robotics Session. Secondo lui, la paura che sentiamo da una vasta gamma di persone, incluso Elon Musk, che recentemente ha definito l'intelligenza artificiale "una minaccia esistenziale per l'umanità", potrebbe essere dovuta a nient'altro che a quelle descrizioni distopiche del mondo che la fantascienza ci offre.

“I nostri attuali sistemi di deep learning sono bravi a portare a termine le loro missioni solo quanto li abbiamo costruiti. Ma in realtà sono piuttosto altamente specializzati e di piccole dimensioni. Pertanto, considero importante ogni volta nel contesto di questo argomento menzionare sia quanto sono bravi sia quanto sono effettivamente inefficaci. E anche quanto siamo lontani dal momento in cui questi sistemi possono iniziare a rappresentare la minaccia di cui parlano Elon Musk e altri”, ha commentato Pratt.

Brooks, a sua volta, ha notato alla TechCrunch Robotics Session che c'è una tendenza tra le persone in generale a credere che se un algoritmo è in grado di far fronte al compito "X", allora è apparentemente intelligente come una persona.

“Penso che il motivo per cui le persone, incluso Elon Musk, commettono questo errore è questo. Quando vediamo una persona che fa un ottimo lavoro con il compito assegnatogli, capiamo che ha un'elevata competenza in questa materia. Mi sembra che le persone stiano cercando di applicare lo stesso modello all'apprendimento automatico. Ed è qui che sta l'errore più grande , afferma Brooks.

Il CEO di Facebook Mark Zuckerberg ha tenuto una trasmissione in diretta domenica scorsa, durante la quale ha anche criticato i commenti di Elon Musk, definendoli "piuttosto irresponsabili". Secondo Zuckerberg, l'IA sarà in grado di migliorare in modo significativo le nostre vite. Musk, a sua volta, ha deciso di non rimanere in silenzio e ha risposto a Zuckerberg che aveva "una comprensione limitata" dell'IA. L'argomento non è ancora stato chiuso e Musk ha promesso di rispondere in modo più dettagliato agli attacchi dei colleghi del settore IT.

A proposito, Musk non è l'unico a credere che l'IA possa rappresentare una potenziale minaccia. Anche il fisico Stephen Hawking e il filosofo Nick Bostrom stanno esprimendo le loro preoccupazioni sul potenziale dell'intelligenza artificiale di penetrare nello stile di vita dell'umanità. Ma, molto probabilmente, stanno parlando di un'intelligenza artificiale più generalizzata. Su ciò che viene studiato in laboratori come Facebook AI Research, DeepMind e Maluuba, piuttosto che sull'IA più altamente specializzata, i primi inizi di cui possiamo vedere oggi.

Brooks osserva anche che molti dei critici dell'IA non lavorano nemmeno in quest'area e ha suggerito che queste persone semplicemente non capiscono quanto possa essere difficile trovare una soluzione a ogni singolo problema in quest'area.

“In effetti, non sono molte le persone che considerano l'IA una minaccia esistenziale. Stephen Hawking, l'astrofisico e astronomo britannico Martin Rees … e pochi altri. L'ironia è che la maggior parte di loro ha una cosa in comune: non lavorano nemmeno nel campo dell'intelligenza artificiale , ha detto Brooks.

"Per quelli di noi che lavorano con l'IA, è abbastanza ovvio quanto possa essere difficile far funzionare qualcosa a livello di prodotto finito".

Rappresentazione falsa dell'IA

Parte del problema deriva anche dal fatto che chiamiamo tutta questa "intelligenza artificiale". La verità è che questa "intelligenza" non assomiglia affatto all'intelligenza umana, che di solito è descritta nei libri di consultazione e nei dizionari di vocabolario come "la capacità di apprendere, comprendere e adattarsi a nuove situazioni".

Pascal Kaufman, CEO di Starmind, una startup che aiuta altre aziende a utilizzare l'intelligenza umana collettiva per trovare soluzioni ai problemi aziendali, ha studiato neuroscienze per 15 anni. Il cervello umano e il computer, osserva Kaufman, funzionano in modo molto diverso e sarebbe un ovvio errore confrontarli.

"L'analogia - il cervello funziona come un computer - è molto pericolosa e ostacola il progresso dell'IA", afferma Kaufman.

L'esperto ritiene inoltre che non avanzeremo nella comprensione dell'intelligenza umana se la consideriamo in termini tecnologici.

“È un'idea sbagliata che gli algoritmi funzionino come il cervello umano. Le persone adorano gli algoritmi e quindi pensano che il cervello possa essere descritto con il loro aiuto. Penso che questo sia fondamentalmente sbagliato”, aggiunge Kaufman.

Se qualcosa va storto

Ci sono molti esempi in cui gli algoritmi di intelligenza artificiale non sono così intelligenti come li pensavamo noi. E uno dei più famigerati è l'algoritmo di intelligenza artificiale Tay, creato dal team di sviluppo dei sistemi di intelligenza artificiale di Microsoft e fuori controllo l'anno scorso. Ci è voluto meno di un giorno per trasformare il bot in un vero razzista. Gli esperti dicono che questo può accadere a qualsiasi sistema di intelligenza artificiale quando viene presentato con cattivi modelli di ruolo. Nel caso di Tay, è caduta sotto l'influenza di forme di vocabolario razziste e offensive. E poiché era programmato per "apprendere" e "rispecchiare il comportamento", presto sfuggì al controllo dei ricercatori.

Ricerche diffuse dalla Cornell e dal Wyoming hanno scoperto che è molto facile ingannare algoritmi addestrati per identificare le immagini digitali. Hanno scoperto che un'immagine che sembrava "assurdità criptata" alle persone è stata identificata dall'algoritmo come un'immagine di un oggetto quotidiano come uno "scuolabus".

Secondo un articolo pubblicato sul MIT Tech Review che descrive questo progetto, non è del tutto chiaro perché l'algoritmo possa essere ingannato nel modo in cui lo hanno fatto i ricercatori. Ciò che è stato scoperto è che le persone hanno imparato a riconoscere ciò che hanno di fronte: un'immagine autosufficiente o una sorta di immagine incomprensibile. Gli algoritmi, a loro volta, che analizzano i pixel, sono più facili da manipolare e ingannare.

Per quanto riguarda le auto a guida autonoma, tutto risulta essere molto più complicato. Ci sono alcune cose che una persona comprende quando si prepara ad affrontare determinate situazioni. Sarà molto difficile insegnare a una macchina a farlo. Un ampio articolo pubblicato in uno dei blog automobilistici da Rodney Brooks nel gennaio di quest'anno cita diversi esempi di tali situazioni, tra cui uno che descrive un'auto a guida autonoma che si avvicina a un segnale di stop accanto a un passaggio pedonale in città. all'inizio del quale un adulto e un bambino stanno e comunicano.

Molto probabilmente l'algoritmo sarà messo a punto per aspettare che i pedoni attraversino la strada. Ma cosa succederebbe se questi pedoni non pensassero nemmeno di attraversare la strada, mentre sono in piedi e aspettano, diciamo, uno scuolabus? Un guidatore umano in questo caso potrebbe suonare il clacson dei pedoni, che in risposta potrebbero salutarlo, informandolo che può passare. Un veicolo senza pilota in una situazione del genere può semplicemente rimanere bloccato, aspettando all'infinito che le persone attraversino la strada, perché l'algoritmo non ha una comprensione di tali segnali umani unici, scrive Brooks.

Ciascuno di questi esempi ci mostra fino a che punto dobbiamo ancora muoverci nello sviluppo di algoritmi di intelligenza artificiale. Quanto possano avere successo gli sviluppatori di intelligenza artificiale generalizzata è ancora una domanda. Ci sono cose che una persona può facilmente affrontare, ma sarà una vera tortura imparare l'algoritmo. Perché? Perché noi umani non siamo limitati nel nostro apprendimento a una serie di compiti specifici.

Nikolay Khizhnyak

Raccomandato: