Perché Fraintendi L'apocalisse Robotica - Visualizzazione Alternativa

Sommario:

Perché Fraintendi L'apocalisse Robotica - Visualizzazione Alternativa
Perché Fraintendi L'apocalisse Robotica - Visualizzazione Alternativa

Video: Perché Fraintendi L'apocalisse Robotica - Visualizzazione Alternativa

Video: Perché Fraintendi L'apocalisse Robotica - Visualizzazione Alternativa
Video: 5G e reti locali 2024, Marzo
Anonim

La paura dell'intelligenza artificiale è stata a lungo radicata nella cultura popolare. Le migliori menti dell'umanità, da Stephen Hawking a Elon Musk, hanno parlato della minaccia esistenziale della mente digitale per l'umanità.

Ne parla anche il professore dell'Università della California a Berkeley Stuart Russell, ma nella sua visione del futuro non ci sono robot malvagi che si ribellano al dominio umano.

Secondo Russell, a un certo punto, le macchine diventeranno così efficaci da distruggerci, eseguendo i compiti che gli abbiamo assegnato.

Russell è un esperto di machine learning e autore di Human Compatible: AI and the Problem of Control.

"La trama tradizionale di Hollywood è che le macchine diventano spontaneamente coscienti e poi decidono di odiare le persone e vogliono uccidere tutti", osserva il professor Russell.

Ma questa, secondo lui, è una visione sbagliata della robo-apocalisse, perché le macchine non hanno emozioni umane.

"Dobbiamo preoccuparci non dell'autocoscienza delle macchine malvagie, ma della competenza delle macchine che svolgono i compiti che ci siamo prefissati", è convinto lo scienziato.

Video promozionale:

Troppo competente

In un'intervista con BBC Today, il professor Russell ha descritto una situazione ipotetica in cui l'esistenza dell'umanità potrebbe essere minacciata dall'intelligenza artificiale.

Immagina che ci sia un'intelligenza artificiale super potente in grado di controllare il clima del pianeta. Ha il compito di riportare i livelli di anidride carbonica nell'atmosfera ai livelli preindustriali.

Image
Image

“Il sistema considererà che il modo più efficace per farlo è distruggere le persone. Producono anidride carbonica , dice il professore.

“Questo può essere aggirato, ad esempio, rendendola una condizione per non sbarazzarsi delle persone. Cosa farà allora il sistema? Si assicurerà che nascano sempre meno bambini finché le persone non scompaiono del tutto.

Questo è un esempio di ciò a cui può condurre l'intelligenza artificiale sotto istruzioni umane mal concepite.

superintelligenza

I sistemi di intelligenza artificiale che esistono oggi hanno applicazioni strettamente mirate. Sono progettati per risolvere problemi chiaramente definiti in un'area, affermano gli scienziati del Center for the Study of Existential Risks dell'Università di Cambridge.

Il momento trionfante per questa filosofia AI è stata la vittoria del computer Deep Blue sul campione mondiale di scacchi in carica Garry Kasparov nel 1997.

* La vittoria di Deep Blue su Kasparov nel 1997 è stata un trionfo dell'IA
* La vittoria di Deep Blue su Kasparov nel 1997 è stata un trionfo dell'IA

* La vittoria di Deep Blue su Kasparov nel 1997 è stata un trionfo dell'IA.

Ma Deep Blue è stato creato esclusivamente per il gioco degli scacchi. A dama, avrebbe perso contro un quinto elementare.

I recenti progressi nell'intelligenza artificiale ci hanno portato a programmi molto diversi.

Ad esempio, il programma AlphaGo Zero ha imparato a giocare a Go da solo, senza utilizzare i dati sui giochi passati giocati da persone, e in soli tre giorni di gioco con se stesso, ha raggiunto un livello irraggiungibile per una persona comune.

Per creare AlphaGo Zero sono stati utilizzati algoritmi di deep learning. Ciò significa che per sviluppare il programma è stato richiesto relativamente poco lavoro umano.

Allo stesso tempo, AlphaGo Zero sa giocare bene sia a scacchi che a shogi.

Ricordiamo che il programma è completamente autoapprendente. Ciò può causare preoccupazione per alcuni.

"Man mano che l'IA diventa più potente e versatile, c'è il rischio che diventi superintelligente, ovvero che sorpassi gli esseri umani in molte o tutte le aree", afferma il Center for the Study of Existential Risks.

Non sappiamo cosa vogliamo

Il professor Russell ritiene che dare semplicemente all'IA compiti molto specifici non sia una via d'uscita, perché gli umani stessi non sono in grado di formularli abbastanza bene.

Image
Image

"Non ci rendiamo conto che non ci piace qualcosa finché non accade", dice.

"Dobbiamo cambiare l'approccio di base alla creazione di sistemi di intelligenza artificiale", aggiunge il professore. Crede che assegnare ai robot un compito, che poi eseguono, sia fondamentalmente sbagliato.

“Il sistema deve capire che l'obiettivo non gli è chiaro. lui dice. - Quando vengono creati tali sistemi, dipendono davvero dalla persona. Cominciano a chiedere il permesso prima di fare qualcosa perché non sono sicuri se lo desideri.

Soprattutto, dice il professore, non resisteranno se decidi di spegnerli, perché sono progettati per non fare ciò che non ti piace.

La lampada di Aladino

L'intelligenza artificiale oggi viene creata come se fosse un genio di una lampada, afferma il professor Russell. Strofini la lampada e dici: "Voglio che succeda questo e quello".

In 2001 * Odissea nello spazio * di Stanley Kubrick, un computer superintelligente si ribella contro gli umani che decidono di spegnerlo
In 2001 * Odissea nello spazio * di Stanley Kubrick, un computer superintelligente si ribella contro gli umani che decidono di spegnerlo

In 2001 * Odissea nello spazio * di Stanley Kubrick, un computer superintelligente si ribella contro gli umani che decidono di spegnerlo.

E se l'intelligenza artificiale è abbastanza potente, farà esattamente quello che chiedi.

"Il problema con il gin è che il terzo desiderio è sempre quello di cancellare i primi due, perché la persona li ha formulati in modo errato".

"Una macchina che persegue l'obiettivo sbagliato diventa de facto il nemico dell'umanità, e questo nemico è molto più forte di noi", conclude lo scienziato.

Raccomandato: