Google Non Vuole Creare Skynet Un Giorno, Quindi Sta Creando Uno Switch Per AI - Visualizzazione Alternativa

Google Non Vuole Creare Skynet Un Giorno, Quindi Sta Creando Uno Switch Per AI - Visualizzazione Alternativa
Google Non Vuole Creare Skynet Un Giorno, Quindi Sta Creando Uno Switch Per AI - Visualizzazione Alternativa

Video: Google Non Vuole Creare Skynet Un Giorno, Quindi Sta Creando Uno Switch Per AI - Visualizzazione Alternativa

Video: Google Non Vuole Creare Skynet Un Giorno, Quindi Sta Creando Uno Switch Per AI - Visualizzazione Alternativa
Video: Crea un Gioco Interattivo con i Fogli di Google 2024, Luglio
Anonim

Ci sono due principali parti opposte nelle domande e nelle discussioni sul futuro dell'intelligenza artificiale. In un angolo ci sono aziende come Google, Facebook, Amazon e Microsoft che investono in modo aggressivo nella tecnologia per rendere i sistemi di intelligenza artificiale più intelligenti; nell'altro ci sono i grandi pensatori del nostro tempo come Elon Musk e Stephen Hawking che credono che lo sviluppo dell'IA è simile a un "incantesimo demoniaco".

Una delle società di intelligenza artificiale più avanzate, DeepMind, di proprietà di Google, ha creato misure di sicurezza nel caso in cui una persona debba "assumere il controllo di un robot il cui guasto potrebbe portare a conseguenze irreparabili". Possiamo presumere che stiamo parlando di … "uccidere tutte le persone". Certo, in realtà, il provvedimento preso non è un accenno ad una possibile apocalisse, si tratta piuttosto di misure di sicurezza associate a robot intelligenti che funzionano e funzioneranno in futuro in varie fabbriche e impianti.

Il documento pubblicato con le prescrizioni è un lavoro congiunto di DeepMind e dell'Oxford Institute for the Future of Humanity, che, come suggerisce il nome, si occupa di questioni che consentiranno a questa stessa umanità di entrare nel futuro. Per decenni, il direttore fondatore dell'istituto Nick Bostrom ha parlato in modo molto vivido dei possibili pericoli dello sviluppo dell'intelligenza artificiale e ha scritto più di un libro su questo argomento, in cui ha discusso le conseguenze della creazione di robot superintelligenti.

La guida di cui parliamo oggi, soprannominata "Agenti disabili in sicurezza", esplora come disabilitare l'IA se fa qualcosa che l'operatore umano non vuole fare. Il lavoro consiste in vari calcoli e formule che il 99 percento di noi molto probabilmente non capirà. Quindi, per dirla semplicemente, stiamo parlando di un "pulsante rosso" che può disabilitare l'AI.

Puoi ridere e meravigliarti, ma i pionieri della robotica e dell'intelligenza artificiale stanno guardando gli stessi film di fantascienza che facciamo noi. Quelli in cui una volta i robot hanno capito come ignorare il comando di spegnimento. Quindi ora saremo pronti per questo. Il documento pubblicato descrive metodi e soluzioni per garantire che l '"agente addestrabile" (leggi AI) non possa imparare a ignorare o prevenire l'impatto dell'ambiente esterno o dell'operatore umano.

Questo può sembrare eccessivo, soprattutto se si considera che l'IA più avanzata in questo momento è davvero brava solo nei giochi da tavolo. Tuttavia, Bostrom ritiene che prima di iniziare a creare AI a livello del cervello umano, devono essere prese misure appropriate:

“Non appena l'intelligenza artificiale raggiungerà il livello umano, in molte aree è previsto un netto balzo in avanti nello sviluppo. Inoltre, subito dopo, le IA stesse creeranno nuove AI. Basta valutare queste prospettive e allo stesso tempo i possibili pericoli. Pertanto, è meglio esagerare che perderlo.

NIKOLAY KHIZHNYAK

Video promozionale:

Raccomandato: