Le "tre Leggi Della Robotica" Ci Proteggeranno? - Visualizzazione Alternativa

Sommario:

Le "tre Leggi Della Robotica" Ci Proteggeranno? - Visualizzazione Alternativa
Le "tre Leggi Della Robotica" Ci Proteggeranno? - Visualizzazione Alternativa

Video: Le "tre Leggi Della Robotica" Ci Proteggeranno? - Visualizzazione Alternativa

Video: Le
Video: Le TRE LEGGI della ROBOTICA - Isaac Asimov | DOPPIAGGIO ITA 2024, Aprile
Anonim

Sono passati 50 anni da quando Isaac Asimov ha inventato le sue famose Tre leggi della robotica, una serie di regole che ogni robot che si rispetti deve seguire. Sebbene inizialmente fosse solo un espediente letterario, le tre leggi divennero la ricetta originale per evitare la "robotocalypse". Fortunatamente, ci sono esperti che cercano con certezza se le garanzie di Azimov abbiano resistito alla prova del tempo. Sfortunatamente, dicono tutti di no.

Per cominciare, ricordiamo queste stesse tre leggi:

Un robot non può danneggiare una persona o, per la sua inazione, permettere che una persona venga danneggiata.

Un robot deve obbedire a tutti gli ordini impartiti da un essere umano, tranne quando questi ordini sono contrari alla Prima Legge.

Il robot deve prendersi cura della sua sicurezza nella misura in cui non contraddice la Prima e la Seconda Legge.

Successivamente, Azimov ha aggiunto una quarta, o zero, legge, che ha preceduto le altre in termini di priorità:

Video promozionale:

0. Un robot non può danneggiare una persona, a meno che non possa dimostrare che alla fine sarà benefico per tutta l'umanità.

Image
Image

Nell'universo fantastico di Asimov, quasi tutti i robot dovevano seguire queste leggi. Questi non erano solo suggerimenti o linee guida: le leggi erano incorporate nel software. Inoltre, queste regole non possono essere aggirate, riscritte o riviste.

Come ha mostrato lo stesso Asimov, imperfezioni, scappatoie e ambiguità in queste leggi hanno spesso portato a comportamenti strani e illogici dei robot. Le leggi erano troppo vaghe e spesso non riuscivano a definire e distinguere gli "umani" dai "robot". Inoltre, i robot potrebbero infrangere inconsapevolmente le leggi se non fossero disponibili informazioni complete. Inoltre, un robot eccessivamente astuto o un'intelligenza artificiale dovevano essere sotto pressione per non riprogrammare il suo nucleo.

L'anno è il 2014 e gran parte del luogo comune dalle nostre vite alle fantasie del secolo scorso potrebbe sembrare pura fantasia. Molte persone pensavano che le leggi di Asimov avrebbero dovuto rimanere uno strumento letterario. Ma lo stesso Azimov ha notato nel 1981 che le sue leggi potevano funzionare. The Compute! ha indicato quanto segue:

“Quando qualcuno mi chiede come sarebbe se le mie tre leggi della robotica fossero effettivamente utilizzate per definire il comportamento dei robot, la risposta è pronta. A condizione, ovviamente, che i robot siano abbastanza flessibili e versatili da esibire comportamenti diversi. La mia risposta è sì, le tre leggi sono l'unico modo in cui gli esseri umani possono interagire con i robot o qualsiasi altra cosa.

Quasi trent'anni dopo, ci siamo avvicinati a una realtà in cui avremo robot - o, più precisamente, l'intelligenza artificiale che li controlla - abbastanza flessibili e versatili per diversi corsi di comportamento. Resta solo questione di tempo: quando la macchina supera l'uomo in tutto e per tutto, dalla forza fisica al potere dell'immaginazione.

La cosa spaventosa è che non c'è praticamente alcun margine di errore. Se la superintelligenza artificiale è mal programmata o indifferente agli umani, porterà al disastro. Dobbiamo assicurarci che l'intelligenza artificiale sia sicura se vogliamo sopravvivere alla sua comparsa.

Rispondi alla domanda "le tre leggi di Azimov possono aiutare?" Sono subentrati due teorici dell'intelligenza artificiale: Ben Herzel (Aidyia Holdings) e Louis Helm, vicedirettore del Machine Intelligence Research Institute (MIRI) ed editore esecutivo della rivista Rockstar Research. Dopo aver parlato con loro, è diventato chiaro che le leggi di Asimov in generale non potevano far fronte al compito loro assegnato, e se avremo bisogno di creare un'IA sicura, dovremo sviluppare qualcosa di completamente diverso.

Il futuro di Asim?

Image
Image

La conversazione con Herzel ed Helm è iniziata con ciò su cui Asimov non si era sbagliato, predire il futuro e dove si era sbagliato.

"Penso che il tipo di robot che Asimov immaginava sarà possibile in un futuro non troppo lontano", risponde Herzel. - Tuttavia, nella maggior parte dei suoi mondi immaginari, lo scrittore pensava che i robot umanoidi sarebbero stati l'apice della robotica e dell'ingegneria dell'intelligenza artificiale. È improbabile. Molto presto, dopo aver raggiunto lo status di robot Azimov, sarà disponibile la creazione di superintelligenza artificiale e super robot ".

Pertanto, il tipico mondo del futuro nelle storie di Asimov sui robot, secondo Herzel, sarà simile a quello in cui viviamo oggi, ma con robot intelligenti che camminano per le strade.

"È improbabile che ciò accada, e se accadrà, non sarà ritardato a lungo".

Per Helm, i robot sembrano essere completamente diversi.

“La questione principale, che, a mio parere, sarà la più importante per l'umanità, non resta la regolazione morale di un numero gigantesco di umanoidi semi-intelligenti, ma in definitiva lo sviluppo di forme avanzate di intelligenza artificiale (in qualsiasi corpo). Questo sviluppo della superintelligenza è un filtro attraverso il quale l'umanità alla fine deve passare. Questo è il motivo per cui è così importante sviluppare una strategia di sicurezza per questa transizione. Mi sembra completamente strano che robot, androidi o "emulazioni" esisteranno per dieci anni o poco più fino a quando l'umanità non dovrà affrontare il vero problema dello sviluppo dell'etica della macchina per la superintelligenza ".

Un buon inizio?

Image
Image

Considerando che le tre leggi Asimov della robotica sono state il primo sincero tentativo di risolvere un problema molto serio - il problema del comportamento sicuro delle macchine con superintelligenza artificiale - vale la pena cercare quei momenti in cui le leggi possono essere ancora efficaci (o almeno ispiratrici).

"Ad essere onesti, non trovo alcuna ispirazione in queste tre leggi della robotica", afferma Helm. - L'essenza dell'etica della macchina è che non soddisfano le basi dell'etica della macchina. Forse le tre leggi della robotica sono ampiamente conosciute, ma in realtà è inutile usarle come base per la programmazione ".

“Per qualche ragione, un sistema di buona etica - chiamato deontologia - è diventato una base inaffidabile per l'etica. Ci sono un certo numero di filosofi che stanno cercando di risolvere i problemi della deontologia, ma sono per la maggior parte le stesse persone che cercano "disegno intelligente" e "intervento divino". Nessuno li prende sul serio."

Gli svantaggi delle tre leggi della robotica di Asimov si riducono ai seguenti:

Avversario in natura

Basato su una teoria etica obsoleta (deontologia)

Non lavorare nemmeno nella narrativa

Herzel è d'accordo:

“Lo scopo delle tre leggi era di infrangerle in modo interessante; ecco perché le loro storie sono particolarmente divertenti. Pertanto, le tre leggi possono rimanere solo un esempio morale di come non farlo. Se li prendiamo come base, inevitabilmente ci saranno delle scappatoie”.

Herzel crede che in realtà queste leggi non funzioneranno, poiché i termini con la loro partecipazione sono ambigui e rimangono oggetto di interpretazione, il che significa che dipendono estremamente da chi effettua le traduzioni.

Pregiudizio contro i robot?

Un altro aspetto (e potenziale difetto) delle Tre Leggi nell'apparente sciovinismo è l'assunto che i robot dovrebbero rimanere, nonostante il loro potere superiore, soggetti ai bisogni e alle priorità umane e umane.

“La società del futuro di Azimov è composta interamente da sciovinisti: le persone hanno molti più diritti dei robot. Le tre leggi della robotica sono state create per mantenere un tale ordine sociale.

Image
Image

Helm considera questo problema in modo leggermente diverso, sostenendo che se ci troviamo in una situazione del genere, sarà di per sé la prova che siamo andati troppo oltre.

“Penso che non sarebbe saggio progettare un sistema di intelligenza artificiale o un robot autocosciente. E a differenza dei film o dei libri in cui i creatori dell'intelligenza artificiale arrivano "accidentalmente" a macchine intelligenti, non credo che ciò possa accadere nella vita reale. Questo richiederà troppi sforzi e conoscenze. E la maggior parte dei designer di intelligenza artificiale sono persone eticamente esperte, quindi eviteranno di creare ciò che i filosofi chiamano "esseri moralmente significativi". Soprattutto quando possono facilmente creare una macchina avanzata che non ha inclinazioni etiche ".

Helm non si preoccupa della necessità di sviluppare leggi asimmetriche per governare il valore dei robot rispetto agli umani, sostenendo (e sperando) che i futuri creatori di intelligenza artificiale faranno affidamento su alcuni vincoli etici.

“Penso che gli esseri umani siano fatti di atomi, quindi in teoria un ingegnere può creare una forma di vita sintetica o un robot con un significato morale. Mi piacerebbe pensare che nessuno lo farà. Penso che lo faccia anche la maggior parte delle persone. Ma inevitabilmente ci sarà qualche sciocco che vuole essere conosciuto come un pioniere, anche se non è etico e stupido.

Tre leggi della robotica 2.0?

Date le evidenti carenze delle tre leggi della robotica di Asimov, la risorsa io9 ha posto la domanda: possono essere corrette o migliorate? In effetti, molti scrittori di fantascienza lo hanno provato molte volte, modificandolo nel corso degli anni.

"No", dice Helm. "Non ci sono patch per le tre leggi."

Oltre alla loro natura contraddittoria, le leggi sono anche di natura contraddittoria.

"Sono un sostenitore di approcci all'etica della macchina che sono più cooperativi, più coerenti e più normativi, il che significa che possono riprendersi da incomprensioni o correggere una programmazione errata".

Herzel fa eco alle affermazioni di Helm.

Definire una serie di precetti etici come il nucleo dell'etica della macchina sarà inutile se la macchina si basa su un'intelligenza artificiale generale flessibile. Se è concepito come intuitivo, flessibile, adattivo o etico - in questo contesto, i precetti etici saranno utili per il sistema solo come linea guida approssimativa per applicare la propria intuizione etica. Ma in questo caso i comandamenti non diventeranno la base del sistema etico, ma solo un aspetto. Questo può essere visto in esempi umani: i principi etici che studiamo funzionano, ma non come linee guida, spingono solo la nostra intuizione e istinti etici. Siamo praticamente indipendenti dai principi etici.

Come creare un'intelligenza artificiale sicura?

Data l'inadeguatezza dell'approccio legale, è possibile chiedere a Gertzel e Helm degli approcci moderni al problema della "IA sicura".

"Pochissimi ricercatori di intelligenza artificiale generale credono che sia possibile creare un sistema completamente sicuro", afferma Herzel. "Ma questo non infastidisce la maggioranza, dal momento che nulla può essere garantito in questa vita."

Herzel crede che una volta creato un sistema di intelligenza artificiale generale o il suo embrione, possiamo condurre ricerche ed esperimenti che ci dicono molto di più sull'etica dell'IA di quanto sappiamo.

“Si spera che in questo modo possiamo formulare buone teorie sull'etica dell'intelligenza artificiale che ci permetteranno di approfondire questo argomento. Ma ora è piuttosto difficile teorizzare l'etica dell'IA, poiché non abbiamo solo buone teorie, non abbiamo affatto teorie.

"E alle persone che hanno visto troppi terminatori, il processo di creazione dell'intelligenza artificiale può sembrare intimidatorio, poiché in questo contesto manca la parola" primitivo ". Tuttavia, i cambiamenti più radicali sono avvenuti in questo modo ".

"Quando un gruppo di uomini delle caverne intelligenti ha inventato il linguaggio, non si aspettavano lo sviluppo di una solida teoria formale del linguaggio che potesse aiutare a prevedere i cambiamenti futuri causati dall'emergere del linguaggio nella società".

Prima di considerare lo sviluppo delle prossime "tre leggi" come un problema tecnico, è necessario fare molte ricerche. Ed è qui che Helm e Herzel sono d'accordo.

“Il mio collega di MIRI Luc Muelhauser ha riassunto il nostro ragionamento come segue. Ha detto che i problemi spesso si spostano dalla filosofia alla matematica e poi all'ingegneria. Alla filosofia vengono spesso poste le domande giuste, ma nel modo più impraticabile. Nessuno può dire con certezza se ci sono stati progressi nella risoluzione del problema. Se riusciamo a riformulare gli importanti problemi filosofici di ragione, identificazione e valore in formule precise che un matematico può gestire, allora si può costruire qualche modello. Un bel giorno arriverà all'ingegneria."

Helm trova questo problema difficile per la scienza e la filosofia, ma il progresso è possibile.

“Sono scettico sul fatto che la filosofia sarà in grado di risolvere un problema che lotta da più di 3000 anni. Ma anche noi non possiamo prendere e iniziare a fare modelli matematici di domande che non sono tecnicamente presenti. Abbiamo ancora bisogno di molti sviluppi teorici e persino pratici.

Raccomandato: