Come Si Crea Un Robot Che Vuole Cambiare Il Mondo? - Visualizzazione Alternativa

Sommario:

Come Si Crea Un Robot Che Vuole Cambiare Il Mondo? - Visualizzazione Alternativa
Come Si Crea Un Robot Che Vuole Cambiare Il Mondo? - Visualizzazione Alternativa

Video: Come Si Crea Un Robot Che Vuole Cambiare Il Mondo? - Visualizzazione Alternativa

Video: Come Si Crea Un Robot Che Vuole Cambiare Il Mondo? - Visualizzazione Alternativa
Video: 10 Frasi Spaventose dette da Robot e I.A. 2024, Settembre
Anonim

L'informatico Christoph Solge sta cercando di eliminare la necessità di regole che governano il comportamento dei robot. La sua strategia è dare loro un obiettivo: renderci più potenti. Christophe lavora al Game Innovation Lab della New York University. Sasha Maslov ha intervistato Sold per Quanta Magazine, da cui apprendiamo che forse non vale la pena tentare di trattenere il flusso inarrestabile della singolarità tecnologica.

Anche le famose Tre leggi della robotica di Isaac Asimov - che limitavano il comportamento di androidi e automi per mantenere l'umanità al sicuro - erano incompiute. Queste leggi sono apparse per la prima volta nella storia di Asimov nel 1942, e poi in opere classiche come "I, Robot" e suonano in questo modo:

1. Un robot non può danneggiare una persona o, per la sua inazione, permettere che venga fatto del male a una persona.

2. Il robot deve obbedire agli ordini impartiti dagli umani, se tali non contraddicono la Prima Legge.

3. Un robot deve difendere la sua esistenza, se questa protezione non contraddice la Prima o la Seconda Legge.

Naturalmente, in queste leggi si possono trovare molte contraddizioni e scappatoie (che, in effetti, lo stesso Azimov ha usato). Nella nostra attuale era di software avanzato con apprendimento automatico e robotica autonoma, la definizione e l'implementazione dell'etica di ferro dell'intelligenza artificiale è diventata una sfida pressante per organizzazioni come il Machine Intelligence Research Institute e OpenAI.

Christoph Salge ha adottato un approccio diverso. Piuttosto che applicare definizioni filosofiche dall'alto verso il basso di come gli agenti artificiali dovrebbero o non dovrebbero comportarsi, Salge e il suo collega Daniel Polani stanno esplorando il percorso dal basso verso l'alto, o "cosa dovrebbe fare prima il robot", come hanno scritto nel suo articolo "Empowerment as a Replacement for the Three Laws of Robotics". Empowerment, un concetto nato all'incrocio tra cibernetica e psicologia, descrive la motivazione intrinseca di un agente a resistere e lavorare nell'ambiente allo stesso tempo. “Come organismo, vuole sopravvivere. Vuole lasciare un segno nel mondo ", spiega Salge. L'aspirapolvere di Roomba, programmato per cercare una stazione di ricarica quando le batterie sono scariche, è un esempio rudimentale di "potenziato": per continuare a funzionare nel mondo,deve ricevere una carica e continuare la propria esistenza, cioè sopravvivere.

L'empowerment potrebbe suonare come una ricetta per il risultato stesso che l'IA sicura sostiene come Nick Bostrom teme: un potente sistema autonomo, preoccupato solo dell'interesse personale e impazzito nel processo. Ma Salge, che studia le interazioni sociali uomo-macchina, chiede: e se un agente dotato di potere “conferisce potere anche a un altro? Il robot non deve solo voler rimanere in ordine, ma deve anche voler supportare il suo partner umano.

Video promozionale:

Solge e Polanyi si resero conto che la teoria dell'informazione offriva un modo per tradurre questa espansione reciproca in una struttura matematica per un agente artificiale non filosofante. "Uno degli svantaggi delle tre leggi della robotica è che sono basate sul linguaggio e il linguaggio è molto ambiguo", afferma Salge. "Stiamo cercando di trovare qualcosa che possa essere effettivamente fatto".

Alcuni tecnologi ritengono che l'IA sia una minaccia grave, persino catastrofica, per l'esistenza umana. E tu?

Mi asterrò. Quindi credo davvero che ora ci sia paura dei robot e della crescente influenza dell'IA. Ma penso che a breve termine saremo probabilmente più preoccupati per i possibili cambiamenti di lavoro, il processo decisionale, la perdita di democrazia, la perdita di privacy. Non so con quale probabilità emergerà presto un'IA inarrestabile. Ma anche se l'intelligenza artificiale deve supervisionare il sistema sanitario e rilasciare prescrizioni, dobbiamo pensare alle questioni etiche che ne derivano.

Come può il concetto di empowerment aiutarci ad affrontare queste sfide?

Penso che l'idea di dare potere ai diritti riempia una nicchia. Non lascerà che l'agente lasci morire la persona, ma una volta che sarai in grado di mantenere quella soglia, sosterrà l'intenzione di creare ulteriori opportunità per la persona di esprimere e influenzare il mondo. In uno dei libri di Asimov, i robot finiranno semplicemente per mettere tutti gli umani in contenitori sicuri. Questo sarebbe indesiderabile. Se la nostra capacità di influenzare il mondo continua a migliorare, penso che sarà un obiettivo molto più interessante da raggiungere.

Hai testato le tue idee di agente virtuale in un ambiente di videogiochi. Quello che è successo?

L'agente, motivato dai propri diritti estesi, schiverà il proiettile e non cadrà nella fossa, in generale, eviterà qualsiasi situazione che possa portare alla sua perdita di mobilità, morte o danni in modo tale da ridurne l'operabilità. Resisterà e basta.

Insieme al giocatore umano, anch'esso dotato di diritti rafforzati, abbiamo visto che il robot virtuale manterrebbe una certa distanza per non ostacolare il movimento umano. Non ti bloccherà, non starà nel corridoio in modo che tu non possa passare. Ti starà il più vicino possibile per aiutarti. Questo porta a comportamenti in cui può sia prendere l'iniziativa che seguire quella di qualcun altro.

Ad esempio, abbiamo creato uno scenario in cui avevamo una barriera laser pericolosa per l'uomo, ma sicura per un robot. Se la persona in questo gioco si avvicina ai laser, il robot ha maggiori incentivi a bloccare il laser. Lo stimolo aumenta quando una persona si trova direttamente di fronte alla barriera, come se volesse attraversarla. E il robot blocca effettivamente il laser, in piedi di fronte alla persona.

Questi agenti hanno mostrato comportamenti involontari simili alle tre leggi del libro di Asimov?

All'inizio il comportamento era buono. Ad esempio, un robot virtuale ha intercettato gli avversari che hanno cercato di ucciderti. Di tanto in tanto saltava sotto un proiettile se quello fosse l'unico modo per salvarti. Ma quello che ci ha sorpreso soprattutto fin dall'inizio è che aveva anche molta paura della persona.

Il motivo è dovuto al suo modello "miope": analizza infatti come sequenze di determinate azioni in due o tre passaggi possono influenzare il mondo, sia per te che per lui. Pertanto, nel primo passaggio, abbiamo programmato che il giocatore agisca in modo casuale. Ma in pratica, ciò ha portato al fatto che l'agente trattava la persona come una specie di psicopatico, che poteva, ad esempio, sparare all'agente in qualsiasi momento. Pertanto, l'agente ha dovuto scegliere molto, molto attentamente la posizione in cui la persona non poteva ucciderlo.

Avevamo bisogno di risolvere questo problema, quindi abbiamo modellato il cosiddetto presupposto di fiducia. Fondamentalmente, un agente compagno agisce sul presupposto che la persona sceglierà solo quelle azioni che non limiteranno i diritti estesi dell'agente stesso - forse questo è un modello più adatto per il compagno.

Abbiamo anche notato che se avevi, diciamo, 10 punti salute nel gioco, al compagno non importava davvero se hai perso otto o nove di quei punti - potrebbe persino spararti una volta, solo per divertimento. E poi ci siamo resi conto che c'è un divario tra il mondo in cui viviamo e il modello in un gioco per computer. Non appena abbiamo modellato i limiti di capacità causati dalla perdita di salute, il problema è scomparso. Potrebbe anche essere risolto creando un modello non così miope, che potrebbe calcolare le azioni un paio di passi in più nel futuro. Se l'agente potesse guardare oltre nel futuro, vedrebbe che avere più punti salute potrebbe essere utile per eventi futuri.

Tenendo conto che la modifica del numero di punti vita non influisce in alcun modo sui miei diritti estesi, l'agente decide: "Gli sparo, non sparo - qual è la differenza?" E a volte spara. Il che, ovviamente, è un problema. Non voglio colpi casuali ai giocatori. Abbiamo aggiunto una correzione per rendere il robot virtuale un po 'più preoccupato per le tue condizioni che per le sue.

Come rendi accurati questi concetti?

Se consideriamo gli agenti come sistemi di controllo, possono essere scomposti in componenti informative: qualcosa sta accadendo nel mondo e in un modo o nell'altro ti riguarda. Non stiamo parlando di informazioni come cose che percepisci, ma come influenze di qualsiasi tipo - può essere una sostanza, qualcosa che scorre tra il mondo e te. Potrebbero esserci temperatura o sostanze nutritive nel tuo corpo. Qualsiasi cosa che attraversi il confine tra il mondo e l'agente contiene informazioni in sé. Allo stesso modo, un agente può influenzare il mondo esterno in vari modi, fornendo anche informazioni in esso.

Puoi considerare questo flusso come la larghezza di banda del canale, questo è un concetto della teoria dell'informazione. Puoi avere ampi poteri, diritti estesi, se sei in grado di intraprendere azioni diverse che portano a risultati diversi. Se qualcosa va storto, perderai la tua autorità, perché la perdita di capacità corrisponde a una diminuzione quantitativa della larghezza di banda tra te e l'ambiente. Questa è l'idea principale.

Quanto deve sapere un agente affinché i suoi poteri estesi abbiano pieno effetto?

I diritti estesi hanno il vantaggio di poter essere applicati anche quando non si ha la piena conoscenza. L'agente ha davvero bisogno di un modello di come le sue azioni influenzeranno il mondo, ma non ha bisogno di una comprensione completa del mondo e di tutte le sue sottigliezze. A differenza di alcuni approcci che cercano di modellare il più possibile tutto nel mondo, nel nostro caso devi solo scoprire come le tue azioni influenzano la tua percezione. Non hai bisogno di imparare tutto su tutto; hai solo bisogno di un agente che esplori il mondo. Fa qualcosa e cerca di capire come le sue azioni influenzano il mondo. Il modello cresce e l'agente comprende sempre meglio dove si estendono i confini della sua autorità.

L'hai testato in un ambiente virtuale. Perché non nel mondo reale?

L'ostacolo principale per ridimensionare questo modello e posizionarlo in un vero robot è la difficoltà di calcolare la larghezza di banda di un agente e di una persona in un ambiente così ricco come il mondo reale per molto tempo a venire. Tutti questi processi devono ancora diventare efficaci. Sono ottimista, ma finora questo problema rimane puramente computazionale. Pertanto, controlliamo il funzionamento del sistema in un gioco per computer, in una forma semplificata.

Sembra che l'empowerment, idealmente, renderà le nostre macchine potenti cani da servizio

Conosco persino alcuni robot tecnici che modellano deliberatamente il comportamento di un compagno a base di cani. Penso che se i robot ci trattano come i nostri cani, in questo futuro possiamo andare tutti d'accordo.

Ilya Khel

Raccomandato: