Pensare Come Una Persona: Cosa Succederà Se Doti La Macchina Della Teoria Della Coscienza - Visualizzazione Alternativa

Sommario:

Pensare Come Una Persona: Cosa Succederà Se Doti La Macchina Della Teoria Della Coscienza - Visualizzazione Alternativa
Pensare Come Una Persona: Cosa Succederà Se Doti La Macchina Della Teoria Della Coscienza - Visualizzazione Alternativa

Video: Pensare Come Una Persona: Cosa Succederà Se Doti La Macchina Della Teoria Della Coscienza - Visualizzazione Alternativa

Video: Pensare Come Una Persona: Cosa Succederà Se Doti La Macchina Della Teoria Della Coscienza - Visualizzazione Alternativa
Video: SOCIAL MEDIA: dopamina, dipendenza, come riprendere il CONTROLLO della tua vita STRATEGIE QUOTIDIANE 2024, Luglio
Anonim

Il mese scorso, una squadra di giocatori di intelligenza artificiale autodidatta ha subito una sconfitta spettacolare contro giocatori di eSport professionisti. Lo spettacolo, che si è svolto nell'ambito del Dota 2 The International World Championship, ha dimostrato che il pensiero strategico della squadra consente ancora a una persona di prevalere su un'auto.

Le IA coinvolte erano diversi algoritmi sviluppati da OpenAI, di cui Elon Musk è uno dei fondatori. Un collettivo di giocatori digitali, chiamato OpenAI Five, ha imparato a giocare a Dota 2 da solo, attraverso tentativi ed errori, competendo tra loro.

A differenza dello stesso gioco di scacchi o di logica da tavolo Go, il popolare gioco multiplayer Dota 2 in rapida crescita è considerato un campo molto più serio per testare la forza dell'intelligenza artificiale. La difficoltà complessiva del gioco è solo uno dei fattori. Non è sufficiente fare clic molto rapidamente con il mouse e impartire comandi al personaggio che controlli. Per vincere, è necessario avere intuito e una comprensione di cosa aspettarsi dall'avversario nel momento successivo nel tempo, nonché agire adeguatamente secondo questo insieme di conoscenze al fine di unire gli sforzi comuni a un obiettivo comune: la vittoria. Il computer non dispone di questo set di funzionalità.

Ad oggi, anche il più eccezionale algoritmo informatico di deep learning non ha il pensiero strategico necessario per comprendere gli obiettivi dai compiti del suo avversario, che si tratti di un'altra IA o di un essere umano.

Secondo Wang, affinché l'IA abbia successo, deve avere una profonda capacità di comunicazione che proviene dalla caratteristica cognitiva più importante di una persona: la presenza dell'intelligenza.

Modello di stato mentale come simulazione

Video promozionale:

All'età di quattro anni, i bambini in genere iniziano a comprendere un tratto sociale fondamentale: le loro menti sono diverse da quelle degli altri. Cominciano a capire che ognuno ha ciò in cui crede, i propri desideri, emozioni e intenzioni. E, soprattutto, immaginando se stessi al posto degli altri, possono iniziare a prevedere l'ulteriore comportamento di queste persone e spiegarli. In un certo senso, i loro cervelli iniziano a creare molteplici simulazioni di se stessi dentro di sé, sostituendosi al posto di altre persone e collocandosi all'interno di un ambiente diverso.

Il modello dello stato mentale è importante per comprendere se stessi come persona e svolge anche un ruolo importante nell'interazione sociale. Comprendere gli altri è la chiave per una comunicazione efficace e il raggiungimento di obiettivi comuni. Tuttavia, questa capacità può anche essere la forza trainante dietro false credenze - idee che ci allontanano dalla verità oggettiva. Non appena la capacità di utilizzare il modello dello stato mentale è compromessa, ad esempio, ciò accade nell'autismo, anche le abilità "umane" naturali, come la capacità di spiegare e immaginare, si deteriorano.

Secondo il dottor Alan Winfield, professore di robotica all'Università dell'Inghilterra occidentale, il modello dello stato mentale o "teoria della mente" è una caratteristica chiave che un giorno consentirà all'IA di "capire" persone, cose e altri robot.

Invece di metodi di apprendimento automatico, in cui più livelli di reti neurali estraggono singole informazioni e "studiano" enormi database, Winston suggerisce di adottare un approccio diverso. Piuttosto che fare affidamento sull'apprendimento, Winston suggerisce di pre-programmare l'IA con un modello interno di se stesso e dell'ambiente che risponderà a semplici domande "e se?".

Ad esempio, immagina che due robot si muovano lungo un corridoio stretto, la loro intelligenza artificiale può simulare i risultati di ulteriori azioni che impediranno la loro collisione: gira a sinistra, a destra o continua dritto. Questo modello interno agirà essenzialmente come un "meccanismo di conseguenza", agendo come una sorta di "buon senso" che aiuterà a dirigere l'IA verso le successive azioni corrette prevedendo lo sviluppo futuro della situazione.

In uno studio pubblicato all'inizio di quest'anno, Winston ha dimostrato un prototipo di robot in grado di ottenere tali risultati. Anticipando il comportamento degli altri, il robot è passato con successo attraverso il corridoio senza collisioni. In realtà, questo non è sorprendente, osserva l'autore, ma il robot "attento", utilizzando un approccio simulato per risolvere il problema, ha impiegato il 50% in più per completare il corridoio. Tuttavia, Winston ha dimostrato che il suo metodo di simulazione interna funziona: "Questo è un punto di partenza molto potente e interessante nello sviluppo della teoria dell'intelligenza artificiale", ha concluso lo scienziato.

Winston spera che alla fine l'IA acquisirà la capacità di descrivere, riprodurre mentalmente le situazioni. Un modello interno di se stesso e di altri consentirà a tale IA di simulare vari scenari e, cosa più importante, di definire obiettivi e obiettivi specifici per ciascuno di essi.

Questo è significativamente diverso dagli algoritmi di deep learning, che, in linea di principio, non sono in grado di spiegare perché sono giunti a questa o quella conclusione quando risolvono un problema. Il modello della scatola nera del deep learning è in realtà il vero problema nell'affidarsi a tali sistemi. Questo problema può diventare particolarmente acuto, ad esempio, quando si sviluppano robot infermieristici per ospedali o anziani.

Un'intelligenza artificiale armata di un modello di stato mentale potrebbe mettersi nei panni dei suoi padroni e capire correttamente cosa si vuole da essa. Quindi avrebbe potuto individuare soluzioni adeguate e, dopo aver spiegato queste decisioni alla persona, avrebbe già adempiuto al compito assegnatogli. Minore è l'incertezza nelle decisioni, maggiore sarà la fiducia in tali robot.

Modello di stato mentale in una rete neurale

DeepMind ha un approccio diverso. Invece di pre-programmare un algoritmo per il meccanismo delle conseguenze, hanno sviluppato diverse reti neurali che mostrano una somiglianza con un modello di comportamento psicologico collettivo.

L'algoritmo AI "ToMnet" può apprendere azioni osservando altre reti di neutroni. ToMNet stesso è un collettivo di tre reti neurali: la prima si basa sulle peculiarità di scegliere altre IA in base alle loro ultime azioni. Il secondo forma un concetto generale dello stato d'animo attuale: le loro convinzioni e intenzioni in un certo momento. Il risultato collettivo del lavoro di due reti neurali viene ricevuto dalla terza, che prevede ulteriori azioni dell'IA in base alla situazione. Come con il deep learning, ToMnet diventa più efficace man mano che acquisisce esperienza seguendo gli altri.

In un esperimento, ToMnet "ha guardato" tre agenti dell'IA manovrare in una stanza digitale, raccogliendo scatole colorate. Ognuna di queste AI aveva una sua particolarità: una era "cieca" - non poteva determinare la forma e la posizione nella stanza. L'altro era uno "sclerotico": non ricordava i suoi ultimi passi. Il terzo poteva sia vedere che ricordare.

Dopo l'addestramento, ToMnet ha iniziato a prevedere le preferenze di ciascuna IA osservandone le azioni. Ad esempio, il "cieco" si muoveva costantemente solo lungo le pareti. ToMnet se lo ricordava. L'algoritmo è stato anche in grado di prevedere correttamente il comportamento futuro dell'IA e, cosa più importante, capire quando l'IA ha riscontrato una falsa rappresentazione dell'ambiente.

In un test, un team di scienziati ha programmato un'IA per "miopia" e ha cambiato il layout di una stanza. Gli agenti con una vista normale si sono adattati rapidamente al nuovo layout, ma l'uomo miope ha continuato a seguire i suoi percorsi originali, credendo falsamente di trovarsi ancora nel vecchio ambiente. ToMnet ha notato rapidamente questa caratteristica e ha previsto con precisione il comportamento dell'agente, mettendosi al suo posto.

Secondo la dottoressa Alison Gopnik, psicologa dello sviluppo presso l'Università della California, Berkeley, che non era coinvolta in questi studi, ma che aveva familiarità con i risultati, questi risultati mostrano che le reti neurali hanno una straordinaria capacità di apprendere diverse abilità da sole, attraverso l'osservazione degli altri. Allo stesso tempo, secondo l'esperto, è ancora molto presto per dire che queste IA hanno sviluppato un modello artificiale dello stato mentale.

Secondo il dottor Josh Tenebaum del Massachusetts Institute of Technology, anch'egli non coinvolto nello studio, la "comprensione" di ToMnet è fortemente legata al contesto dell'ambiente di apprendimento: la stessa stanza e agenti di intelligenza artificiale specifici il cui compito era raccogliere scatole. Questo vincolo all'interno di una certa struttura rende ToMnet meno efficace nel prevedere il comportamento in ambienti radicalmente nuovi, al contrario degli stessi bambini che possono adattarsi a nuove situazioni. L'algoritmo, secondo lo scienziato, non farà fronte alla modellazione delle azioni di un'IA o di una persona completamente diversa.

In ogni caso, il lavoro di Winston e DeepMind dimostra che i computer stanno cominciando a mostrare rudimenti di "comprensione" l'uno dell'altro, anche se questa comprensione è ancora solo rudimentale. E mentre continuano a migliorare questa abilità, capendosi sempre meglio, verrà il tempo in cui le macchine potranno comprendere la complessità e la complessità della nostra coscienza.

Nikolay Khizhnyak

Raccomandato: