Robot Assassini? Basta, Anche I Buoni Robot Sono Terribilmente Imprevedibili - Visualizzazione Alternativa

Sommario:

Robot Assassini? Basta, Anche I Buoni Robot Sono Terribilmente Imprevedibili - Visualizzazione Alternativa
Robot Assassini? Basta, Anche I Buoni Robot Sono Terribilmente Imprevedibili - Visualizzazione Alternativa

Video: Robot Assassini? Basta, Anche I Buoni Robot Sono Terribilmente Imprevedibili - Visualizzazione Alternativa

Video: Robot Assassini? Basta, Anche I Buoni Robot Sono Terribilmente Imprevedibili - Visualizzazione Alternativa
Video: Робот, который сосёт ваши половые покрытия. 2024, Ottobre
Anonim

I leader di oltre un centinaio delle principali società mondiali di intelligenza artificiale sono molto preoccupati per lo sviluppo di "robot killer". In una lettera aperta alle Nazioni Unite, questi leader aziendali, tra cui Elon Musk di Tesla ei fondatori di DeepMind di Google, hanno avvertito che l'uso della tecnologia delle armi autonome potrebbe essere adottato da terroristi e despoti o essere violato in una certa misura.

Ma la vera minaccia è molto più seria e non è solo la cattiva condotta umana, ma anche i misfatti delle macchine. L'esame di sistemi complessi mostra che possono comportarsi in modo molto più imprevedibile di quanto si possa dedurre dalla somma delle azioni individuali. Da un lato, questo significa che la società umana può comportarsi in modo molto diverso da quanto ci si potrebbe aspettare studiando il comportamento degli individui. D'altra parte, lo stesso vale per la tecnologia. Anche ecosistemi di semplici programmi di intelligenza artificiale, che chiamiamo robot stupidi e buoni, possono sorprenderci. Anche i singoli robot possono comportarsi in modo orribile.

I singoli elementi che compongono sistemi complessi, come i mercati economici o il clima globale, tendono a non interagire in modo semplice e lineare. Ciò rende questi sistemi molto difficili da modellare e comprendere. Ad esempio, anche dopo anni di ricerca sul clima, è impossibile prevedere il comportamento a lungo termine del tempo. Questi sistemi sono sensibili ai più piccoli cambiamenti in quanto reagiscono in modo esplosivo. È molto difficile conoscere lo stato esatto di un tale sistema in un dato momento. Tutto ciò rende questi sistemi internamente imprevedibili.

Tutti questi principi si applicano a grandi gruppi di persone che agiscono a modo loro, che si tratti di società umane o gruppi di robot IA. Gli scienziati hanno recentemente studiato un tipo di sistema complesso che utilizzava buoni robot per modificare automaticamente gli articoli di Wikipedia. Questi diversi bot sono progettati, scritti e utilizzati da fidati editori di Wikipedia e il loro software sottostante è open source e disponibile a tutti. Individualmente, hanno l'obiettivo comune di migliorare l'enciclopedia. Tuttavia, il loro comportamento collettivo si è rivelato sorprendentemente inefficace.

Regole e convenzioni consolidate sono al centro del funzionamento di questi bot su Wikipedia, ma poiché il sito Web non dispone di un sistema di controllo centrale, non esiste un coordinamento efficace tra le persone che gestiscono i diversi bot. I risultati hanno rivelato un paio di bot che hanno cancellato le modifiche a vicenda per diversi anni e nessuno se ne è accorto. E ovviamente, dal momento che questi robot non imparano affatto, non se ne sono accorti neanche.

Questi bot sono progettati per accelerare il processo di modifica. Ma piccole differenze nella progettazione dei bot, o tra le persone che li usano, potrebbero portare a un enorme spreco di risorse in una "guerra di modifica" in corso che potrebbe essere risolta molto più velocemente dagli editori.

I ricercatori hanno anche scoperto che i bot si comportavano in modo diverso nelle diverse versioni linguistiche di Wikipedia. Le regole, a quanto pare, sono quasi le stesse, gli obiettivi sono identici, le tecnologie sono simili. Ma sulla Wikipedia in lingua tedesca, la cooperazione con i bot era molto più efficiente e produttiva rispetto, ad esempio, al portoghese. Questo può essere spiegato solo dalle differenze tra gli editor umani che gestivano questi bot in ambienti diversi.

Video promozionale:

Confusione esponenziale

I bot di Wikipedia non hanno ampia autonomia e il sistema non funziona più in conformità con gli obiettivi dei singoli bot. Ma la Wikimedia Foundation prevede di utilizzare l'intelligenza artificiale che darà maggiore autonomia a questi robot. E questo probabilmente porterà a comportamenti ancora più imprevedibili.

Un buon esempio di ciò che può accadere è mostrato dai bot progettati per parlare con le persone quando sono costretti a comunicare tra loro. Non siamo più sorpresi dalle risposte di assistenti personali come Siri. Ma convincili a comunicare tra loro e inizieranno rapidamente a comportarsi in modi inaspettati, litigare e persino insultarsi a vicenda.

Più grande diventa il sistema e più autonomo diventa ogni bot, più complesso e imprevedibile sarà il comportamento futuro di quel sistema. Wikipedia è un esempio di un gran numero di bot relativamente semplici al lavoro. L'esempio del chatbot è un esempio di un piccolo numero di robot relativamente complessi e creativi: in entrambi i casi sorgono conflitti imprevisti. La complessità, e quindi l'imprevedibilità, cresce in modo esponenziale man mano che la personalità viene aggiunta al sistema. Pertanto, quando in futuro appariranno sistemi con un gran numero di robot molto complessi, la loro imprevedibilità andrà oltre la nostra immaginazione.

Follia fiammeggiante

Le auto a guida autonoma, ad esempio, promettono di fare un passo avanti in termini di efficienza e sicurezza stradale. Ma non sappiamo ancora cosa succederà quando avremo un grande e selvaggio sistema di veicoli completamente autonomi. Possono comportarsi in modo diverso anche all'interno di una piccola flotta di singoli veicoli in un ambiente controllato. E comportamenti ancora più imprevedibili possono manifestarsi quando auto a guida autonoma, "addestrate" da persone diverse in luoghi diversi, iniziano a interagire tra loro.

Le persone possono adattarsi a nuove regole e convenzioni in tempi relativamente brevi, ma hanno difficoltà a passare da un sistema all'altro. Gli agenti artificiali possono essere ancora più difficili. Ad esempio, se un'auto “addestrata in Germania” viaggia in Italia, per esempio, non sappiamo come farà a padroneggiare le convenzioni culturali non scritte che seguono molte altre auto “addestrate in Italia”. Qualcosa di banale come attraversare un incrocio può diventare mortalmente rischioso perché semplicemente non sappiamo se le auto interagiranno come previsto o se si comporteranno in modo imprevedibile.

Ora pensa ai robot assassini che stanno molestando Musk ei suoi colleghi. Un robot assassino può essere molto pericoloso nelle mani sbagliate. E il sistema di robot killer imprevedibili? Pensa per te.

Ilya Khel

Raccomandato: