Tutta La Nostra Conoscenza Sull'intelligenza Artificiale è Solo Un'illusione - Visualizzazione Alternativa

Sommario:

Tutta La Nostra Conoscenza Sull'intelligenza Artificiale è Solo Un'illusione - Visualizzazione Alternativa
Tutta La Nostra Conoscenza Sull'intelligenza Artificiale è Solo Un'illusione - Visualizzazione Alternativa

Video: Tutta La Nostra Conoscenza Sull'intelligenza Artificiale è Solo Un'illusione - Visualizzazione Alternativa

Video: Tutta La Nostra Conoscenza Sull'intelligenza Artificiale è Solo Un'illusione - Visualizzazione Alternativa
Video: Сознание и Личность. От заведомо мёртвого к вечно Живому 2024, Potrebbe
Anonim

Forse uno dei test più difficili dell'intelligenza artificiale è stata la partita a scacchi che si è svolta quasi 20 anni fa tra il computer Deep Blue e il campione mondiale di scacchi Garry Kasparov. L'auto ha vinto. Al momento, si è conclusa una serie di giochi nel gioco di logica del go, dove hanno gareggiato l'AI AlphaGo di DeepMind (proprietario di Google) e il leggendario campione di go dalla Cina Li Si Dol. In quattro delle cinque partite la macchina ha vinto, dimostrando la sua superiorità sull'umano in questo gioco. Il gioco incredibilmente complesso tra uomo e intelligenza artificiale mostra che l'intelligenza artificiale si è sviluppata molto fortemente durante questo periodo. Sembra che il fatidico giorno, in cui le macchine diventeranno davvero più intelligenti degli umani, sia ora più vicino che mai. Tuttavia, sembra che molti non capiscano affatto, ma anzi si sbagliano persino sulle conseguenze che potrebbero aspettarci in futuro.

Sottovalutiamo alcune conseguenze molto gravi e persino pericolose dello sviluppo dell'intelligenza artificiale. L'anno scorso, il co-fondatore di SpaceX Elon Musk ha rilasciato una dichiarazione in cui esprimeva preoccupazione per il possibile asservimento del mondo da parte dell'intelligenza artificiale, che a sua volta ha suscitato un'enorme quantità di commenti sia da parte dei sostenitori che degli oppositori di questa opinione.

Image
Image

Per un futuro così fondamentalmente rivoluzionario che può aspettarci, è sorprendente che ci siano così tanti disaccordi oggi sul fatto che accadrà e cosa si rivelerà alla fine. È particolarmente strano negare gli incredibili benefici che possiamo ottenere dalla creazione di un'IA veramente intelligente, ovviamente tenendo conto di tutti i possibili rischi. Tutte queste domande sono incredibilmente difficili da ottenere le risposte giuste, dal momento che l'IA, a differenza di qualsiasi altra invenzione dell'umanità, può davvero "ringiovanire" quest'umanità o distruggerla completamente.

Ora è difficile capire in cosa credere e in cosa sperare. Tuttavia, grazie ai pionieri dell'informatica, ai neuroscienziati e ai teorici dello sviluppo dell'IA, un quadro chiaro sta lentamente iniziando a chiarirsi. Di seguito è riportato un elenco delle idee sbagliate e dei miti più comuni sull'intelligenza artificiale.

Non creeremo mai IA con intelligenza umanoide

La realtà, a sua volta, suggerisce che abbiamo già computer che corrispondono e addirittura superano le capacità umane in alcune aree. Prendi gli scacchi o la stessa partita del go, il trading in borsa o il ruolo di un interlocutore virtuale. I computer e gli algoritmi che li controllano miglioreranno solo nel tempo ed è solo questione di tempo prima che diventino all'altezza delle capacità umane.

Video promozionale:

Image
Image

Il ricercatore della New York University Gary Marcus una volta disse che "praticamente tutti" che lavorano nell'IA pensano che un giorno le macchine ci supereranno:

"L'unica controversia tra sostenitori e scettici è la tempistica di questo evento".

Futuristi come Ray Kurzweil credono che ciò potrebbe accadere nei prossimi decenni, mentre altri dicono che ci vorranno diversi secoli.

Gli scettici dell'IA sono inconcludenti nella loro prova che la creazione dell'intelligenza artificiale come qualcosa di unico e molto simile a un vero cervello umano vivente in termini tecnologici è da qualche parte oltre la realtà. Anche il nostro cervello è una macchina. Macchina biologica. Esiste nello stesso mondo e obbedisce alle stesse leggi della fisica di tutto il resto. E nel tempo, scopriremo completamente l'intero principio del suo lavoro.

L'IA avrà coscienza

Esiste un consenso generale sul fatto che l'intelligenza artificiale sarà cosciente. Cioè, l'IA penserà allo stesso modo di un essere umano. Inoltre, alcuni critici, ad esempio, il co-fondatore di Microsoft Paul Allen, ritengono che a causa della base teorica incompleta che descrive i meccanismi e i principi dell'autocoscienza, non abbiamo ancora creato nemmeno un'intelligenza artificiale generale, cioè un'intelligenza in grado di svolgere qualsiasi compito intellettuale con cui una persona può gestire. Tuttavia, secondo Murray Shanahan, assistente professore presso il Dipartimento di robotica cognitiva dell'Imperial College di Londra, non dovremmo equiparare i due.

Image
Image

"L'autoconsapevolezza è sicuramente un argomento di ricerca molto interessante e importante, ma non credo che l'autoconsapevolezza debba essere un attributo obbligatorio dell'intelligenza artificiale simile a quella umana", dice Shanahan.

"In generale, usiamo il termine 'autoconsapevolezza' solo per indicare diversi attributi psicologici e cognitivi che di solito sono collegati in una persona".

È possibile immaginare un'auto molto intelligente a cui manca uno o più di questi attributi. Un giorno saremo in grado di costruire un'IA davvero incredibilmente intelligente, ma allo stesso tempo priva della capacità di autoconsapevolezza, oltre che di comprensione soggettiva e cosciente del mondo che ci circonda. Shanahan osserva che l'unificazione dell'intelligenza e dell'autocoscienza all'interno della macchina sarà ancora possibile, ma non dobbiamo trascurare il fatto che si tratta di due concetti completamente separati.

E sebbene una delle varianti del "Test di Turing", in cui una macchina mostrava di non essere diversa da una persona, sia stata superata con successo, questo non significa affatto che questa macchina abbia coscienza. Dal nostro punto di vista (umano), l'intelligenza artificiale avanzata può sembrarci qualcosa che possiede consapevolezza di sé, ma la macchina stessa sarà consapevole di se stessa non più della stessa pietra o calcolatrice.

Non dovremmo aver paura dell'IA

Nel gennaio di quest'anno, il fondatore di Facebook Mark Zuckerberg ha condiviso i suoi pensieri su come non dovremmo aver paura dell'IA, aggiungendo che questa tecnologia può portare enormi vantaggi in tutto il mondo. La verità è che ha ragione solo in parte. Potremo davvero trarre vantaggi sorprendenti con l'IA a nostra disposizione (dalle auto a guida autonoma alle nuove scoperte in medicina), ma nessuno può garantire che ogni applicazione dell'IA sarà vantaggiosa.

Un sistema altamente intelligente, forse, saprà tutto il necessario per determinati compiti (ad esempio, risolvere una complessa situazione finanziaria globale o hackerare i sistemi informatici del nemico), ma al di fuori di compiti altamente specializzati, il potenziale dell'IA è ancora del tutto poco chiaro e quindi potenzialmente pericoloso. Ad esempio, il sistema di DeepMind è specializzato nel gioco del go, ma non ha la capacità (e la ragione) di esplorare aree al di fuori di questo regno.

Flame virus informatico, il cui compito era quello di rintracciare i paesi del Medio Oriente

Image
Image

Molti di questi sistemi possono comportare seri rischi per la sicurezza. Un buon esempio è il potente e astuto virus Stuxnet, un worm militarizzato creato dalle forze armate statunitensi e israeliane per infiltrarsi e attaccare le centrali nucleari iraniane. Solo questo programma dannoso in qualche modo (accidentalmente o deliberatamente) ha infettato una delle centrali nucleari russe.

Un altro esempio è il virus Flame, sviluppato per lo spionaggio informatico mirato in Medio Oriente. È facile immaginare come le "versioni future" dei virus Stuxnet e Flame andranno oltre i compiti assegnati e saranno in grado di infettare quasi l'intera infrastruttura di un paese. E lo faranno in modo molto silenzioso e impercettibile.

La superintelligenza artificiale sarà troppo intelligente per commettere errori

Richard Luzmore, matematico, ricercatore di intelligenza artificiale e fondatore della società di robotica Surfing Samurai Robots, ritiene che la maggior parte degli scenari del giorno del giudizio dell'IA appaia improbabile perché sono tutti ampiamente basati su ciò che l'IA un giorno dirà: "Capisco quella distruzione people è un errore nel codice del mio programma, ma devo ancora seguire l'attività."

Image
Image

Luzmore ritiene che se l'IA si comporta secondo questo scenario, dovrà affrontare contraddizioni logiche che metteranno in discussione l'intera base di conoscenza accumulata e alla fine porteranno alla propria consapevolezza della sua stupidità e inutilità.

Il ricercatore crede anche che quelle persone che dicono che "l'IA farà solo ciò che è incluso nel suo programma" si sbagliano, proprio come quelle persone che una volta dicevano le stesse parole, ma nei confronti dei computer, dichiarando che i sistemi informatici non avranno mai l'universalità.

Peter McIntyre e Stuart Armstrong, entrambi all'Institute for the Future of Humanity dell'Università di Oxford, a loro volta, non sono d'accordo con questa opinione, sostenendo che il comportamento dell'IA sarà obbligatorio e ampiamente giustificato dal codice del programma. Gli scienziati non credono che l'IA non commetterà mai errori o, al contrario, sarà troppo stupido per capire esattamente cosa vogliamo da loro.

"Per definizione, la superintelligenza artificiale (ISI) è un agente la cui intelligenza molte volte supererà le migliori menti dell'umanità in quasi tutte le aree", afferma McIntyre.

"Capirà sicuramente cosa vogliamo da lui".

McIntyre e Armstrong credono che l'intelligenza artificiale eseguirà solo quelle attività per le quali è stata programmata, ma se in qualche modo si sviluppa da sola, allora, molto probabilmente, proverà a capire quanto le sue azioni differiranno dai compiti umani e inerenti ad essa. legislazione.

McIntyre paragona il futuro degli esseri umani a quello dei topi. I topi hanno un potente istinto nel trovare cibo e riparo, ma i loro obiettivi molto spesso sono in conflitto con una persona che non vuole vederli a casa sua.

"Come la nostra conoscenza dei topi e dei loro desideri, anche il sistema di superintelligenza può sapere tutto di noi e sapere cosa vogliamo, ma allo stesso tempo sarà completamente indifferente ai nostri desideri".

Una soluzione semplice elimina il problema del controllo dell'IA

Come mostrato nel film "From the Machine", sarà molto difficile controllare l'IA, che sarà molto più intelligente di noi

Image
Image

Se presumiamo che un giorno creeremo una superintelligenza più intelligente degli umani, allora dovremo affrontare un problema serio, il problema del controllo. Futuristi e teorici dell'intelligenza artificiale non sono ancora stati in grado di spiegare come possiamo gestire e contenere l'ISI dopo la sua creazione. Inoltre, non è chiaro come possiamo assicurarci che sarà amichevole nei confronti delle persone. Più recentemente, i ricercatori del Georgia Institute of Technology (USA) hanno suggerito ingenuamente che l'intelligenza artificiale potrebbe apprendere e assorbire i valori umani e la conoscenza delle norme sociali semplicemente leggendo semplici fiabe. Sì, sì, semplici fiabe per bambini e storie che i genitori ci leggono durante l'infanzia. Ma in realtà tutto si rivelerà molto più complicato di tutto questo.

"Molte cosiddette 'soluzioni' sono state proposte per il controllo dell'intelligenza artificiale", afferma Stuart Armstrong.

Un esempio di tali soluzioni può essere la programmazione dell'ISI in modo tale che cerchi costantemente di accontentare o accontentare una persona. Un'alternativa sarebbe integrare concetti come amore o rispetto nel suo codice sorgente. E per evitare un simile sviluppo dello scenario secondo cui l'IA può semplificare tutti questi concetti e percepire questo mondo attraverso il prisma di questi concetti troppo semplificati, dividendolo solo in bianco e nero, può essere programmato per comprendere e accettare la diversità intellettuale, culturale e sociale.

Le tre leggi della robotica create da Isaac Asimov si adattano perfettamente al concetto di finzione, ma in realtà abbiamo bisogno di qualcosa di più completo per affrontare la questione del controllo

Image
Image

Sfortunatamente, queste soluzioni sono troppo semplici e sembrano un tentativo di adattare tutta la complessità delle simpatie e antipatie umane all'interno di una definizione o concetto generale, o un tentativo di adattare tutta la complessità dei valori umani in una parola, frase o idea. Ad esempio, cerca di inserire in questo quadro una definizione coerente e adeguata per qualcosa come "rispetto".

“Naturalmente, non si dovrebbe pensare che opzioni così semplici siano completamente inutili. Molti di loro offrono un ottimo motivo per pensare e forse stimolano la ricerca di una soluzione al problema finale , afferma Armstrong.

"Ma non possiamo fare affidamento esclusivamente su di loro senza un lavoro più complesso, senza una ricerca chiara e cercando le conseguenze dell'utilizzo di determinate soluzioni".

Saremo distrutti dalla superintelligenza artificiale

Nessuno può garantire che l'IA un giorno ci distruggerà, così come nessuno può dire con certezza che non saremo in grado di trovare modi per controllare e utilizzare l'IA per i nostri scopi. Come disse una volta l'esperto americano di intelligenza artificiale Eliezer Yudkowski: "L'intelligenza artificiale non può amarti o odiarti, ma sei fatto di atomi che potrebbe usare per qualcos'altro".

Il filosofo di Oxford Nick Bostrom nel suo libro "Superintelligence: Ways, Dangers and Strategies" scrive che la vera superintelligenza un giorno sarà in grado di realizzarsi, il che la renderà più pericolosa di qualsiasi invenzione mai creata dall'uomo. Importanti pensatori moderni come Elon Musk, Bill Gates e Stephen Hawking (molti dei quali credono che "l'IA potrebbe essere il peggior errore nella storia umana") sono più propensi a concordare con questa opinione e stanno già dando l'allarme.

Peter McIntyer ritiene che per la maggior parte dei compiti che la superintelligenza può darsi da sola, le persone sembreranno un collegamento in più.

"L'IA un giorno sarà in grado di concludere - e va notato che lo calcolerà in modo molto corretto - che le persone non vogliono utilizzarlo per massimizzare la redditività di una determinata azienda a nessun costo, indipendentemente dalle conseguenze per i consumatori, l'ambiente e gli esseri viventi. Pertanto, avrà un enorme incentivo a sviluppare un piano e una strategia, grazie ai quali una persona non sarà in grado di interferire con la soluzione del compito, modificandolo o addirittura disattivando l'AI ".

Secondo McIntyer, se i compiti dell'IA sono esattamente l'opposto dei nostri, le darà ottimi motivi per non lasciarci fermare. E se consideriamo che il livello della sua intelligenza sarà molto più alto del nostro, sarà davvero molto, molto difficile fermarlo, se possibile.

Tuttavia, è impossibile dire qualcosa con certezza in questo momento e nessuno sarà in grado di dire quale forma di IA dovremo affrontare e come può minacciare l'umanità. Come disse una volta Elon Musk, l'IA può effettivamente essere utilizzata per controllare, tracciare e controllare altre IA. E forse verranno introdotti i valori umani e la cordialità iniziale verso le persone.

La superintelligenza artificiale sarà amichevole

Il filosofo Immanuel Kant credeva che l'intelligenza fosse fortemente interconnessa con i principi della moralità. Nel suo lavoro Singularity: A Philosophical Analysis, il neuroscienziato David Chalmers ha preso come base la famosa idea di Kant e ha cercato di applicarla per analizzare la formazione della superintelligenza artificiale.

Image
Image

“Se i principi descritti in questo documento sono corretti, allora insieme al forte sviluppo dell'IA, ci si dovrebbe aspettare un netto sviluppo dei principi morali. Un ulteriore sviluppo porterà all'emergere di sistemi ISI, che possiederanno supermorale e superintelligenza. Pertanto, dovremmo aspettarci solo qualità benevoli da parte loro.

La verità è che l'idea di un'intelligenza artificiale avanzata con principi morali e virtù eccezionali non regge l'acqua. Come sottolinea Armstrong, il mondo è pieno di criminali di guerra intelligenti. L'intelletto e la moralità in una persona, ad esempio, non sono collegati in alcun modo, quindi lo scienziato si domanda che una tale relazione esisterà in altre forme di intelligenza.

“Le persone intelligenti che si comportano in modo immorale tendono a creare molti più problemi e dolore rispetto alle loro controparti meno intelligenti. L'intelligenza dà loro la capacità di essere più sofisticati nelle loro azioni cattive piuttosto che buone , afferma Armstrong.

McIntyre spiega che la capacità di un agente di svolgere un determinato compito non ha nulla a che fare con ciò che è tale compito.

“Saremo molto fortunati se le nostre IA diventassero più morali, non solo intelligenti. Affidarsi alla fortuna è, ovviamente, l'ultima cosa in una questione del genere, ma forse è la fortuna a determinare la nostra posizione in futuro , afferma il ricercatore.

I rischi associati all'intelligenza artificiale e alla robotica sono gli stessi

Questo è un malinteso particolarmente comune usato nei media, così come nei blockbuster di Hollywood come The Terminator.

Image
Image

Se una superintelligenza artificiale come Skynet, ad esempio, vuole davvero distruggere l'intera umanità, è improbabile che utilizzi androidi paramilitari con mitragliatrici in ogni mano. Il suo pensiero astuto ed efficiente gli permetterà di capire che sarebbe molto più conveniente usare, diciamo, un nuovo tipo di peste biologica o, per esempio, qualche disastro nanotecnologico. O forse prenderà e distruggerà l'atmosfera del nostro pianeta. L'intelligenza artificiale è potenzialmente pericolosa non solo perché il suo sviluppo è strettamente correlato allo sviluppo della robotica. La ragione del suo potenziale pericolo risiede nei metodi e nei mezzi attraverso i quali può dichiarare la sua presenza al mondo.

L'intelligenza artificiale presente nella fantascienza riflette il nostro futuro

Senza dubbio, per molti anni, scrittori e scrittori di fantascienza hanno usato l'ambiente della fantascienza come trampolino di lancio per speculare sul nostro vero futuro, ma l'effettiva creazione dell'ISI e le reali conseguenze di questo sono ancora oltre l'orizzonte della nostra reale conoscenza. Inoltre, una natura così artificiale e chiaramente disumana dell'IA non ci consente nemmeno di ipotizzare con precisione cosa sarà effettivamente questa IA.

Image
Image

Nella maggior parte dei lavori di fantascienza, l'IA è il più vicino possibile agli umani.

“Davanti a noi c'è in realtà un intero spettro dei più diversi tipi di mente possibili. Anche se assumiamo solo la forma umana. Ad esempio, la tua mente è tutt'altro che identica a quella del tuo vicino. Ma questo confronto è solo una goccia nel mare di tutta la possibile diversità di menti che potrebbero esistere , afferma McIntyre.

La maggior parte delle finzioni di fantascienza sono, ovviamente, create principalmente per raccontare una storia, non per essere il più scientificamente convincenti possibile. Se fosse tutto il contrario (la scienza è più importante della trama), seguire tali lavori non sarebbe interessante.

"Immagina quanto sarebbero noiose tutte queste storie, dove l'intelligenza artificiale, senza autocoscienza, la capacità di rallegrarsi, amare o odiare, distrugge tutte le persone praticamente senza alcuna resistenza per raggiungere il suo obiettivo, il che, tra l'altro, potrebbe anche non essere molto interessante per il lettore o lo spettatore ", commenta Armstrong.

L'intelligenza artificiale prenderà il nostro lavoro

La capacità dell'IA di automatizzare i processi che eseguiamo manualmente e il suo potenziale di distruggere l'intera umanità non sono la stessa cosa. Tuttavia, secondo Martin Ford, autore di Rise of the Robots: Technology and the Threat of a Jobless Future, questi concetti sono spesso provati per essere confrontati e combinati in un insieme coerente. Certo, è fantastico che proviamo ad anticipare le conseguenze della creazione di IA finora, ma solo se questi sforzi non ci distraggono dai problemi che potremmo affrontare in un paio di decenni se non facciamo nulla. E uno dei principali problemi di questo tipo è l'automazione di massa.

Image
Image

Pochi sosterrebbero che una delle sfide dell'intelligenza artificiale sarà quella di trovare un modo per automatizzare molti lavori, dai lavori in fabbrica ad alcuni lavori da colletto bianco. Alcuni esperti prevedono che la metà di tutti i lavori, almeno negli Stati Uniti, potrebbe essere automatizzata nel prossimo futuro.

Ma questo non significa affatto che non saremo in grado di accettare tali cambiamenti. È importante capire che il desiderio di liberarsi dallo stress fisico e psicologico non necessario sul lavoro è in realtà da molto tempo un sogno della nostra specie umana.

“In pochi decenni, l'IA sostituirà davvero le persone in molti lavori. E in realtà è abbastanza buono. Ad esempio, le auto a guida autonoma sostituiranno i camionisti, il che a sua volta non solo ridurrà il costo della spedizione delle merci, ma abbasserà anche il costo delle merci stesse. Se lavori come camionista, ovviamente rimarrai all'estremo, ma tutti gli altri in questo caso hanno maggiori probabilità di ricevere un aumento dei loro stipendi. E più questo denaro può essere risparmiato, più questo denaro può essere speso per altri beni e servizi che le persone saranno impegnate nei loro luoghi di lavoro.

Molto probabilmente, l'intelligenza artificiale cercherà nuovi modi di benessere e nutrirà le persone mentre fanno altre cose. I progressi nello sviluppo dell'IA saranno accompagnati da successi in altre aree. Soprattutto nei settori manifatturieri. In futuro, è probabile che tutto ciò semplifichi notevolmente anziché complicare la soddisfazione dei nostri bisogni fondamentali.

Raccomandato: