Intelligenza Artificiale. Parte Seconda: Estinzione O Immortalità? - Visualizzazione Alternativa

Sommario:

Intelligenza Artificiale. Parte Seconda: Estinzione O Immortalità? - Visualizzazione Alternativa
Intelligenza Artificiale. Parte Seconda: Estinzione O Immortalità? - Visualizzazione Alternativa

Video: Intelligenza Artificiale. Parte Seconda: Estinzione O Immortalità? - Visualizzazione Alternativa

Video: Intelligenza Artificiale. Parte Seconda: Estinzione O Immortalità? - Visualizzazione Alternativa
Video: Intelligenza Artificiale, Difesa e Sostenibilità 2024, Settembre
Anonim

Prima di te c'è la seconda parte di un articolo della serie "Aspetta, come tutto questo può essere reale, perché non se ne parla ancora ad ogni angolo". Nella serie precedente, si è saputo che un'esplosione di intelligenza si sta gradualmente avvicinando alle persone del pianeta Terra, sta cercando di svilupparsi dall'intelligenza umana strettamente focalizzata a quella umana generale e, infine, alla superintelligenza artificiale.

"Forse stiamo affrontando un problema estremamente difficile e non si sa quanto tempo è stato assegnato per la sua soluzione, ma il futuro dell'umanità potrebbe dipendere dalla sua soluzione". - Nick Bostrom.

La prima parte dell'articolo è iniziata in modo abbastanza innocente. Abbiamo discusso dell'intelligenza artificiale strettamente focalizzata (AI, specializzata nella risoluzione di un problema specifico, come determinare i percorsi o giocare a scacchi), nel nostro mondo ce n'è in abbondanza. Quindi hanno analizzato il motivo per cui è così difficile far crescere l'intelligenza artificiale direzionale generale (AGI, o AI, che, in termini di capacità intellettuali, può essere paragonata a un essere umano nel risolvere qualsiasi problema), è così difficile. Abbiamo concluso che il ritmo esponenziale del progresso tecnologico suggerisce che AGI potrebbe essere dietro l'angolo molto presto. Alla fine, abbiamo deciso che non appena le macchine hanno raggiunto l'intelligenza umana, potrebbe accadere quanto segue:

Image
Image
Image
Image
Image
Image
Image
Image

Come al solito, guardiamo lo schermo, non credendo che la superintelligenza artificiale (ISI, che è molto più intelligente di qualsiasi persona) possa apparire durante la nostra vita, e scegliendo emozioni che rispecchino al meglio la nostra opinione su questo tema.

Video promozionale:

Prima di immergerci nelle specifiche dell'ISI, ricordiamoci cosa significa per una macchina essere superintelligente.

La differenza principale sta tra superintelligenza veloce e superintelligenza di qualità. Spesso, la prima cosa che viene in mente quando si pensa a un computer superintelligente è che può pensare molto più velocemente di una persona - milioni di volte più velocemente, e in cinque minuti comprenderà cosa ci vorrebbe una persona per dieci anni. ("Conosco il kung fu!")

Sembra impressionante, e l'ISI dovrebbe davvero pensare più velocemente di chiunque altro, ma la caratteristica principale di separazione sarà la qualità della sua intelligenza, che è completamente diversa. Gli esseri umani sono molto più intelligenti delle scimmie, non perché pensano più velocemente, ma perché il loro cervello contiene una serie di ingegnosi moduli cognitivi che eseguono rappresentazioni linguistiche complesse, pianificazione a lungo termine, pensiero astratto, di cui le scimmie non sono capaci. Se acceleri mille volte il cervello di una scimmia, non diventerà più intelligente di noi - anche dopo dieci anni non sarà in grado di assemblare un set di costruzioni secondo le istruzioni, il che richiederebbe a una persona un paio d'ore al massimo. Ci sono cose che una scimmia non imparerà mai, non importa quante ore trascorra o quanto velocemente funzioni il suo cervello.

Inoltre, una scimmia non sa quanto umanamente, perché il suo cervello semplicemente non è in grado di rendersi conto dell'esistenza di altri mondi: una scimmia può sapere cos'è una persona e cos'è un grattacielo, ma non capirà mai che un grattacielo è stato costruito dalle persone. Nel suo mondo tutto appartiene alla natura e il macaco non solo non può costruire un grattacielo, ma capisce anche che chiunque può costruirlo. E questo è il risultato di una piccola differenza nella qualità dell'intelligenza.

Nello schema generale dell'intelligenza di cui stiamo parlando, o semplicemente per gli standard degli esseri biologici, la differenza nella qualità dell'intelligenza tra esseri umani e scimmie è minima. Nell'articolo precedente, abbiamo posto le capacità cognitive biologiche su una scala:

Image
Image

Per capire quanto sarà seria una macchina superintelligente, posizionala due tacche più in alto della persona su quella scala. Questa macchina può essere solo un po 'superintelligente, ma la sua superiorità sulle nostre capacità cognitive sarà la stessa della nostra - sulle scimmie. E proprio come uno scimpanzé non capirà mai che un grattacielo può essere costruito, potremmo non capire mai cosa capirà una macchina un paio di gradini più in alto, anche se la macchina cerca di spiegarcelo. Ma questo è solo un paio di passaggi. Una macchina più intelligente vedrà le formiche in noi - ci insegnerà le cose più semplici dalla sua posizione per anni, e questi tentativi saranno completamente senza speranza.

Il tipo di superintelligenza di cui parleremo oggi si trova ben oltre questa scala. Questa è un'esplosione di intelligenza: quando più un'auto diventa intelligente, più velocemente può aumentare la propria intelligenza, aumentando gradualmente lo slancio. Potrebbero volerci anni perché una macchina come questa superi gli scimpanzé in intelligenza, ma forse un paio d'ore per sorpassarci di un paio di passi. Da questo momento in poi, l'auto può già saltare quattro gradini al secondo. Ecco perché dovremmo capire che molto presto dopo l'apparizione della prima notizia che la macchina ha raggiunto il livello di intelligenza umana, potremmo affrontare la realtà della convivenza sulla Terra con qualcosa che sarà molto più alto di noi su questa scala (o forse e milioni di volte superiore):

Image
Image

E poiché abbiamo stabilito che è del tutto inutile cercare di capire la potenza di una macchina che è solo due gradini sopra di noi, definiamo una volta per tutte che non c'è modo di capire cosa farà l'ISI e quali saranno per noi le conseguenze. Chiunque affermi il contrario semplicemente non capisce cosa significhi superintelligenza.

L'evoluzione ha fatto evolvere lentamente e gradualmente il cervello biologico nel corso di centinaia di milioni di anni e se gli esseri umani creano una macchina superintelligente, in un certo senso supereremo l'evoluzione. Oppure farà parte dell'evoluzione - forse l'evoluzione funziona in modo tale che l'intelligenza si sviluppi gradualmente fino a raggiungere un punto di svolta che preannuncia un nuovo futuro per tutti gli esseri viventi:

Image
Image

Per ragioni che discuteremo più avanti, una vasta sezione della comunità scientifica ritiene che la domanda non sia se arriveremo a questo punto critico, ma quando.

Dove andiamo a finire dopo questo?

Penso che nessuno in questo mondo, né io né tu, sarà in grado di dire cosa accadrà quando raggiungeremo il punto di svolta. Il filosofo di Oxford e il principale teorico dell'IA Nick Bostrom crede che possiamo raggruppare tutti i possibili risultati in due grandi categorie.

In primo luogo, guardando la storia, sappiamo quanto segue sulla vita: le specie appaiono, esistono per un certo tempo e poi inevitabilmente cadono dall'equilibrio della vita e muoiono.

Image
Image

"Tutte le specie muoiono" è stata una regola affidabile nella storia quanto "tutte le persone muoiono un giorno". Il 99,9% delle specie è caduto da un tronco di vita, ed è abbastanza chiaro che se una specie rimane su questo tronco troppo a lungo, una raffica di vento naturale o un improvviso asteroide capovolgerà il tronco. Bostrom chiama estinzione lo stato di un attrattore, un luogo in cui tutte le specie si equilibrano per non cadere dove nessuna specie è tornata.

E sebbene la maggior parte degli scienziati ammetta che l'ISI avrà la capacità di condannare le persone all'estinzione, molti credono anche che l'uso delle capacità dell'ISI consentirà agli individui (e alla specie nel suo insieme) di raggiungere il secondo stato dell'attrattore: l'immortalità della specie. Bostrom crede che l'immortalità di una specie sia un attrattore tanto quanto l'estinzione di una specie, cioè, se arriviamo a questo, saremo condannati all'esistenza eterna. Quindi, anche se tutte le specie fino ad oggi sono cadute da questo bastone nel vortice dell'estinzione, Bostrom crede che il tronco abbia due lati, e semplicemente non è apparsa sulla Terra un'intelligenza tale da capire come cadere dall'altra parte.

Image
Image

Se Bostrom e altri hanno ragione e, a giudicare da tutte le informazioni a nostra disposizione, potrebbero anche esserlo, dobbiamo accettare due fatti molto scioccanti:

1. L'emergere dell'ISI per la prima volta nella storia aprirà la possibilità per una specie di raggiungere l'immortalità e abbandonare il ciclo fatale dell'estinzione.

2. L'emergere dell'ISI avrà un impatto così inimmaginabilmente enorme che, molto probabilmente, spingerà l'umanità fuori da questo raggio in una direzione o nell'altra.

È possibile che quando l'evoluzione raggiunge un tale punto di svolta, metta sempre fine al rapporto delle persone con il flusso della vita e crei un nuovo mondo, con o senza persone.

Ciò solleva una domanda interessante che solo un delinquente non si farebbe: quando arriveremo a questo punto critico e dove ci porterà? Nessuno al mondo conosce la risposta a questa doppia domanda, ma molte persone intelligenti hanno cercato di capirlo per decenni. Per il resto dell'articolo, scopriremo da dove vengono.

* * *

Cominciamo con la prima parte di questa domanda: quando dovremmo raggiungere il punto critico? In altre parole: quanto tempo resta prima che la prima macchina raggiunga la superintelligenza?

Le opinioni variano da caso a caso. Molti, tra cui il professor Vernor Vinge, lo scienziato Ben Herzel, il co-fondatore di Sun Microsystems Bill Joy, il futurista Ray Kurzweil, erano d'accordo con l'esperto di machine learning Jeremy Howard quando ha presentato il seguente grafico a TED Talk:

Image
Image

Queste persone condividono l'opinione che l'ISI arriverà presto: questa crescita esponenziale, che oggi ci sembra lenta, esploderà letteralmente nei prossimi decenni.

Altri, come il co-fondatore di Microsoft Paul Allen, lo psicologo ricercatore Gary Marcus, l'esperto di computer Ernest Davis e l'imprenditore tecnologico Mitch Kapor, credono che pensatori come Kurzweil stiano seriamente sottovalutando l'entità del problema e pensano che non siamo così vicini a un punto di svolta.

Il campo di Kurzweil sostiene che l'unica sottovalutazione che si verifica è ignorare la crescita esponenziale, e gli scettici possono essere paragonati a coloro che hanno guardato al lento boom di Internet nel 1985 e hanno sostenuto che non avrebbe avuto un impatto sul mondo nel prossimo futuro.

I dubbiosi possono respingere che è più difficile per il progresso compiere ogni passo successivo quando si tratta dello sviluppo esponenziale dell'intelligenza, che neutralizza la tipica natura esponenziale del progresso tecnologico. Eccetera.

Il terzo campo, in cui si trova Nick Bostrom, non è d'accordo né con il primo né con il secondo, sostenendo che a) tutto ciò può assolutamente accadere nel prossimo futuro; eb) non vi è alcuna garanzia che ciò accadrà o che ci vorrà più tempo.

Altri, come il filosofo Hubert Dreyfus, credono che tutti e tre i gruppi credano ingenuamente che ci sarà un punto di svolta e che molto probabilmente non arriveremo mai all'ISI.

Cosa succede quando mettiamo insieme tutte queste opinioni?

Nel 2013, Bostrom ha condotto un sondaggio in cui ha intervistato centinaia di esperti nel campo dell'intelligenza artificiale durante una serie di conferenze sul seguente argomento: "Quali saranno le tue previsioni per raggiungere l'AGI a livello umano?" e ci ha chiesto di nominare un anno ottimistico (in cui avremo AGI con una probabilità del 10%), un'ipotesi realistica (un anno in cui avremo AGI con una probabilità del 50%) e un'ipotesi fiduciosa (il primo anno in cui AGI apparirà dal 90 -probabilità percentuale). Ecco i risultati:

- Anno medio ottimistico (10%): 2022

- Anno medio realistico (50%): 2040

- Anno medio pessimistico (90%): 2075

Gli intervistati medi credono che tra 25 anni avremo AGI piuttosto che no. Una probabilità del 90% che l'AGI si verifichi entro il 2075 significa che se sei ancora abbastanza giovane ora, molto probabilmente accadrà nella tua vita.

Uno studio separato recentemente condotto da James Barratt (l'autore dell'acclamato e ottimo libro Our Latest Invention, estratti da cui ho portato all'attenzione dei lettori di Hi-News.ru) e Ben Hertzel alla Conferenza AGI, la Conferenza annuale AGI, ha semplicemente mostrato le opinioni delle persone rispetto all'anno arriviamo all'AGI: 2030, 2050, 2100, dopo o mai più. Ecco i risultati:

- Entro il 2030: 42% degli intervistati

- Entro il 2050: 25%

- Entro il 2100: 20%

- Dopo il 2100: 10%

- Mai: 2%

Simile ai risultati di Bostrom. Nel sondaggio di Barratt, più di due terzi degli intervistati ritiene che AGI sarà qui entro il 2050 e meno della metà crede che AGI apparirà nei prossimi 15 anni. Colpisce anche che solo il 2% degli intervistati, in linea di principio, non veda AGI nel nostro futuro.

Ma AGI non è un punto di svolta come ISI. Quando, secondo gli esperti, avremo ISI?

Bostrom ha chiesto agli esperti quando raggiungeremo l'ASI: a) due anni dopo l'AGI (cioè quasi istantaneamente a causa di un'esplosione di intelligence); b) dopo 30 anni. Risultati?

L'opinione media è che la rapida transizione da AGI a ISI avverrà con una probabilità del 10%, ma in 30 anni o meno avverrà con una probabilità del 75%.

Da questi dati, non sappiamo in quale data gli intervistati chiamerebbero una probabilità del 50% di un ASI, ma sulla base delle due risposte precedenti, supponiamo che siano 20 anni. Cioè, i maggiori esperti mondiali di IA ritengono che la svolta arriverà nel 2060 (AGI apparirà nel 2040 + ci vorranno 20 anni per il passaggio da AGI a ISI).

Image
Image

Naturalmente, tutte le statistiche di cui sopra sono speculative e rappresentano solo l'opinione di esperti nel campo dell'intelligenza artificiale, ma sottolineano anche che la maggior parte delle persone interessate concorda sul fatto che entro il 2060 è probabile che l'IA arrivi. In soli 45 anni.

Passiamo alla seconda domanda. Quando arriveremo al punto critico, quale lato della scelta fatale ci determinerà?

La superintelligenza avrà il potere più potente e la domanda cruciale per noi sarà la seguente:

Chi o cosa controllerà questo potere e quale sarà la loro motivazione?

La risposta a questa domanda dipenderà dal fatto che l'ISI ottenga uno sviluppo incredibilmente potente, uno sviluppo incommensurabilmente terrificante o qualcosa nel mezzo.

Naturalmente, anche la comunità di esperti sta cercando di rispondere a queste domande. Il sondaggio di Bostrom ha analizzato la probabilità di possibili conseguenze dell'impatto di AGI sull'umanità, e si è scoperto che con una probabilità del 52% tutto andrà molto bene e con una probabilità del 31% tutto andrà male o estremamente male. Il sondaggio allegato alla fine della parte precedente di questo argomento, condotto tra voi, cari lettori di Hi-News, ha mostrato circa gli stessi risultati. Per un risultato relativamente neutro, la probabilità era solo del 17%. In altre parole, crediamo tutti che AGI sarà un grosso problema. Vale anche la pena notare che questa indagine riguarda l'emergere dell'AGI - nel caso dell'ISI, la percentuale di neutralità sarà inferiore.

Prima di approfondire il pensiero dei lati positivi e negativi della domanda, uniamo entrambi i lati della domanda: "quando accadrà?" e "questo è buono o cattivo?" in una tabella che copre le opinioni della maggior parte degli esperti.

Image
Image

Parleremo del campo principale tra un minuto, ma prima decidi la tua posizione. Molto probabilmente, sei nello stesso posto in cui mi trovavo prima di iniziare a lavorare su questo argomento. Ci sono diversi motivi per cui le persone non pensano affatto a questo argomento:

- Come accennato nella prima parte, i film hanno seriamente confuso persone e fatti, presentando scenari irrealistici con l'intelligenza artificiale, il che ha portato al fatto che non dovremmo prendere sul serio l'IA. James Barratt ha paragonato questa situazione all'essere emessa dai Centers for Disease Control (CDC) con un serio avvertimento sui vampiri nel nostro futuro.

- A causa dei cosiddetti pregiudizi cognitivi, è molto difficile per noi credere che qualcosa sia reale finché non ne abbiamo la prova. Si può tranquillamente immaginare che gli informatici del 1988 discutessero regolarmente delle conseguenze di vasta portata di Internet e di cosa avrebbe potuto diventare, ma le persone difficilmente credevano che avrebbe cambiato le loro vite finché non fosse realmente accaduto. È solo che i computer non sapevano come farlo nel 1988 e le persone guardavano i loro computer e pensavano: "Davvero? È questo che cambierà il mondo? " La loro immaginazione era limitata da ciò che la loro esperienza personale insegnava loro, sapevano cosa fosse un computer ed era difficile immaginare di cosa sarebbe capace un computer in futuro. Lo stesso sta accadendo ora con l'IA. Abbiamo sentito che diventerà una cosa seriaMa dal momento che non l'abbiamo ancora incontrato faccia a faccia e, in generale, osserviamo manifestazioni piuttosto deboli di IA nel nostro mondo moderno, è piuttosto difficile per noi credere che cambierà radicalmente la nostra vita. È contro questi pregiudizi che numerosi esperti di tutti i campi, così come le persone interessate, si oppongono a cercare di attirare la nostra attenzione attraverso il rumore dell'egocentrismo collettivo quotidiano.

- Anche se credessimo in tutto questo - quante volte oggi hai pensato al fatto che passerai il resto dell'eternità nel nulla? Un po 'd'accordo. Anche se questo fatto è molto più importante di qualsiasi cosa tu faccia giorno dopo giorno. Questo perché i nostri cervelli sono solitamente concentrati su piccole cose quotidiane, non importa quanto delirante sia la situazione a lungo termine in cui ci troviamo. È solo che siamo fatti.

Uno degli obiettivi di questo articolo è quello di farti uscire dal campo chiamato “mi piace pensare ad altro” e metterti nel campo degli esperti, anche se ti trovi proprio all'incrocio tra le due linee tratteggiate nella piazza sopra, completamente indeciso.

Nel corso della ricerca, diventa evidente che le opinioni della maggior parte delle persone si spostano rapidamente verso il "campo principale" e tre quarti degli esperti cadono in due sottocampi nel campo principale.

Image
Image

Visiteremo entrambi questi campi per intero. Cominciamo con il divertimento.

Perché il futuro potrebbe essere il nostro sogno più grande?

Mentre esploriamo il mondo dell'IA, troviamo sorprendentemente molte persone nella nostra zona di comfort. Le persone nella piazza in alto a destra brulicano di eccitazione. Credono che cadremo dalla parte buona del tronco e credono anche che arriveremo inevitabilmente a questo. Per loro, il futuro è solo il meglio che si può solo sognare.

Il punto che distingue queste persone da altri pensatori non è che vogliono essere felici, ma che sono sicuri che lei ci sta aspettando.

Questa fiducia nasce dalla controversia. I critici ritengono che derivi da un'eccitante eccitazione che oscura i potenziali lati negativi. Ma i sostenitori dicono che le previsioni cupe sono sempre ingenue; la tecnologia continua e ci aiuterà sempre più che danneggiarci.

Sei libero di scegliere una qualsiasi di queste opinioni, ma metti da parte lo scetticismo e dai un'occhiata al lato felice della trave di equilibrio, cercando di accettare il fatto che tutto ciò di cui hai letto potrebbe essere già accaduto. Se mostrassi ai cacciatori-raccoglitori il nostro mondo di comodità, tecnologia e abbondanza infinita, sembrerebbe loro una finzione magica - e ci comportiamo in modo abbastanza modesto, incapaci di ammettere che la stessa incomprensibile trasformazione ci attende in futuro.

Nick Bostrom descrive tre percorsi che un sistema di intelligenza artificiale superintelligente può intraprendere:

Un oracolo in grado di rispondere a qualsiasi domanda esatta, comprese domande complesse a cui gli esseri umani non possono rispondere, ad esempio "come rendere più efficiente un motore di un'auto?" Google è un tipo primitivo di "oracolo".

Un genio che eseguirà qualsiasi comando di alto livello - utilizzando l'assemblatore molecolare per creare una nuova versione più efficiente di un motore automobilistico - e attenderà il comando successivo.

Un sovrano che avrà ampio accesso e capacità di funzionare liberamente nel mondo, prendendo le proprie decisioni e migliorando il processo. Inventerà un mezzo di trasporto privato più economico, veloce e sicuro di un'auto.

Queste domande e questi compiti, che ci sembrano difficili, sembreranno al sistema superintelligente come se qualcuno chiedesse di migliorare la situazione “la mia matita è caduta dal tavolo”, in cui semplicemente la raccogliereste e la rimettereste a posto.

Eliezer Yudkowski, uno specialista americano in intelligenza artificiale, ha detto bene:

“Non ci sono problemi difficili, solo problemi difficili per un certo livello di intelligenza. Vai un gradino più in alto (in termini di intelligenza) e alcuni problemi passeranno improvvisamente dalla categoria di "impossibile" a quella di "ovvio". Un gradino più in alto - e diventeranno tutti evidenti ".

Ci sono molti scienziati, inventori e imprenditori impazienti che hanno scelto una zona di conforto fiducioso dalla nostra tavola, ma abbiamo solo bisogno di una guida per camminare per il meglio in questo migliore dei mondi.

Ray Kurzweil è ambiguo. Alcuni idolatrano le sue idee, altri disprezzano. Alcuni rimangono nel mezzo - Douglas Hofstadter, discutendo le idee dei libri di Kurzweil, ha eloquentemente notato che "è come se prendessi molto buon cibo e un po 'di cacca di cane, e poi mescolassi tutto in modo tale che sia impossibile capire cosa è buono e cosa è cattivo".

Che ti piacciano o no le sue idee, è impossibile passarle senza ombra di interesse. Ha iniziato a inventare cose da adolescente e negli anni successivi ha inventato diverse cose importanti, tra cui il primo scanner piano, il primo scanner per convertire il testo in parlato, il noto sintetizzatore musicale Kurzweil (il primo vero pianoforte elettrico) e il primo riconoscimento vocale di successo commerciale. È anche autore di cinque libri sensazionali. Kurzweil è apprezzato per le sue audaci previsioni e il suo curriculum è abbastanza buono: alla fine degli anni '80, quando Internet era ancora agli inizi, predisse che entro gli anni 2000 il Web sarebbe diventato un fenomeno globale. Il Wall Street Journal ha definito Kurzweil un "genio irrequieto", Forbes una "macchina pensante globale", Inc. Magazine - "Il legittimo erede di Edison", Bill Gates - "il migliore di quellichi predice il futuro dell'intelligenza artificiale ". Nel 2012, il co-fondatore di Google Larry Page ha assunto Kurzweil come CTO. Nel 2011 ha co-fondato la Singularity University, che è ospitata dalla NASA ed è in parte sponsorizzata da Google.

La sua biografia è importante. Quando Kurzweil parla della sua visione del futuro, suona come un matto, ma la cosa veramente pazza è che è tutt'altro che pazzo: è una persona incredibilmente intelligente, istruita e sana di mente. Potresti pensare che abbia torto nelle sue previsioni, ma non è uno sciocco. Le previsioni di Kurzweil sono condivise da molti esperti di comfort zone, Peter Diamandis e Ben Herzel. Questo è ciò che pensa che accadrà.

Cronologia

Kurzweil ritiene che i computer raggiungeranno il livello di intelligenza artificiale generale (AGI) entro il 2029 e entro il 2045 non solo avremo la superintelligenza artificiale, ma anche un mondo completamente nuovo: l'epoca della cosiddetta singolarità. La sua cronologia dell'IA è ancora considerata scandalosamente esagerata, ma negli ultimi 15 anni il rapido sviluppo di sistemi di intelligenza artificiale (AI) altamente focalizzati ha costretto molti esperti a schierarsi con Kurzweil. Le sue previsioni rimangono ancora più ambiziose del sondaggio di Bostrom (AGI entro il 2040, ISI entro il 2060), ma non di molto.

Secondo Kurzweil, tre rivoluzioni simultanee in biotecnologia, nanotecnologia e, cosa più importante, AI stanno guidando la singolarità del 2045. Ma prima di andare oltre - e la nanotecnologia segue da vicino l'intelligenza artificiale - prendiamo un minuto per la nanotecnologia.

Image
Image

Qualche parola sulla nanotecnologia

Di solito chiamiamo tecnologie nanotecnologiche che si occupano della manipolazione della materia nell'intervallo di 1-100 nanometri. Un nanometro è un miliardesimo di metro o un milionesimo di millimetro; nell'intervallo di 1-100 nanometri, virus (100 nm di diametro), DNA (10 nm di larghezza), molecole di emoglobina (5 nm), glucosio (1 nm) e altro possono essere ospitati. Se mai la nanotecnologia diventerà il nostro soggetto, il passo successivo sarà quello di manipolare singoli atomi che sono inferiori a un ordine di grandezza (~, 1 nm).

Per capire dove gli umani incontrano problemi nel tentativo di manipolare la materia su tale scala, passiamo a una scala più ampia. La Stazione Spaziale Internazionale è a 481 chilometri sopra la Terra. Se gli umani fossero giganti e colpissero la ISS con la testa, sarebbero 250.000 volte più grandi di quanto sono adesso. Se ingrandisci qualcosa da 1 a 100 nanometri 250.000 volte, ottieni 2,5 centimetri. La nanotecnologia è l'equivalente di un essere umano, in orbita attorno alla ISS, che cerca di manipolare cose delle dimensioni di un granello di sabbia o di un bulbo oculare. Per arrivare al livello successivo, controllando i singoli atomi, il gigante dovrà posizionare con cura gli oggetti con un diametro di 1/40 di millimetro. La gente comune avrà bisogno di un microscopio per vederli.

Per la prima volta, Richard Feynman ha parlato di nanotecnologia nel 1959. Poi disse: “I principi della fisica, per quanto ne so, non parlano contro la possibilità di controllare le cose atomo per atomo. In linea di principio, un fisico potrebbe sintetizzare qualsiasi sostanza chimica che un chimico ha scritto. Come? Posizionando gli atomi dove il chimico dice di prendere la sostanza . Questa è tutta la semplicità. Se sai come spostare singole molecole o atomi, puoi fare quasi tutto.

La nanotecnologia è diventata un campo scientifico serio nel 1986 quando l'ingegnere Eric Drexler ha presentato le sue basi nel suo libro fondamentale, Machines of Creation, ma lo stesso Drexler crede che coloro che vogliono saperne di più sulle idee moderne nella nanotecnologia dovrebbero leggere il suo libro del 2013. Full Abundance (Radical Abundance).

Una volta arrivati al fondo della nanotecnologia, possiamo usarla per creare dispositivi tecnici, abbigliamento, cibo, bioprodotti - cellule del sangue, combattenti contro virus e cancro, tessuto muscolare e così via - qualunque cosa. E in un mondo che utilizza la nanotecnologia, il costo di un materiale non sarà più legato alla sua scarsità o alla complessità del suo processo di fabbricazione, ma piuttosto alla complessità della sua struttura atomica. Nel mondo della nanotecnologia, un diamante potrebbe essere più economico di una gomma.

Non siamo nemmeno vicini ancora lì. E non è del tutto chiaro se sottostimiamo o sovrastimiamo la complessità di questo percorso. Tuttavia, tutto va al punto che la nanotecnologia non è lontana. Kurzweil presume che entro gli anni '20 li avremo. Gli stati del mondo sanno che la nanotecnologia può promettere un grande futuro, e quindi stanno investendo molti miliardi in esse.

Immagina solo quali possibilità avrebbe un computer superintelligente se arrivasse a un assemblatore affidabile su nanoscala. Ma la nanotecnologia è la nostra idea e stiamo cercando di cavalcarla, è difficile per noi. E se fossero solo uno scherzo per il sistema ISI, e lo stesso ISI presenterà tecnologie che saranno molte volte più potenti di qualsiasi cosa possiamo in linea di principio presumere? Eravamo d'accordo: nessuno può immaginare di cosa sarà capace la superintelligenza artificiale? Si ritiene che il nostro cervello non sia in grado di prevedere nemmeno il minimo di ciò che accadrà.

Cosa potrebbe fare l'IA per noi?

Armato della superintelligenza e di tutta la tecnologia che la superintelligenza potrebbe creare, l'ISI sarà probabilmente in grado di risolvere tutti i problemi dell'umanità. Riscaldamento globale? ISI fermerà innanzitutto le emissioni di carbonio inventando una serie di combustibili non fossili efficienti per la generazione di energia. Quindi inventerà un modo efficace e innovativo per rimuovere l'eccesso di CO2 dall'atmosfera. Cancro e altre malattie? Nessun problema: l'assistenza sanitaria e la medicina cambieranno in modi impossibili da immaginare. La fame nel mondo? ISI utilizzerà la nanotecnologia per creare carne identica alla carne naturale, da zero, vera.

Image
Image

La nanotecnologia sarà in grado di trasformare un mucchio di immondizia in una vasca di carne fresca o altro cibo (non necessariamente nemmeno nella forma usuale - immagina un cubetto di mela gigante) e distribuire tutto questo cibo in tutto il mondo utilizzando sistemi di trasporto avanzati. Naturalmente, questo sarà ottimo per gli animali che non devono più morire per il cibo. L'ISI può anche fare molte altre cose, come preservare le specie in via di estinzione o persino riportare quelle estinte dal DNA preservato. L'ISI può risolvere i nostri problemi macroeconomici più difficili - i nostri dibattiti economici più difficili, questioni etiche e filosofiche, il commercio globale - che saranno tutti dolorosamente ovvi per l'ISI.

Ma c'è qualcosa di molto speciale che ISI potrebbe fare per noi. Allettante e stuzzicante che cambierebbe tutto: l'ISI può aiutarci a far fronte alla mortalità. Comprendendo gradualmente le capacità dell'IA, forse riconsidererai tutte le tue idee sulla morte.

Non c'era motivo per cui l'evoluzione estendesse la nostra vita più a lungo di quanto non faccia ora. Se viviamo abbastanza a lungo da dare alla luce e crescere i bambini al punto in cui possono badare a se stessi, l'evoluzione è sufficiente. Da un punto di vista evolutivo, 30+ anni sono sufficienti per lo sviluppo e non c'è motivo per le mutazioni di prolungare la vita e ridurre il valore della selezione naturale. William Butler Yates ha definito la nostra specie "un'anima attaccata a un animale morente". Non molto divertente.

E poiché un giorno moriremo tutti, viviamo con l'idea che la morte sia inevitabile. Pensiamo all'invecchiamento nel tempo - continuare ad andare avanti e non essere in grado di fermare questo processo. Ma il pensiero della morte è insidioso: catturati da essa, ci dimentichiamo di vivere. Richard Feynman ha scritto:

“C'è una cosa meravigliosa in biologia: non c'è niente in questa scienza che possa parlare della necessità della morte. Se vogliamo creare una macchina a moto perpetuo, ci rendiamo conto di aver trovato abbastanza leggi in fisica che indicano l'impossibilità di ciò o che le leggi sono sbagliate. Ma non c'è nulla in biologia che indichi l'inevitabilità della morte. Questo mi porta a credere che non sia così inevitabile, ed è solo questione di tempo prima che i biologi scoprano la causa di questo problema, questa terribile malattia universale, sarà curata.

Il fatto è che l'invecchiamento non ha nulla a che fare con il tempo. L'invecchiamento è quando i materiali fisici del corpo si consumano. Anche le parti di automobili si degradano, ma l'invecchiamento è inevitabile? Se continui a riparare la tua auto mentre le parti si consumano, durerà per sempre. Il corpo umano non è diverso, solo più complesso.

Kurzweil parla di nanobot intelligenti e connessi al Wi-Fi nel flusso sanguigno che potrebbero svolgere innumerevoli compiti per la salute umana, inclusa la riparazione o la sostituzione regolare di cellule usurate in qualsiasi parte del corpo. Migliorare questo processo (o trovare un'alternativa suggerita da un'ASI più intelligente) non solo mantiene il corpo sano, ma può invertire l'invecchiamento. La differenza tra il corpo di un 60enne e uno di 30 risiede in una manciata di problemi fisici che potrebbero essere corretti con la giusta tecnologia. L'ISI potrebbe costruire un'auto in cui una persona entrerebbe quando avrà 60 anni e lascerà quando ne avrà 30.

Anche un cervello degradato potrebbe essere rinnovato. L'ISI saprebbe sicuramente come farlo senza alterare i dati cerebrali (personalità, ricordi, ecc.). Un uomo di 90 anni che soffre di una completa degradazione cerebrale potrebbe sottoporsi a una riqualificazione, rinnovarsi e tornare all'inizio della sua vita. Può sembrare assurdo, ma il corpo è una manciata di atomi e l'ISI potrebbe certamente manipolarli facilmente, qualsiasi struttura atomica. Non è così assurdo.

Kurzweil crede anche che i materiali artificiali si integreranno sempre di più nel corpo col passare del tempo. Per cominciare, gli organi potrebbero essere sostituiti con versioni di macchine super avanzate che durerebbero per sempre e non fallirebbero mai. Quindi potremmo fare una riprogettazione completa del corpo, sostituendo i globuli rossi con perfetti nanobot che si muovono da soli, eliminando del tutto la necessità di un cuore. Potremmo anche migliorare le nostre capacità cognitive, iniziare a pensare miliardi di volte più velocemente e accedere a tutte le informazioni disponibili all'umanità attraverso il cloud.

Le possibilità di comprendere nuovi orizzonti sarebbero davvero infinite. Le persone sono riuscite a dotare il sesso di un nuovo scopo, lo fanno per piacere, non solo per la riproduzione. Kurzweil pensa che possiamo fare lo stesso con il cibo. I nanobot potrebbero fornire una nutrizione ideale direttamente alle cellule del corpo, consentendo alle sostanze nocive di passare attraverso il corpo. Il teorico della nanotecnologia Robert Freitas ha già sviluppato un sostituto per le cellule del sangue che, se implementato nel corpo umano, può permettergli di non respirare per 15 minuti - e questo è stato inventato dagli esseri umani. Immagina quando l'ISI guadagnerà potere.

Dopo tutto, Kurzweil crede che gli esseri umani raggiungeranno il punto in cui diventeranno completamente artificiali; il tempo in cui guardiamo ai materiali biologici e pensiamo a quanto fossero primitivi; tempo in cui leggeremo le prime fasi della storia umana, stupiti di come germi, incidenti, malattie o semplicemente vecchiaia possano uccidere una persona contro la sua volontà. Alla fine, gli umani sconfiggeranno la loro stessa biologia e diventeranno eterni: questo è il percorso verso il lato felice del raggio di equilibrio di cui abbiamo parlato fin dall'inizio. E le persone che credono in questo sono anche sicure che un simile futuro ci aspetta molto, molto presto.

Probabilmente non sarai sorpreso che le idee di Kurzweil abbiano attirato aspre critiche. La sua singolarità nel 2045 e la successiva vita eterna per le persone è stata chiamata "l'ascensione dei nerd" o "creazione intelligente di persone con un QI di 140". Altri hanno messo in dubbio il periodo di tempo ottimistico, la comprensione del corpo umano e del cervello, ha ricordato la legge di Moore, che non è ancora scomparsa. Per ogni esperto che crede nelle idee di Kurzweil, tre pensano che abbia torto.

Ma la cosa più interessante di questo è che la maggior parte degli esperti che non sono d'accordo con lui generalmente non dice che questo è impossibile. Invece di dire "stronzate, questo non accadrà mai", dicono qualcosa del tipo "tutto questo accadrà se arriviamo all'ISI, ma questo è il trucco". Bostrom, uno degli acclamati esperti di intelligenza artificiale che avvertono del pericolo dell'intelligenza artificiale, ammette anche:

“Non è rimasto quasi nessun problema che la superintelligenza non possa risolvere o addirittura aiutarci a risolvere. Malattia, povertà, distruzione dell'ambiente, sofferenza di ogni tipo: tutta questa superintelligenza con l'aiuto della nanotecnologia può risolvere in un attimo. La superintelligenza può anche darci una durata illimitata arrestando e invertendo il processo di invecchiamento utilizzando la nanomedicina o la capacità di caricarci nel cloud. La superintelligenza può anche creare opportunità per un aumento infinito delle capacità intellettuali ed emotive; può aiutarci a creare un mondo in cui vivremo con gioia e comprensione, avvicinandoci ai nostri ideali e realizzando regolarmente i nostri sogni.

Questa è una citazione di uno dei critici di Kurzweil, tuttavia, che ammette che tutto questo è possibile se riusciamo a creare un'ASI sicura. Kurzweil ha semplicemente definito cosa dovrebbe diventare la superintelligenza artificiale, se possibile. E se è un buon dio.

La critica più ovvia ai sostenitori della zona di comfort è che possono essere dannatamente sbagliati nel valutare il futuro dell'ISI. Nel suo libro The Singularity, Kurzweil ha dedicato 20 pagine su 700 potenziali minacce ISI. La domanda non è quando arriveremo all'ISI, la domanda è quale sarà la sua motivazione. Kurzweil risponde a questa domanda con cautela: “L'ISI nasce da molti sforzi disparati e sarà profondamente integrato nelle infrastrutture della nostra civiltà. In effetti, sarà strettamente integrato nel nostro corpo e nel nostro cervello. Rifletterà i nostri valori perché sarà uno con noi.

Ma se la risposta è, perché così tante persone intelligenti in questo mondo sono preoccupate per il futuro dell'intelligenza artificiale? Perché Stephen Hawking afferma che lo sviluppo dell'ISI "potrebbe significare la fine della razza umana"? Bill Gates dice che "non capisce le persone che non si preoccupano" di questo. Elon Musk teme che stiamo "evocando un demone". Perché molti esperti considerano l'ISI come la più grande minaccia per l'umanità?

Basato su materiali di waitbutwhy.com, compilazione di Tim Urban. L'articolo utilizza materiali dalle opere di Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog e Kai Sotal, Susan Schneider, Stuart Russell e Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Autore: Ilya Khel

Parte terza: perché potrebbe essere la nostra ultima invenzione?

Raccomandato: