Pericolosa Umanità: Perché Abbiamo Bisogno Dell'intelligenza Artificiale Intelligente? - Visualizzazione Alternativa

Sommario:

Pericolosa Umanità: Perché Abbiamo Bisogno Dell'intelligenza Artificiale Intelligente? - Visualizzazione Alternativa
Pericolosa Umanità: Perché Abbiamo Bisogno Dell'intelligenza Artificiale Intelligente? - Visualizzazione Alternativa

Video: Pericolosa Umanità: Perché Abbiamo Bisogno Dell'intelligenza Artificiale Intelligente? - Visualizzazione Alternativa

Video: Pericolosa Umanità: Perché Abbiamo Bisogno Dell'intelligenza Artificiale Intelligente? - Visualizzazione Alternativa
Video: Etica e intelligenza artificiale 2024, Potrebbe
Anonim

Quando Norbert Wiener, il padre della cibernetica, scrisse il suo libro Human Uses of Human Beings nel 1950, i tubi a vuoto erano ancora i mattoni elettronici di base e, in effetti, c'erano solo pochi computer al lavoro. Tuttavia, ha immaginato il futuro che ora vediamo con una precisione senza precedenti, confondendo solo piccoli dettagli.

Prima di qualsiasi altro filosofo dell'intelligenza artificiale, si rese conto che l'intelligenza artificiale non solo imiterà - e sostituirà - gli esseri umani in molti tipi di attività intellettuali, ma cambierà anche le persone nel processo. "Siamo solo vortici in un fiume di acqua che scorre sempre", ha scritto. "Non siamo qualcosa che vive, siamo modelli che si perpetuano."

Ad esempio, quando si presentano molte opportunità allettanti, siamo disposti a pagare e accettare i piccoli costi di gestione di un'impresa per accedere a nuove opportunità. E molto presto diventiamo dipendenti da nuovi strumenti, perdiamo la capacità di esistere senza di essi. Le opzioni diventano richieste.

Questa è una storia molto antica dell'evoluzione e molti dei suoi capitoli ci sono ben noti. La maggior parte dei mammiferi può sintetizzare la propria vitamina C, ma i primati mangiatori di frutta hanno perso questa capacità intrinseca. Gli schemi che si ripetono da soli che chiamiamo esseri umani ora si basano su vestiti, alimenti trasformati, vitamine, siringhe, carte di credito, smartphone e Internet. E domani, se non oggi, dall'intelligenza artificiale.

Wiener ha previsto diversi problemi con questo stato di cose che Alan Turing e altri primi ottimisti dell'IA hanno ampiamente trascurato. La vera minaccia, ha detto, era:

… è che tali macchine, sebbene impotenti di per sé, possono essere usate dagli umani o bloccare gli esseri umani per aumentare il loro controllo sul resto della razza, oppure i leader politici possono provare a prendere il controllo delle loro popolazioni usando metodi politici piuttosto che le macchine stesse, così angusti e indifferenti all'uomo, come se fossero inventati meccanicamente.

Ovviamente, questi pericoli sono ora molto rilevanti.

Nei media, ad esempio, le innovazioni nell'audio e nel video digitali ci consentono di pagare un piccolo prezzo (agli occhi di audiofili e spettatori) per allontanarci dai formati analogici, e in cambio ricevere un modo estremamente semplice - troppo semplice - di riprodurre dischi quasi senza restrizioni.

Video promozionale:

Image
Image

Ma c'è un enorme costo nascosto. Il ministero della verità di Orwell è diventato una vera opportunità. Le tecniche dell'IA per creare falsi "record" virtualmente indistinguibili rendono gli strumenti che abbiamo usato per le indagini obsoleti negli ultimi 150 anni.

Non ci resta che abbandonare la breve era delle prove fotografiche e tornare a quel vecchio mondo in cui la memoria umana e la fiducia erano il gold standard. Oppure possiamo sviluppare nuovi metodi di difesa e attacco nella battaglia per la verità. Uno degli esempi recenti più interessanti è il fatto che è molto più economico distruggere una reputazione che guadagnarsi e proteggere la stessa reputazione. Wiener ha visto questo fenomeno in modo molto ampio: "A lungo termine, non ci sarà differenza tra armarsi e armare il nemico". L'era dell'informazione è diventata anche un'era di disinformazione.

Ciò che possiamo fare? La chiave è la stessa osservazione di Wiener che "queste macchine" sono "esse stesse impotenti". Creiamo strumenti, non colleghi, e la vera minaccia è che non vediamo la differenza.

L'intelligenza artificiale nella sua forma attuale è parassita dell'intelligenza umana. Prende possesso senza tante cerimonie di tutto ciò che i creatori umani hanno creato e disegna schemi, comprese le nostre abitudini più segrete. Queste macchine non hanno ancora obiettivi o strategie, non sono capaci di autocritica e innovazione, studiano solo i nostri database, senza i propri pensieri e obiettivi.

Sono, come dice Wiener, indifesi non nel senso che sono incatenati o immobilizzati, no, non sono affatto agenti - non hanno la capacità di "agire per cause", come direbbe Kant.

A lungo termine, "un'intelligenza artificiale forte", o intelligenza artificiale generale, è possibile in linea di principio, ma non desiderabile. L'IA ancora più limitata che è possibile in pratica oggi non sarà malvagia. Ma rappresenta una minaccia, in parte perché può essere scambiato per una potente IA.

Quanto è forte l'intelligenza artificiale oggi?

Il divario tra i sistemi odierni ei sistemi fantascientifici che inondano l'immaginazione popolare è ancora enorme, sebbene molte persone, sia dilettanti che professionisti, tendano a sottovalutarlo. Diamo un'occhiata a Watson di IBM, che potrebbe essere rispettabile di questi tempi.

Questo supercomputer è il risultato di un processo di ricerca e sviluppo (ricerca e sviluppo) su larga scala che ha coinvolto molte persone e intelligenza di progettazione per molti secoli e utilizza migliaia di volte più energia del cervello umano. La sua vittoria in Jeopardy! è stato un vero trionfo reso possibile dai vincoli formali delle regole di Jeopardy !, ma anche quelle regole dovevano essere riviste per fargli partecipare. Ho dovuto rinunciare a un po 'di versatilità e aggiungere umanità per realizzare lo spettacolo.

Watson è una cattiva compagnia, nonostante gli annunci fuorvianti di IBM che promettono capacità di conversazione con intelligenza artificiale a entrambi i livelli, e rendere Watson un agente multiforme credibile sarebbe come trasformare una calcolatrice in Watson. Watson può essere un buon caso informatico per un tale agente, ma piuttosto un cervelletto o un'amigdala piuttosto che una mente - nella migliore delle ipotesi, un sottosistema per scopi speciali che funge da supporto, ma non quasi un sistema per pianificare e formulare obiettivi basati sull'esperienza di conversazione ricevuta.

Perché dovremmo voler creare un agente pensante e creativo da Watson? Forse l'idea geniale di Turing - il famoso test di Turing - ci ha attirati in una trappola: siamo diventati ossessionati dal creare almeno l'illusione di una persona reale seduta davanti a uno schermo, aggirando la "valle minacciosa".

Il pericolo è che da quando Turing ha presentato il suo compito - che era principalmente un compito per ingannare i giudici - i creatori di AI hanno cercato di realizzarlo utilizzando divertenti bambole umanoidi, versioni "cartoon" che affascineranno e disarmeranno i non iniziati. ELIZA di Joseph Weisenbaum, il primo chatbot, è stato un ottimo esempio di come creare un'illusione del genere, ma con un algoritmo estremamente semplice in grado di convincere le persone che stavano avendo conversazioni sincere e sincere con altre persone.

Era preoccupato per la facilità con cui le persone sono disposte a crederci. E se abbiamo scoperto qualcosa dal test annuale di Turing del Premio Lebner, è che anche le persone più intelligenti che non sono esperte nella programmazione di computer si innamorano facilmente di questi semplici trucchi.

L'atteggiamento delle persone nell'intelligenza artificiale nei confronti di tali tecniche varia da giudizio a gratificante, e il consenso è che questi trucchi non sono molto profondi, ma possono essere utili. Un cambiamento di atteggiamento che sarebbe molto gradito sarebbe una sincera ammissione che gli androidi dipinti da bambole sono false pubblicità che dovrebbero essere giudicate, non incoraggiate.

Come si può ottenere questo risultato? Una volta capito che le persone iniziano a prendere decisioni di vita o di morte seguendo i "consigli" dei sistemi di IA, le cui operazioni interne sono quasi incomprensibili, vedremo una buona ragione per coloro che esortano le persone a fidarsi di tali sistemi, per iniziare a fare affidamento sulle norme della moralità e della legge.

I sistemi di intelligenza artificiale sono strumenti molto potenti. Così potente che anche gli esperti hanno una buona ragione per non fidarsi del proprio giudizio quando ci sono “giudizi” rappresentati da questi strumenti. Ma se questi utenti degli strumenti trarranno vantaggio, finanziariamente o in altro modo, dalla diffusione di questi strumenti, devono assicurarsi di sapere come farlo con piena responsabilità, massimo controllo e giustificazione.

Concedere licenze e approvare gli operatori di tali sistemi - proprio come concediamo licenze a farmacisti, operatori di gru e altri professionisti i cui errori e valutazioni errate possono avere conseguenze disastrose - forse, con il supporto di compagnie di assicurazione e altre organizzazioni, obbligare i creatori di sistemi di intelligenza artificiale a fare molta strada cercando i punti deboli e le carenze dei loro prodotti e formando anche coloro che lavoreranno con loro.

Si può immaginare una sorta di test di Turing inverso in cui il giudice sarà oggetto della valutazione; finché non trova debolezza, violazione dei confini, lacune nel sistema, non riceverà una licenza. Un tale giudice richiederà una formazione seria per ottenere una certificazione. L'impulso di attribuire a un oggetto una capacità umana di pensare, come facciamo di solito quando incontriamo un agente intelligente, è molto, molto forte.

In effetti, la capacità di resistere all'impulso di vedere qualcosa di umanizzato è una cosa strana. Molte persone troverebbero dubbioso coltivare un tale talento, perché anche gli utenti più pragmatici del sistema sono occasionalmente "amichevoli" riguardo ai loro strumenti.

Indipendentemente dall'attenzione con cui i progettisti di intelligenza artificiale scelgono di eliminare le false sfumature "umane" nei loro prodotti, dovremmo aspettarci il fiorire di etichette, soluzioni alternative e distorsioni tollerabili della reale "comprensione" di entrambi i sistemi e dei loro operatori. Allo stesso modo in cui le droghe con una lunga lista di effetti collaterali vengono pubblicizzate in TV, o l'alcol viene pubblicizzato con un'abbondanza di caratteri piccoli con tutti gli avvertimenti richiesti dalla legge, così gli sviluppatori di intelligenza artificiale rispetteranno la legge, ma saranno sofisticati negli avvertimenti.

Perché abbiamo bisogno dell'intelligenza artificiale?

Non abbiamo bisogno di agenti coscienti artificiali. Ci sono una miriade di agenti naturali consapevoli che sono sufficienti per svolgere qualsiasi compito per professionisti e individui privilegiati. Abbiamo bisogno di strumenti intelligenti. Gli strumenti non hanno diritti e non dovrebbero avere sentimenti che possono essere feriti o utilizzati in modo improprio.

Una ragione per non creare agenti coscienti artificiali è che, sebbene possano diventare autonomi (e in linea di principio possono essere autonomi, auto-miglioranti o auto-creativi come qualsiasi persona), non dovrebbero - senza un permesso speciale - condividere con il nostro agenti naturali coscienti, la nostra vulnerabilità o la nostra mortalità.

Daniel Dennett, professore di filosofia alla Tufts University, una volta ha sfidato gli studenti in un seminario su agenti artificiali e autonomia: dammi le specifiche di un robot che può firmare un contratto con te - non un surrogato di proprietà di un'altra persona, ma da solo. Non si tratta di capire le ragioni o di manipolare la penna sulla carta, ma piuttosto la titolarità e la meritata titolarità dello status giuridico e della responsabilità morale. I bambini piccoli non possono firmare tali contratti, così come le persone disabili, il cui status giuridico li obbliga a essere sotto tutela e impone la responsabilità ai tutori.

Il problema con i robot che potrebbero voler raggiungere uno status così elevato è che, come Superman, sono troppo vulnerabili per fare tali affermazioni. Se rifiutano, cosa succederà? Quale sarà la pena per aver infranto una promessa? Verranno rinchiusi in una gabbia o smontati? Una prigione per l'intelligenza artificiale non sarà scomoda a meno che non si caricasse prima la sete di libertà che non può essere ignorata o disabilitata dalla stessa IA. Il disassemblaggio dell'IA non ucciderà le informazioni memorizzate sul suo disco e nel software.

La facilità di registrazione e trasmissione digitale dei dati, una svolta che ha consentito a software e dati di raggiungere, di fatto, l'immortalità, rende i robot invulnerabili. Se non sembra ovvio, pensa a come cambierebbe la moralità delle persone se potessimo sostenere le persone ogni settimana. Saltare giù da un ponte senza un elastico la domenica dopo un backup del venerdì può essere una decisione avventata, quindi puoi guardare il filmato della tua morte prematura in seguito.

Ecco perché non stiamo creando coscienti - vorremmo creare - agenti umanoidi, ma piuttosto un tipo completamente nuovo di creature, alcuni oracoli, inconsci, senza paura della morte, senza distrazioni da amore e odio, senza personalità: specchi di verità che quasi certamente saranno infettati dall'umano bugie.

L'uso umano degli esseri umani cambierà presto - ancora una volta - per sempre, ma se ci assumiamo la responsabilità della nostra traiettoria evolutiva, possiamo evitare pericoli inutili.

Ilya Khel

Raccomandato: