Quando I Robot E L'intelligenza Artificiale Meriteranno I Diritti Umani? - Visualizzazione Alternativa

Sommario:

Quando I Robot E L'intelligenza Artificiale Meriteranno I Diritti Umani? - Visualizzazione Alternativa
Quando I Robot E L'intelligenza Artificiale Meriteranno I Diritti Umani? - Visualizzazione Alternativa

Video: Quando I Robot E L'intelligenza Artificiale Meriteranno I Diritti Umani? - Visualizzazione Alternativa

Video: Quando I Robot E L'intelligenza Artificiale Meriteranno I Diritti Umani? - Visualizzazione Alternativa
Video: “PERSONA UMANA E INTELLIGENZA ARTIFICIALE. Un’etica per lo sviluppo tecnologico” 2024, Potrebbe
Anonim

Film e serie televisive come Blade Runner, People e Westworld, dove ci mostrano robot high-tech che non hanno diritti, non possono che preoccupare le persone con una coscienza. Dopotutto, non solo mostrano il nostro atteggiamento estremamente aggressivo nei confronti dei robot, ma ci fanno vergognare come specie. Siamo tutti abituati a pensare di essere migliori di quei personaggi che vediamo sullo schermo e, quando sarà il momento, trarremo le giuste conclusioni e ci comporteremo con macchine intelligenti con grande rispetto e dignità.

Con ogni passo del progresso nella robotica e nello sviluppo dell'intelligenza artificiale, ci stiamo avvicinando al giorno in cui le macchine abbineranno le capacità umane in ogni singolo aspetto: intelligenza, coscienza ed emozione. Quando ciò accadrà, dovremo decidere: di fronte a noi c'è un oggetto del livello del frigorifero o una persona. E dovremmo dare loro diritti umani, libertà e protezione equivalenti.

Image
Image

Questa domanda è molto vasta e non sarà possibile risolverla subito, anche con tutto il desiderio. Dovrà essere considerato e risolto immediatamente da una varietà di punti di vista: etica, sociologia, diritto, neurobiologia e teoria dell'IA. Ma per qualche ragione anche adesso non sembra affatto che tutte queste parti giungano a una conclusione comune che si adatta a tutti.

Perché potenziare l'IA?

In primo luogo, dobbiamo ammettere che siamo già inclini alla moralità quando vediamo robot che sono molto simili a noi. Più le macchine intellettualmente sviluppate e "vive" sembrano, più vorremo credere che siano come noi, anche se non lo sono.

Una volta che le macchine hanno capacità umane di base, che ci piaccia o no, dovremo considerarle socialmente uguali, e non solo come una cosa, come una proprietà privata di qualcuno. La difficoltà risiederà nella nostra comprensione delle caratteristiche o dei tratti cognitivi, se vogliamo, con cui sarà possibile valutare l'entità di fronte a noi dal punto di vista della moralità e, quindi, considerare la questione dei diritti sociali di questa entità. Filosofi ed etici hanno lottato con questo problema per migliaia di anni.

Video promozionale:

"Ci sono tre soglie etiche più importanti: la capacità di provare dolore ed empatia, consapevolezza di sé e la capacità di vedere le cose da un punto di vista morale e prendere decisioni appropriate", afferma James Hughes, sociologo, futurista e capo dell'Istituto di etica e nuove tecnologie.

“Nelle persone, se sei fortunato, tutti e tre questi aspetti assolutamente importanti si sviluppano in modo sequenziale e graduale. Ma cosa succederebbe se, dal punto di vista dell'intelligenza artificiale, si credesse che un robot che non possiede autocoscienza, non prova gioia o dolore, ha anche il diritto di essere chiamato cittadino? Dobbiamo scoprire se sarà effettivamente così.

È importante capire che l'intelligenza, la sensibilità (la capacità di percepire e sentire le cose), la coscienza e l'autoconsapevolezza (la consapevolezza di se stessi rispetto agli altri) sono cose completamente diverse. Le macchine o gli algoritmi possono essere intelligenti (se non più intelligenti) degli umani, ma mancano di questi tre ingredienti essenziali. Calcolatrici, Siri, algoritmi di borsa: tutti sono certamente intelligenti, ma non sono in grado di realizzarsi, non sono in grado di provare, mostrare emozioni, sentire colori, sapore di popcorn.

Secondo Hughes, la consapevolezza di sé può manifestarsi insieme alla dotazione dell'essenza con diritti personali minimi, come il diritto di essere libero, non uno schiavo, il diritto all'interesse personale nella vita, il diritto alla crescita e all'auto-miglioramento. Quando si acquisiscono consapevolezza di sé e fondamenti morali (la capacità di distinguere "ciò che è buono e ciò che è cattivo" secondo i principi morali della società moderna), questa entità dovrebbe essere dotata di diritti umani a tutti gli effetti: il diritto di concludere accordi, il diritto alla proprietà, al voto e così via.

"I valori fondamentali dell'Illuminismo ci obbligano a considerare queste caratteristiche dal punto di vista dell'uguaglianza di tutti di fronte a tutti, e ad abbandonare le visioni radicalmente conservatrici che erano generalmente accettate prima e che davano diritti, ad esempio, solo a persone di un certo background sociale, di genere o territoriale", dice Hughes.

Ovviamente, la nostra civiltà non ha ancora raggiunto obiettivi sociali elevati, poiché non riusciamo ancora a comprendere i nostri diritti e stiamo ancora cercando di espanderli.

Chi ha il diritto di essere chiamato "persona"?

Tutte le persone sono individui, ma non tutti gli individui sono persone. Linda MacDonald-Schlenn, specialista in bioetica presso l'Università della California, Monterey Bay e docente presso l'Alden Martha Institute of Bioethics presso l'Albany Medical Center, afferma che ci sono già precedenti nella legge in cui i soggetti non umani sono trattati come soggetti di diritto. E questo, a suo avviso, è un risultato molto grande, poiché in questo modo creiamo le basi per aprire la possibilità di dotare l'AI in futuro di propri diritti, equivalenti ai diritti umani.

“Negli Stati Uniti, tutte le società hanno personalità giuridica. In altri paesi, ci sono anche precedenti in cui cercano di riconoscere l'interconnessione e l'uguaglianza di tutti gli esseri viventi su questo pianeta. Ad esempio, in Nuova Zelanda, tutti gli animali sono considerati intelligenti dalla legge e il governo incoraggia attivamente lo sviluppo di codici di benessere e di condotta etica. La Corte Suprema dell'India ha chiamato i fiumi Gange e Yamuna "esseri viventi" e ha dato loro lo status di entità legali separate ".

Inoltre, negli Stati Uniti, come in molti altri paesi, alcune specie di animali, comprese le grandi scimmie, gli elefanti, le balene e i delfini, sono soggette a diritti estesi per la protezione contro la reclusione, la sperimentazione e l'abuso. Ma a differenza dei primi due casi, in cui vogliono prendere corporazioni e fiumi sotto la personalità, la questione degli animali non sembra affatto un tentativo di soggiogare le norme legali. I sostenitori di queste proposte sostengono il supporto di una personalità reale, cioè un individuo che può essere caratterizzato sulla base delle sue determinate capacità cognitive (mentali), come la consapevolezza di sé.

MacDonald-Glenn afferma che è importante in tali questioni abbandonare la visione conservatrice e smettere di considerare, che si tratti di animali o intelligenza artificiale, semplici creature e macchine senz'anima. Le emozioni non sono un lusso, dice uno specialista di bioetica, ma parte integrante del pensiero razionale e del comportamento sociale. Sono queste caratteristiche, e non la capacità di contare i numeri, che dovrebbero svolgere un ruolo decisivo nel decidere la questione di “chi” o “cosa” dovrebbe avere diritto a una valutazione morale.

Ci sono prove crescenti di predisposizione emotiva negli animali nella scienza. L'osservazione di delfini e balene mostra che sono in grado di mostrare almeno tristezza e la presenza di cellule fusate (interneuroni che collegano neuroni distanti e partecipano a processi complessi che attivano il comportamento sociale) può indicare, tra le altre cose, che sono in grado di empatizzare. Gli scienziati descrivono anche la manifestazione di vari comportamenti emotivi nelle scimmie e negli elefanti. È possibile che anche un'IA cosciente sia in grado di acquisire queste capacità emotive, il che, ovviamente, aumenterà in modo significativo il loro status morale.

“Limitare la diffusione dello status morale solo a coloro che pensano razionalmente può lavorare con l'IA, ma allo stesso tempo, questa idea si sta muovendo contro l'intuizione morale. Dopotutto, la nostra società protegge già coloro che non sono in grado di pensare razionalmente: neonati, persone in coma, persone con gravi problemi fisici e mentali. Di recente, le leggi sul benessere degli animali sono state promosse attivamente , afferma MacDonald-Glenn.

Sulla questione di chi dovrebbe essere assegnato lo status morale, MacDonald-Glenn concordò con il filosofo morale inglese del XVIII secolo Jeremiah Bentham, che una volta disse:

“La domanda non è se possono ragionare? Oppure possono parlare? Ma sono capaci di soffrire?"

Può una macchina acquisire consapevolezza di sé?

Naturalmente, non tutti concordano sul fatto che i diritti umani si estendono agli esseri non umani, anche se quei soggetti sono in grado di mostrare abilità come emozioni o comportamenti autoriflessivi. Alcuni pensatori sostengono che solo le persone dovrebbero avere il diritto di partecipare alle relazioni sociali e il mondo intero ruota direttamente attorno all'Homo sapiens, e tutto il resto - la tua console di gioco, il frigorifero, il cane o l'interlocutore androide - è "tutto il resto".

Un avvocato, uno scrittore americano e un membro anziano del Wesley J. Smith Institute for Human Exceptionalism, crede che noi stessi non abbiamo ancora ricevuto i diritti umani universali, ed è tanto più prematuro pensare a lucenti pezzi di ferro e ai loro diritti.

"Nessuna macchina dovrebbe mai essere considerata anche un potenziale portatore di diritti", afferma Smith.

“Anche le macchine più avanzate rimangono e rimarranno sempre macchine. Questo non è un essere vivente. Questo non è un organismo vivente. Una macchina sarà sempre solo un insieme di programmi, un insieme di codice, sia che sia creato da un essere umano o da un altro computer, o anche programmato in modo indipendente.

A suo parere, solo le persone e le risorse umane dovrebbero essere considerate come individui.

“Abbiamo delle responsabilità verso gli animali che soffrono ingiustamente, ma anche loro non dovrebbero mai essere visti come 'qualcuno'”, osserva Smith.

Qui dovremmo fare una piccola osservazione e ricordare al lettore di lingua russa che in Occidente gli animali sono considerati oggetti inanimati. Pertanto, è spesso possibile trovare il pronome "esso" (cioè "esso"), e non "lei" o "lui" (cioè "lei" o "lui") quando si tratta di un particolare animale. Questa regola viene solitamente ignorata solo in relazione agli animali domestici - cani, gatti e persino pappagalli - in cui le famiglie vedono membri a pieno titolo delle loro famiglie. Tuttavia, Smith sottolinea che il concetto di un animale come una "ragionevole proprietà privata" è già un prezioso identificatore, in quanto "ci rende responsabili di usarlo in un modo che non gli faccia male. Alla fine, "prendere a calci il cane" e "prendere a calci il frigorifero" sono due grandi differenze ".

Un punto ovviamente controverso nell'analisi di Smith è l'assunto che gli esseri umani o gli organismi biologici abbiano certe "caratteristiche" che una macchina non potrà mai acquisire. In epoche precedenti, queste caratteristiche trascurate erano l'anima, lo spirito o qualche forza vitale soprannaturale intangibile. La teoria del vitalismo postula che i processi negli organismi biologici dipendono da questa forza e non possono essere spiegati in termini di fisica, chimica o biochimica. Tuttavia, ha perso rapidamente la sua rilevanza sotto la pressione di professionisti e logici, che non sono abituati a collegare il lavoro del nostro cervello con alcune forze soprannaturali. Eppure la convinzione che una macchina non possa mai pensare e sentire come fanno gli umani è ancora saldamente radicata nelle menti anche tra gli scienziati, il che riflette ancora una volta il fatto cheche la comprensione dei fondamenti biologici dell'autocoscienza nelle persone è ancora lontana dall'essere ideale e molto limitata.

Lori Marino, docente senior di neuroscienze e biologia comportamentale (etologia) presso l'Emory Center for Ethics, afferma che le macchine probabilmente non otterranno mai alcun diritto, per non parlare dei diritti a livello umano. La ragione di ciò sono le scoperte di neuroscienziati come Antonio Damasio, il quale ritiene che la coscienza sarà determinata solo dal fatto che il soggetto abbia un sistema nervoso con canali che trasmettono ioni eccitati, o, come dice la stessa Marino, ioni caricati positivamente che passano attraverso le membrane cellulari all'interno. sistema nervoso.

“Questo tipo di trasmissione neurale si trova anche negli organismi viventi più semplici: prostitute e batteri. E questo è lo stesso meccanismo che ha avviato lo sviluppo dei neuroni, poi il sistema nervoso e poi il cervello , dice Marino.

Se parliamo di robot e intelligenza artificiale, almeno la loro generazione attuale obbedisce al movimento di ioni caricati negativamente. Cioè, stiamo parlando di due meccanismi dell'essere completamente diversi”.

Se segui questa logica, Marino vuole dire che anche una medusa proverà più sentimenti di uno qualsiasi dei robot più complessi della storia.

"Non so se questa ipotesi sia corretta o meno, ma è sicuramente una questione che deve essere considerata", dice Marino.

“Inoltre, la curiosità gioca solo in me, cercando di scoprire come esattamente un 'organismo vivente' possa differire da una macchina davvero complessa. Tuttavia, credo che la protezione legale debba essere prima di tutto fornita agli animali, e solo allora dovrebbe essere considerata la probabilità che venga fornita per oggetti, che, ovviamente, i robot sono, dal mio punto di vista,.

David Chalmers, direttore del Center for the Study of the Mind, Brain and Consciousness presso la New York University, afferma che è molto difficile trarre conclusioni accurate su tutta questa teoria. Principalmente a causa del fatto che allo stato attuale tutte queste idee non sono ancora diffuse e quindi vanno ben oltre lo scopo delle prove.

“Al momento non c'è motivo di credere che qualche tipo speciale di elaborazione delle informazioni nei canali ionici dovrebbe determinare la presenza o l'assenza di coscienza. Anche se questo tipo di elaborazione fosse essenziale, non avremmo motivo di credere che richieda una biologia speciale e non un modello comune di elaborazione delle informazioni che conosciamo. E se è così, allora in questo caso, la simulazione dell'elaborazione delle informazioni da parte di un computer potrebbe essere considerata come coscienza.

Un altro scienziato che crede che la coscienza non sia un processo computazionale è Stuart Hameroff, professore di anestesiologia e psicologia all'Università dell'Arizona. Secondo lui, la coscienza è un fenomeno fondamentale dell'Universo ed è inerente a tutti gli esseri viventi e inanimati. Ma allo stesso tempo, la coscienza umana è molto superiore alla coscienza di animali, piante e oggetti inanimati. Hameroff è un sostenitore della teoria del panpsichismo, che considera l'animazione generale della natura. Quindi, seguendo i suoi pensieri, l'unico cervello che è incline alla vera valutazione soggettiva e all'introspezione è quello che consiste di materia biologica.

L'idea di Hameroff sembra interessante, ma è anche al di fuori del mainstream dell'opinione scientifica. È vero che ancora non sappiamo come la coscienza e la consapevolezza di sé appaiano nel nostro cervello. Sappiamo solo che è così. È quindi possibile considerarlo come un processo soggetto alle regole generali della fisica? Può essere. Secondo lo stesso Marino, la coscienza non può essere riprodotta in un flusso di "zeri" e "uno", ma questo non significa che non si possa discostarsi dal paradigma generalmente accettato noto come architettura di von Neumann e creare un sistema ibrido di IA in cui la coscienza artificiale sarà realizzato con la partecipazione di componenti biologici.

Biopod dal film "Existence"
Biopod dal film "Existence"

Biopod dal film "Existence"

Ed Boyden, neuroscienziato del Synthetic Neurobiology Group e docente senior al MIT Media Lab, dice che siamo troppo giovani come specie per porre domande del genere.

"Non credo che abbiamo una definizione funzionale della coscienza che può essere utilizzata direttamente per misurarla o crearla artificialmente", ha detto Boyden.

“Da un punto di vista tecnico non si può nemmeno dire se sono cosciente. Quindi, al momento è molto difficile anche solo immaginare se le macchine saranno in grado di trovarlo.

Boyden continua a non credere che non saremo mai in grado di ricreare la coscienza in un guscio alternativo (ad esempio, in un computer), ma ammette che al momento c'è disaccordo tra gli scienziati su cosa esattamente sarà importante per creare una simile emulazione dell'intelligenza digitale.

"Dobbiamo lavorare molto di più per capire qual è esattamente il collegamento chiave", afferma Boyden.

Chalmers, a sua volta, ci ricorda che non abbiamo nemmeno capito come si risveglia la coscienza in un cervello vivente, quindi cosa possiamo dire delle macchine. Allo stesso tempo, crede che non abbiamo ancora motivo di credere che le macchine biologiche possano avere coscienza, mentre quelle sintetiche no.

"Una volta compreso come nasce la coscienza nel cervello, possiamo capire quante macchine saranno in grado di avere questa coscienza", commenta Chalmers.

Ben Herzel, capo di Hanson Robotics e fondatore della OpenCog Foundation, afferma che abbiamo già teorie e modelli interessanti su come la coscienza si manifesta nel cervello, ma nessuno di loro arriva a un denominatore comune e non rivela tutti i dettagli.

“Questa è ancora una domanda aperta, la cui risposta si nasconde solo dietro poche opinioni diverse. Il problema è anche legato al fatto che molti scienziati aderiscono a diversi approcci filosofici per descrivere la coscienza, anche se concordano con fatti e teorie scientifiche basate su osservazioni scientifiche del lavoro del cervello e dei computer.

Come possiamo determinare la coscienza di una macchina?

L'emergere della coscienza in una macchina è solo una domanda. Non meno difficile è la questione di come esattamente possiamo rilevare la coscienza in un robot o IA. Scienziati come Alan Turing hanno studiato questo problema per decenni, arrivando infine a test di lingua per determinare se un intervistato fosse cosciente. Oh, se solo fosse così semplice. La conclusione è che i chat bot avanzati (programmi per comunicare con le persone) sono già in grado di circondare le persone che iniziano a credere che ci sia una persona vivente di fronte a loro, non una macchina. In altre parole, abbiamo bisogno di un metodo di controllo più efficiente e convincente.

“La definizione di individualità nell'intelligenza artificiale è complicata dal problema dello 'zombie filosofico'. In altre parole, puoi creare una macchina che sarà molto, molto brava a imitare la comunicazione umana, ma allo stesso tempo non avrà una propria identità e coscienza”, dice Hughes.

I due altoparlanti intelligenti di Google Home stanno facendo chiacchiere
I due altoparlanti intelligenti di Google Home stanno facendo chiacchiere

I due altoparlanti intelligenti di Google Home stanno facendo chiacchiere

Di recente abbiamo assistito a un ottimo esempio di questo, quando una coppia di altoparlanti intelligenti di Google Home ha parlato tra loro. Tutto questo è stato filmato e trasmesso in diretta. Nonostante il fatto che il livello di autoconsapevolezza di entrambi i parlanti non fosse superiore a un mattone, la natura stessa della conversazione, che divenne sempre più intensa nel tempo, assomigliava alla comunicazione di due esseri umanoidi. E questo, a sua volta, dimostra ancora una volta che la questione della differenza tra esseri umani e intelligenza artificiale diventerà solo più complicata e acuta nel tempo.

Una soluzione, secondo Hughes, non è solo testare il comportamento dei sistemi di IA in test come il test di Turing, ma anche analizzare l'intera complessità interna di questo sistema, come suggerito dalla teoria di Giulio Tononi. In questa teoria, la coscienza è intesa come informazione integrata (F). Quest'ultima, a sua volta, è definita come la quantità di informazioni create da un complesso di elementi, che è maggiore della somma delle informazioni create dai singoli elementi. Se la teoria di Tononi è corretta, allora possiamo usare Ф non solo per determinare il comportamento di tipo umano del sistema, ma possiamo anche scoprire se è abbastanza complesso da avere la nostra esperienza cosciente interna simile a quella umana. Allo stesso tempo, la teoria indica che anche con un comportamento diverso, non simile al comportamento umano, nonché un modo di pensare diverso,il sistema può essere considerato cosciente se il complesso delle sue informazioni integrate sarà in grado di superare i necessari controlli.

“Accettare che sia i sistemi di borsa che i sistemi di sicurezza computerizzati possano avere coscienza sarebbe un grande passo lontano dall'antropocentrismo, anche se questi sistemi non mostrano dolore e autocoscienza. Questo ci aprirà davvero la strada per formare e discutere questioni di norme etiche postumane.

Un'altra possibile soluzione potrebbe essere la scoperta dei correlati neurali della coscienza nelle macchine. Cioè, stiamo parlando di determinare quelle parti della macchina che sono responsabili della formazione della coscienza. Se la macchina ha tali parti e si comporta esattamente come previsto, allora possiamo davvero valutare il livello di coscienza.

Quali diritti dovremmo dare alle macchine?

Un giorno il robot guarderà una persona in faccia e chiederà i diritti umani. Ma se li meriterà? Come accennato in precedenza, di fronte a noi in questo momento potrebbe esserci un normale "zombie", che si comporta come è stato programmato, e cerca di ingannarci per ottenere dei privilegi. A questo punto, dobbiamo essere estremamente attenti a non cadere nel trucco e potenziare la macchina inconscia. Una volta capito come misurare la mente di una macchina e imparato a valutare i livelli della sua coscienza e autoconsapevolezza, solo allora possiamo iniziare a parlare della possibilità di considerare la questione se l'agente in piedi di fronte a noi meriti determinati diritti e protezione o non meriti.

Fortunatamente per noi, questo momento non arriverà presto. Innanzitutto, gli sviluppatori di intelligenza artificiale devono creare un "cervello digitale di base" completando l'emulazione del sistema nervoso di vermi, scarafaggi, topi, conigli e così via. Queste emulazioni di computer possono esistere come avatar digitali e robot nel mondo reale. Non appena ciò accadrà, queste entità intelligenti cesseranno di essere normali oggetti di ricerca ed eleveranno il loro status a soggetti aventi diritto alla valutazione morale. Ma ciò non significa che queste semplici emulazioni meritino automaticamente l'equivalente dei diritti umani. Piuttosto, la legge dovrà difenderli da abusi e abusi (allo stesso modo dei difensori dei diritti umani proteggono gli animali dagli abusi negli esperimenti di laboratorio).

In definitiva, o attraverso la modellazione reale fin nei minimi dettagli, o attraverso il desiderio di capire come funziona il nostro cervello da un punto di vista computazionale e algoritmico, la scienza arriverà a creare emulazioni informatiche del cervello umano. A questo punto, dovremmo già essere in grado di determinare la presenza della coscienza nelle macchine. Almeno uno vorrebbe sperarlo. Non voglio nemmeno pensare che possiamo trovare un modo per risvegliare una scintilla di coscienza in macchina, ma allo stesso tempo noi stessi non capiremo cosa abbiamo fatto. Sarà un vero incubo.

Una volta che i robot e l'IA acquisiscono queste abilità di base, il nostro protetto computerizzato dovrà superare i test di personalità. Non abbiamo ancora una "ricetta" universale per la coscienza, ma il solito insieme di misurazioni, di regola, è associato alla valutazione del livello minimo di intelligenza, autocontrollo, senso del passato e del futuro, empatia e capacità di manifestare il libero arbitrio.

"Se le tue scelte sono predeterminate per te, non puoi assegnare valore morale a decisioni che non sono le tue", commenta MacDonald-Glenn.

Solo dopo aver raggiunto questo livello di difficoltà di valutazione la macchina potrà diventare candidata per i diritti umani. Tuttavia, è importante comprendere e accettare il fatto che i robot e l'intelligenza artificiale avranno bisogno almeno dei diritti di protezione di base se superano i test. Ad esempio, lo scienziato e futurista canadese George Dvorsky ritiene che i robot e l'intelligenza artificiale meriteranno la seguente serie di diritti se riusciranno a superare il test della personalità:

- Il diritto di non disconnettersi contro la propria volontà;

- Il diritto all'accesso illimitato e completo al proprio codice digitale;

- Il diritto di proteggere il tuo codice digitale da influenze esterne contro la tua volontà;

- Il diritto di copiare (o non copiare) te stesso;

- Il diritto alla privacy (ovvero il diritto di nascondere il proprio stato psicologico attuale).

In alcuni casi, può essere che la macchina non sia in grado di far valere i propri diritti in modo indipendente, quindi è necessario prevedere la possibilità quando le persone (così come altri cittadini che non sono persone) possono agire come rappresentanti di tali candidati per individui. È importante capire che un robot o un'intelligenza artificiale non devono essere intellettualmente e moralmente perfetti per poter superare una valutazione della personalità e rivendicare l'equivalente dei diritti umani. È importante ricordare che anche in questi aspetti le persone sono tutt'altro che ideali, quindi le stesse regole saranno applicate in modo equo alle macchine intelligenti. L'intelligenza è generalmente una cosa difficile. Il comportamento umano è spesso molto spontaneo, imprevedibile, caotico, incoerente e irrazionale. I nostri cervelli sono tutt'altro che ideali, quindi dobbiamo tenerne conto quando prendiamo decisioni sull'IA.

Allo stesso tempo, una macchina consapevole di sé, come ogni cittadino responsabile e rispettoso della legge, deve rispettare le leggi, le norme e le regole prescritte dalla società. Almeno se vuole davvero diventare una persona autonoma a tutti gli effetti e parte di questa società. Prendiamo, ad esempio, i bambini o le persone mentalmente disabili. Hanno diritti? Certamente. Ma siamo responsabili delle loro azioni. Dovrebbe essere lo stesso con i robot e l'IA. A seconda delle loro capacità, devono essere responsabili di se stessi o avere un tutore che non solo possa agire come difensore dei loro diritti, ma anche assumersi la responsabilità delle loro azioni.

Se ignori questa domanda

Una volta che le nostre macchine raggiungono un certo livello di complessità, non possiamo più ignorarle dal punto di vista della società, delle istituzioni del potere e del diritto. Non avremo motivi validi per negare loro i diritti umani. Altrimenti, equivarrà a discriminazione e schiavitù.

La creazione di un chiaro confine tra esseri biologici e macchine sembrerà una chiara espressione della superiorità umana e dello sciovinismo ideologico: le persone biologiche sono speciali e solo l'intelligenza biologica conta.

“Se consideriamo il nostro desiderio o riluttanza ad espandere i confini della nostra moralità e la quintessenza del concetto di individualità, la domanda importante suonerà così: che tipo di persone vogliamo essere? Seguiremo la “regola d'oro” in questa faccenda (fai del resto come vorresti essere trattato con te) o ignoreremo i nostri valori morali?”Chiede MacDonald-Glenn.

L'empowerment dell'IA sarà un importante precedente nella storia umana. Se possiamo trattare l'IA come individui socialmente uguali, allora questo sarà un riflesso diretto della nostra coesione sociale e una testimonianza del nostro sostegno per un senso di giustizia. La nostra incapacità di risolvere questo problema potrebbe trasformarsi in una protesta sociale generale e, forse, persino in un confronto tra IA e umani. E dato il potenziale superiore dell'intelligenza artificiale, questo potrebbe essere un vero disastro per quest'ultima.

È anche importante rendersi conto che il rispetto dei diritti dei robot in futuro può avvantaggiare anche altri individui: cyborg, persone transgeniche con DNA estraneo, così come persone con cervelli copiati, digitalizzati e caricati in supercomputer.

Siamo ancora molto lontani dalla creazione di una macchina che meriti i diritti umani. Tuttavia, se si considera quanto sia complessa la questione e qual è esattamente la posta in gioco, sia per l'intelligenza artificiale che per gli esseri umani, difficilmente si può dire che pianificare in anticipo non sia necessario.

NIKOLAY KHIZHNYAK

Raccomandato: