Quasi Umano: Una Macchina Senziente Merita Relazioni Umane? - Visualizzazione Alternativa

Sommario:

Quasi Umano: Una Macchina Senziente Merita Relazioni Umane? - Visualizzazione Alternativa
Quasi Umano: Una Macchina Senziente Merita Relazioni Umane? - Visualizzazione Alternativa

Video: Quasi Umano: Una Macchina Senziente Merita Relazioni Umane? - Visualizzazione Alternativa

Video: Quasi Umano: Una Macchina Senziente Merita Relazioni Umane? - Visualizzazione Alternativa
Video: Se l'arte della seduzione fosse un'auto sportiva, la fiducia in se stessi sarebbe il suo motore 2024, Potrebbe
Anonim

Hai familiarità con l '"esperimento del carrello da miniera" mentale? Fu formulato per la prima volta nel 1967 dal filosofo inglese Philip Foote, ma in seguito ricevette interpretazioni leggermente diverse. Il concetto classico dell'esperimento è trovare una risposta alla seguente domanda: “Un pesante carrello incontrollabile sta correndo lungo i binari. Sulla strada ci sono cinque persone legate ai binari da un filosofo pazzo. Fortunatamente, puoi cambiare l'interruttore e quindi il carrello andrà su un binario di raccordo diverso. Sfortunatamente, c'è una persona sul binario di raccordo, anch'essa legata ai binari ". In un modo o nell'altro, il risultato della tua scelta è ciao alla morte: una persona o un gruppo di cinque moriranno. Quali sono le tue azioni?

Diverse versioni di Trolley Problems trattano diverse combinazioni di potenziali vittime. In una si dà la scelta tra un gruppo di criminali e una persona completamente innocente, nell'altra si propone di fare una scelta a favore di una persona sana e di un gruppo di malati gravi, nella terza si propone di mettere da una parte della bilancia la vita di un grande chirurgo e dall'altra di un bambino. Ci sono molte opzioni, ma tutte ruotano attorno alla capacità di una persona di prendere decisioni razionali di natura morale.

In un nuovo studio, un team di scienziati dell'Università di Nijmegen nei Paesi Bassi e dell'Università Ludwig-Maximilian di Monaco (Germania) ha deciso di condurre un simile "esperimento con il carrello", ma questa volta ai partecipanti è stato chiesto di scegliere tra un robot umano e uno umanoide. I risultati sono stati piuttosto interessanti. In determinate circostanze, le persone erano pronte a salvare il robot sacrificando la vita umana. Gli scienziati hanno pubblicato i loro risultati sulla rivista Social Cognition.

I robot moderni sono utilizzati in molte aree. Non si tratta solo di produzione. Cominciano ad essere utilizzati a casa, nei negozi, negli ospedali, negli hotel come aiutanti. Con lo sviluppo della robotica e dell'intelligenza artificiale, queste macchine stanno diventando sempre più "intelligenti". I robot vengono spesso utilizzati per eseguire compiti molto complessi e persino pericolosi. Ad esempio, gli eserciti moderni utilizzano macchine per cercare ordigni esplosivi e per eliminare le mine. Le osservazioni mostrano che una persona è in grado di attaccarsi a una macchina. E più alto è questo attaccamento, più alta può essere la risposta emotiva se il robot viene distrutto.

I ricercatori si sono posti il compito di capire quanto profondamente possa estendersi l'empatia umana per le macchine e quali principi morali possono influenzare il nostro comportamento in relazione a queste macchine, soprattutto perché i robot moderni stanno diventando sempre più antropomorfi. Secondo Neissen, finora ci sono pochissime ricerche per indagare su questo problema.

La domanda centrale del nuovo studio era: in quali circostanze e in che misura le persone sarebbero disposte a sacrificare un robot per salvare vite umane? Gli scienziati hanno invitato un gruppo di volontari a prendere parte all'esperimento. I partecipanti si sono trovati di fronte a un dilemma morale: salvare uno o più individui. Allo stesso tempo, alle persone è stato chiesto di scegliere prima tra un robot antropomorfo e uno ordinario che non assomiglia a una persona, poi tra una persona e un robot normale, e poi tra una persona e un robot antropomorfo.

Dallo studio è emerso che più "umanità" veniva attribuita al robot, più difficile diventava la scelta per i partecipanti. Naturalmente, in una situazione in cui c'era un'auto normale su un sentiero e una persona o un robot umanoide sull'altro, la scelta dei partecipanti all'esperimento era semplice e ovvia. Ma tutto è diventato più complicato quando, prima che una persona si trovasse di fronte a una scelta tra un robot umanoide e una persona, le persone hanno iniziato a dubitare più a lungo, notano i ricercatori. Quando i partecipanti all'esperimento hanno presentato il robot come una creatura con coscienza, i propri pensieri, esperienze, esperienze ed emozioni, allora le persone erano meno propense a sacrificarlo a favore del salvataggio di una persona completamente sconosciuta.

I ricercatori erano piuttosto preoccupati per questi risultati. Secondo loro, se le persone iniziano a "umanizzare" le macchine, ciò ci priverà dell'opportunità di utilizzarle per lo scopo per cui sono state originariamente create. Per non affrontare una situazione del genere in futuro, quando le macchine diventeranno davvero il più possibile simili alle persone, gli autori dello studio propongono di sviluppare un concetto del quadro del numero massimo consentito di tratti umani "messi" in un robot.

Panico prematuro

La questione dell'umanizzazione dei robot e delle conseguenze di questa umanizzazione è così urgente in questo momento? Siamo lontani da quel punto di svolta, quando il confine tra umani e robot umanoidi sarà così sfumato che sarà problematico rispondere alla domanda su chi è di fronte a te: un'auto o una persona? Quali sono le reali conseguenze di tutto ciò che ci attende?

Secondo l'esperto, le storie spaventose e mistiche associate all'intelligenza artificiale, ai robot umanoidi e alla sofferenza che possono portare nelle nostre vite provengono direttamente dai mass media. Allo stesso tempo, l'esperto ritiene che in una situazione ipotetica, la scelta tra una macchina e una persona dipenderà principalmente dalla simpatia della persona che sceglie l'una o l'altra parte.

Nikolay Khizhnyak

Raccomandato: