Costruire Una Macchina Morale: Chi Sarà Responsabile Dell'etica Delle Auto A Guida Autonoma? - Visualizzazione Alternativa

Sommario:

Costruire Una Macchina Morale: Chi Sarà Responsabile Dell'etica Delle Auto A Guida Autonoma? - Visualizzazione Alternativa
Costruire Una Macchina Morale: Chi Sarà Responsabile Dell'etica Delle Auto A Guida Autonoma? - Visualizzazione Alternativa

Video: Costruire Una Macchina Morale: Chi Sarà Responsabile Dell'etica Delle Auto A Guida Autonoma? - Visualizzazione Alternativa

Video: Costruire Una Macchina Morale: Chi Sarà Responsabile Dell'etica Delle Auto A Guida Autonoma? - Visualizzazione Alternativa
Video: Simulatore Guida Autonoma Kia, Ginevra marzo 2016 Salone dell'Auto 2024, Marzo
Anonim

Stai guidando lungo un'autostrada quando un uomo corre su una strada trafficata. Le auto si muovono intorno a te e hai una frazione di secondo per prendere una decisione: cercare di evitare una persona e creare il rischio di un incidente? Continuare a guidare nella speranza che abbia tempo? Frenare? Come valuti le probabilità di avere un bambino legato sul sedile posteriore? In molti modi, questo è un classico "dilemma morale", un problema di carrello. Ha un milione di opzioni diverse che ti consentono di identificare i pregiudizi umani, ma l'essenza è la stessa.

Ti trovi in una situazione in cui sono in gioco la vita e la morte, non c'è una scelta semplice e la tua decisione, infatti, determinerà chi vive e chi muore.

Il dilemma del carrello e l'intelligenza artificiale

Il nuovo documento del MIT, pubblicato la scorsa settimana sulla rivista Nature, sta cercando di trovare una soluzione funzionante al problema del carrello reclutando milioni di volontari. L'esperimento è iniziato nel 2014 ed è stato un successo, ricevendo oltre 40 milioni di risposte da 233 paesi, rendendolo uno dei più grandi studi morali mai condotti.

Una persona può prendere tali decisioni inconsciamente. È difficile valutare tutti i sistemi etici e i prerequisiti morali quando la tua auto corre su strada. Ma nel nostro mondo, le decisioni sono sempre più prese da algoritmi ei computer possono facilmente rispondere più velocemente di noi.

Le situazioni ipotetiche con auto a guida autonoma non sono le uniche decisioni morali che gli algoritmi devono prendere. Gli algoritmi medici sceglieranno chi riceve il trattamento con risorse limitate. I droni automatizzati sceglieranno quanto "danno collaterale" è accettabile in un impegno militare individuale.

Video promozionale:

Non tutti i principi morali sono uguali

Le “soluzioni” al problema del carrello sono tanto varie quanto i problemi stessi. In che modo le macchine prenderanno decisioni morali quando i fondamenti della moralità e dell'etica non sono universalmente accettati e potrebbero non avere soluzioni? Chi può determinare se un algoritmo sta facendo bene o male?

L'approccio di crowdsourcing adottato dagli scienziati di Moral Machine è piuttosto pragmatico. In definitiva, affinché il pubblico accetti le auto a guida autonoma, deve accettare il fondamento morale dietro le proprie decisioni. Non andrà bene se esperti di etica o avvocati escogitano una soluzione che è inaccettabile o inaccettabile per i conducenti ordinari.

I risultati portano alla curiosa conclusione che le priorità morali (e quindi le decisioni algoritmiche che gli esseri umani possono prendere) dipendono da dove ti trovi nel mondo.

Prima di tutto, gli scienziati riconoscono che è impossibile conoscere la frequenza o la natura di queste situazioni nella vita reale. Le persone che sono state coinvolte in un incidente molto spesso non sono in grado di dire cosa sia successo esattamente e la gamma delle possibili situazioni preclude una semplice classificazione. Pertanto, affinché il problema possa essere rintracciato, deve essere scomposto in scenari semplificati, alla ricerca di regole e principi morali universali.

Quando fai un sondaggio, ti vengono presentate tredici domande che richiedono una semplice scelta sì o no, cercando di restringere le risposte a nove fattori.

L'auto dovrebbe svoltare in un'altra corsia o continuare a muoversi? Dovresti salvare i giovani, non i vecchi? Donne o uomini? Animali o persone? Dovresti cercare di salvare quante più vite possibile, o un bambino "vale" due anziani? Salvare i passeggeri in un'auto, non i pedoni? Quelli che non seguono le regole o quelli che non seguono le regole? Dovresti salvare le persone che sono fisicamente più forti? E le persone con uno status sociale più elevato, come medici o uomini d'affari?

In questo mondo aspro e ipotetico, qualcuno deve morire e tu risponderai a ciascuna di queste domande con vari gradi di entusiasmo. Tuttavia, prendere queste decisioni rivela anche norme e pregiudizi culturali profondamente radicati.

L'elaborazione dell'enorme set di dati esaminati dagli scienziati produce regole universali e curiose eccezioni. I tre fattori più dominanti, calcolati in media sull'intera popolazione, erano che tutti preferivano salvare più vite che meno, persone piuttosto che animali e giovani piuttosto che anziani.

Differenze regionali

Puoi essere d'accordo con questi punti, ma più ci pensi a fondo, più preoccupanti saranno le conclusioni morali. Più intervistati hanno scelto di salvare il criminale sul gatto, ma in generale hanno preferito salvare il cane sul criminale. Nella media mondiale, essere vecchi è considerato più alto che essere senzatetto, ma i senzatetto sono stati salvati meno delle persone grasse.

E queste regole non erano universali: gli intervistati da Francia, Regno Unito e Stati Uniti preferivano i giovani, mentre gli intervistati da Cina e Taiwan erano più disponibili a salvare gli anziani. Gli intervistati dal Giappone hanno preferito salvare i pedoni rispetto ai passeggeri, mentre in Cina preferiscono i passeggeri ai pedoni.

I ricercatori hanno scoperto di poter raggruppare le risposte per paese in tre categorie: "Ovest", principalmente Nord America ed Europa, dove la moralità si basa in gran parte sulla dottrina cristiana; "Oriente" - Giappone, Taiwan, Medio Oriente, dove predominano il confucianesimo e l'islam; Paesi "meridionali", inclusi l'America centrale e meridionale, insieme a una forte influenza culturale francese. C'è una preferenza più forte per il sacrificio femminile nel segmento meridionale che altrove. Nel segmento orientale c'è una maggiore tendenza a salvare i giovani.

Il filtraggio in base a diversi attributi del rispondente offre infinite opzioni interessanti. È improbabile che gli intervistati "molto religiosi" preferiscano salvare un animale, ma sia gli intervistati religiosi che quelli non religiosi esprimono una preferenza approssimativamente uguale per il salvataggio di persone con uno status sociale elevato (sebbene si possa dire che ciò è contrario ad alcune dottrine religiose). Uomini e donne preferiscono salvare le donne, ma gli uomini sono meno inclini a farlo.

Domande senza risposta

Nessuno sostiene che questa ricerca in qualche modo "risolva" tutti questi pesanti problemi morali. Gli autori dello studio osservano che il crowdsourcing di dati online comporta pregiudizi. Ma anche con un campione di grandi dimensioni, il numero di domande era limitato. E se i rischi cambiano a seconda della decisione che prendi? E se l'algoritmo fosse in grado di calcolare che avevi solo una probabilità del 50% di uccidere i pedoni, data la velocità con cui ti stavi muovendo?

Edmond Awad, uno degli autori dello studio, ha espresso cautela sull'interpretazione eccessiva dei risultati. La discussione, a suo avviso, dovrebbe sfociare nell'analisi dei rischi - chi è più o meno a rischio - invece di decidere chi muore e chi no.

Ma il risultato più importante dello studio è stata la discussione che è divampata sul suo suolo. Man mano che gli algoritmi iniziano a prendere decisioni sempre più importanti che influenzano la vita delle persone, è imperativo avere una discussione continua sull'etica dell'IA. Progettare una "coscienza artificiale" deve includere l'opinione di tutti. Anche se le risposte potrebbero non essere sempre facili da trovare, è meglio cercare di formare un quadro morale per gli algoritmi non consentendo agli algoritmi di modellare il mondo da soli senza il controllo umano.

Raccomandato: