Macchina Morale: Gli Ingegneri Hanno Dotato L'intelligenza Artificiale Di Moralità Ed Etica - Visualizzazione Alternativa

Sommario:

Macchina Morale: Gli Ingegneri Hanno Dotato L'intelligenza Artificiale Di Moralità Ed Etica - Visualizzazione Alternativa
Macchina Morale: Gli Ingegneri Hanno Dotato L'intelligenza Artificiale Di Moralità Ed Etica - Visualizzazione Alternativa

Video: Macchina Morale: Gli Ingegneri Hanno Dotato L'intelligenza Artificiale Di Moralità Ed Etica - Visualizzazione Alternativa

Video: Macchina Morale: Gli Ingegneri Hanno Dotato L'intelligenza Artificiale Di Moralità Ed Etica - Visualizzazione Alternativa
Video: “PERSONA UMANA E INTELLIGENZA ARTIFICIALE. Un’etica per lo sviluppo tecnologico” 2024, Potrebbe
Anonim

Più un'IA forte entra nella nostra vita quotidiana, più spesso deve affrontare complessi dilemmi morali ed etici, che a volte non sono così facili da risolvere per una persona vivente. Gli scienziati del MIT hanno cercato di risolvere questo problema e hanno dotato la macchina della capacità di pensare in termini di moralità, in base all'opinione della maggior parte delle persone viventi.

Alcuni esperti ritengono che il modo migliore per addestrare l'intelligenza artificiale a gestire situazioni moralmente difficili sia attraverso l'uso della "crowd experience". Altri sostengono che questo approccio non è privo di pregiudizi e diversi algoritmi possono giungere a conclusioni diverse dallo stesso set di dati. Come possono trovarsi le macchine in una situazione del genere, che ovviamente dovrà prendere decisioni morali ed etiche difficili quando si lavora con persone reali?

Intelletto e moralità

Man mano che i sistemi di intelligenza artificiale (AI) si evolvono, gli esperti cercano sempre più di risolvere il problema del modo migliore per dare al sistema una base etica e morale per intraprendere determinate azioni. L'idea più popolare è che l'IA tragga conclusioni studiando le decisioni umane. Per testare questa ipotesi, i ricercatori del Massachusetts Institute of Technology hanno creato la Moral Machine. Ai visitatori del sito web è stato chiesto di scegliere come dovrebbe agire un veicolo autonomo di fronte a una scelta piuttosto difficile. Ad esempio, questo è un dilemma familiare su un potenziale incidente, che ha solo due opzioni per lo sviluppo di eventi: un'auto può colpire tre adulti per salvare la vita di due bambini, oppure può fare il contrario. Quale opzione dovresti scegliere? Ed è possibile, ad esempio,sacrificare la vita di una persona anziana per salvare una donna incinta?

Di conseguenza, l'algoritmo ha raccolto un enorme database basato sui risultati dei test e Ariel Procaccia del Dipartimento di Informatica presso la Carnegie Mellon University ha deciso di utilizzarli per migliorare l'intelligenza artificiale. In un nuovo studio, lui e uno dei creatori del progetto, Iyad Rahwan, hanno caricato la base completa del progetto Moral Machine nell'IA e hanno chiesto al sistema di prevedere come avrebbe reagito l'auto con il pilota automatico a scenari simili, ma ancora leggermente diversi. Procaccia ha voluto dimostrare come un sistema basato sul voto possa essere una soluzione per l'intelligenza artificiale “etica”.”Lo stesso autore dell'opera ammette che un tale sistema, ovviamente, è ancora troppo presto per essere applicato nella pratica, ma dimostra in modo eccellente il concetto stesso che è possibile.

Moralità trasversale

Video promozionale:

L'idea stessa di scegliere tra due risultati moralmente negativi non è nuova. L'etica usa un termine separato per questo: il principio del doppio effetto. Ma questo è il campo della bioetica, ma nessuno ha precedentemente applicato un tale sistema a un'auto, e quindi lo studio ha suscitato particolare interesse tra gli esperti di tutto il mondo. Il co-presidente di OpenAI Elon Musk ritiene che la creazione di un'IA "etica" sia una questione di sviluppo di linee guida o politiche chiare per guidare lo sviluppo del programma. I politici lo stanno gradualmente ascoltando: ad esempio, la Germania ha creato i primi principi etici al mondo per le auto autonome. Anche Alphabet AI DeepMind di Google ora ha un dipartimento di etica e morale pubblica.

Altri esperti, tra cui un team di ricercatori della Duke University, ritengono che il modo migliore per andare avanti sia creare un "quadro generale" che descriva come l'IA prenderà decisioni etiche in una data situazione. Credono che l'unificazione delle visioni morali collettive, come nella stessa macchina morale, renderà l'intelligenza artificiale ancora più morale in futuro della società umana moderna.

Critica alla "macchina morale"

Comunque sia, attualmente il principio della "opinione della maggioranza" è lungi dall'essere affidabile. Ad esempio, un gruppo di intervistati potrebbe avere pregiudizi che non sono comuni a tutti gli altri. Il risultato sarà che gli AI a cui viene dato esattamente lo stesso set di dati potrebbero giungere a conclusioni diverse sulla base di diversi campioni di tali informazioni.

Per il professor James Grimmelmann, specializzato nelle dinamiche tra software, ricchezza e potere, l'idea stessa di moralità pubblica sembra imperfetta. "Non è in grado di insegnare l'etica dell'IA, ma solo di dotarla di una parvenza di standard etici inerenti a una certa parte della popolazione", afferma. E lo stesso Procaccia, come detto sopra, ammette che la loro ricerca altro non è che una riuscita prova di concetto. Tuttavia, è fiducioso che un tale approccio potrebbe portare al successo l'intera campagna per creare un'IA altamente morale in futuro. "La democrazia, senza dubbio, ha una serie di carenze, ma come sistema unificato funziona, anche se alcune persone prendono ancora decisioni che la maggioranza non è d'accordo".

Vasily Makarov

Raccomandato: