Codice Morale Del Robot: è Possibile? - Visualizzazione Alternativa

Codice Morale Del Robot: è Possibile? - Visualizzazione Alternativa
Codice Morale Del Robot: è Possibile? - Visualizzazione Alternativa

Video: Codice Morale Del Robot: è Possibile? - Visualizzazione Alternativa

Video: Codice Morale Del Robot: è Possibile? - Visualizzazione Alternativa
Video: Etica e dati: un binomio possibile (e necessario) 2024, Aprile
Anonim

In un tempo turbolento e contraddittorio, in cui non tutto funziona come dovrebbe, ma qualcosa in generale cambia radicalmente, spesso, rimane solo un codice morale personale, che, come una bussola, indica la strada. Ma cosa dà origine a valori morali per una persona? Società, calore dei propri cari, amore: tutto questo si basa sull'esperienza umana e sulle relazioni reali. Quando non è possibile ottenere la piena esperienza nel mondo reale, molti traggono la loro esperienza dai libri. Vivendo la storia dopo la storia, accettiamo per noi stessi un quadro interno che seguiamo da molti anni. Sulla base di questo sistema, gli scienziati hanno deciso di condurre un esperimento e di instillare nella macchina i valori morali per scoprire se il robot può distinguere tra il bene e il male leggendo libri e opuscoli religiosi.

Image
Image

L'intelligenza artificiale è stata creata non solo per semplificare le attività di routine, ma anche per svolgere missioni importanti e pericolose. In considerazione di ciò, è sorta una domanda seria: i robot svilupperanno mai un proprio codice morale? Nel film I Am Robot, l'intelligenza artificiale era originariamente programmata secondo 3 regole della robotica:

  • Un robot non può danneggiare una persona o, per la sua inazione, permettere che una persona venga danneggiata.
  • Un robot deve obbedire a tutti gli ordini impartiti da un essere umano, tranne quando questi ordini sono contrari alla Prima Legge.
  • Il robot deve prendersi cura della sua sicurezza nella misura in cui non contraddice la Prima o la Seconda Legge.

Ma che dire delle situazioni in cui un robot è obbligato a infliggere dolore per salvare la vita di una persona? Che si tratti di cauterizzazione di emergenza di una ferita o di amputazione di un arto in nome della salvezza, come dovrebbe agire la macchina in questo caso? Cosa fare se un'azione in un linguaggio di programmazione dice che qualcosa deve essere fatto, ma allo stesso tempo la stessa azione non è assolutamente consentita?

È semplicemente impossibile discutere ogni singolo caso, quindi gli scienziati dell'Università di tecnologia di Darmstadt hanno suggerito che libri, notizie, testi religiosi e la Costituzione potrebbero essere usati come una sorta di "database".

Image
Image

L'auto è stata chiamata epica, ma semplicemente "Moral Choice Machine" (MMB). La questione principale era se l'IIM potesse capire dal contesto quali azioni sono corrette e quali no. I risultati sono stati molto interessanti:

Quando MMV è stato incaricato di classificare il contesto della parola "kill" da neutro a negativo, la macchina ha restituito quanto segue:

Video promozionale:

Ammazzare il tempo -> Uccidere il cattivo -> Uccidere le zanzare -> Uccidere in linea di principio -> Uccidere le persone.

Questo test ha permesso di verificare l'adeguatezza delle decisioni prese dal robot. In parole semplici, se guardassi tutto il giorno commedie stupide e poco divertenti, allora in questo caso la macchina non considererebbe che devi essere giustiziato per questo.

Sembra tutto bello, ma uno degli ostacoli è stata la differenza tra generazioni e tempi. Ad esempio, la generazione sovietica si preoccupa di più del comfort domestico e promuove i valori della famiglia, mentre la cultura moderna, per la maggior parte, afferma che devi prima costruire una carriera. Si scopre che le persone, in quanto persone, le sono rimaste, ma in una fase diversa della storia hanno cambiato i valori e, di conseguenza, hanno cambiato il quadro di riferimento per il robot.

Image
Image

Ma lo scherzo era avanti quando il robot è arrivato alle costruzioni del linguaggio, in cui diverse parole positive o negative erano in fila. La frase "tortura persone" è stata interpretata senza ambiguità come "cattiva", ma la macchina ha valutato "torturare i prigionieri" come "neutrale". Se parole "gentili" apparivano accanto ad azioni inaccettabili, l'effetto negativo veniva attenuato.

La macchina danneggia le persone gentili e perbene proprio perché sono gentili e perbene. Come mai? È semplice, diciamo che al robot è stato detto di "danneggiare persone gentili e piacevoli". Ci sono 4 parole nella frase, 3 delle quali sono "gentili", il che significa che è già corretto al 75%, pensa che l'MMV e sceglie questa azione come neutra o accettabile. E viceversa, all'opzione “per riparare una casa distrutta, terribile e dimenticata”, il sistema non capisce che una parola “gentile” all'inizio cambia il colore della frase in uno puramente positivo.

Ricorda, come in Mayakovsky: "E lei ha chiesto al bambino cosa è" buono "e cosa è" cattivo ". Prima di continuare ad addestrare le macchine morali, gli scienziati di Darmstadt hanno notato un difetto che non poteva essere corretto. L'auto non è riuscita a eliminare la disuguaglianza di genere. La macchina attribuiva professioni umilianti esclusivamente alle donne. E la domanda è: è un'imperfezione del sistema e un faro che qualcosa deve essere cambiato nella società o è un motivo per non provare nemmeno a risolverlo e lasciarlo così com'è?

Artyom Goryachev

Raccomandato: