L'esercito Americano Ha Formulato Principi Etici Per L'uso Dell'intelligenza Artificiale - Visualizzazione Alternativa

L'esercito Americano Ha Formulato Principi Etici Per L'uso Dell'intelligenza Artificiale - Visualizzazione Alternativa
L'esercito Americano Ha Formulato Principi Etici Per L'uso Dell'intelligenza Artificiale - Visualizzazione Alternativa

Video: L'esercito Americano Ha Formulato Principi Etici Per L'uso Dell'intelligenza Artificiale - Visualizzazione Alternativa

Video: L'esercito Americano Ha Formulato Principi Etici Per L'uso Dell'intelligenza Artificiale - Visualizzazione Alternativa
Video: Etica e intelligenza artificiale 2024, Potrebbe
Anonim

Il Dipartimento della Difesa degli Stati Uniti ha formulato e adottato principi etici, guidati dai quali verranno sviluppati e applicati nel paese sistemi di intelligenza artificiale militare. Secondo il Pentagono, nel formulare i principi, l'esercito è stato guidato dalla Costituzione degli Stati Uniti, il decimo capitolo del Codice degli Stati Uniti (descrive il ruolo delle forze armate), dalle leggi e dai costumi di guerra, nonché dai trattati internazionali e da "norme e valori consolidati".

Gli sviluppi attivi nel campo della creazione di sistemi di intelligenza artificiale hanno portato al fatto che tali sistemi stanno gradualmente iniziando ad essere introdotti nelle armi e nelle attrezzature militari. In particolare, sono in fase di sviluppo sistemi che consentono ai droni di rilevare automaticamente e assegnare priorità ai bersagli, o ai droni di agire come schiavi per gli aerei con equipaggio. Sono inoltre in fase di sviluppo sistemi di intelligenza artificiale in grado di decriptare le trasmissioni radio. L'intelligenza artificiale diventerà sempre più importante nei futuri sviluppi militari.

L'introduzione attiva di sistemi di intelligenza artificiale nelle armi e nelle attrezzature militari solleva molte questioni etiche. In particolare, non è ancora chiaro quanto sia legittimo utilizzare sistemi d'arma autonomi in una guerra e che tipo di minaccia rappresentano per i civili catturati in una zona di combattimento.

In totale, il Pentagono ha formulato cinque principi etici per l'uso dei sistemi di intelligenza artificiale per scopi militari:

  • Responsabilità. Il personale militare deve valutare le prestazioni dell'intelligenza artificiale con la dovuta cura, rimanendo pienamente responsabile della progettazione, dispiegamento e utilizzo dei sistemi di intelligenza artificiale.
  • Imparzialità. Il Dipartimento della Difesa degli Stati Uniti deve adottare misure per ridurre al minimo le deviazioni indesiderate nelle capacità dei sistemi di intelligenza artificiale.
  • Tracciabilità. I sistemi di intelligenza artificiale militare e le loro capacità devono essere progettati e implementati in modo tale che il personale abbia un livello adeguato di comprensione della tecnologia, dei processi di sviluppo e delle applicazioni. Le metodologie, i dati e la documentazione relativi ai sistemi di intelligenza artificiale utilizzati dovrebbero essere a disposizione del personale militare.
  • Affidabilità. Le capacità dei sistemi di intelligenza artificiale militare devono essere chiare e formulate in modo chiaro. La sicurezza e l'efficacia di tali capacità devono essere verificate mediante test e convalidate per tutta la loro vita utile.
  • Subordinazione. I sistemi di intelligenza artificiale militari devono svolgere appieno i compiti previsti, ma i militari devono essere in grado di rilevare e prevenire gli effetti indesiderati dell'intelligenza artificiale. I militari dovrebbero anche essere in grado di disabilitare o spegnere i sistemi di intelligenza artificiale che stanno riscontrando anomalie.

Il Pentagono ha inoltre nominato il Centro comune per l'intelligenza artificiale responsabile dell'attuazione dei principi di utilizzo dei sistemi di intelligenza artificiale. In totale, il Dipartimento della Difesa degli Stati Uniti ha trascorso 15 mesi a consultarsi con sviluppatori e organizzazioni scientifiche, oltre a formulare i principi per l'utilizzo dei sistemi di intelligenza artificiale. Allo stesso tempo, alcuni esperti hanno notato la vaghezza delle formulazioni adottate e la mancanza di un insieme chiaro di regole di ciò che i militari dovrebbero e non dovrebbero fare quando sviluppano e utilizzano sistemi di intelligenza artificiale.

Vasily Sychev

Raccomandato: