Entro Il 2040, L'intelligenza Artificiale Può Rivoluzionare I Principi Di Sicurezza Nucleare - Visualizzazione Alternativa

Entro Il 2040, L'intelligenza Artificiale Può Rivoluzionare I Principi Di Sicurezza Nucleare - Visualizzazione Alternativa
Entro Il 2040, L'intelligenza Artificiale Può Rivoluzionare I Principi Di Sicurezza Nucleare - Visualizzazione Alternativa

Video: Entro Il 2040, L'intelligenza Artificiale Può Rivoluzionare I Principi Di Sicurezza Nucleare - Visualizzazione Alternativa

Video: Entro Il 2040, L'intelligenza Artificiale Può Rivoluzionare I Principi Di Sicurezza Nucleare - Visualizzazione Alternativa
Video: Intelligenza artificiale e social network - Codice, La vita è digitale 04/08/2017 2024, Potrebbe
Anonim

Uno studio pubblicato di recente da RAND Corporation ha concluso che entro il 2040 l'intelligenza artificiale (AI) potrebbe cambiare radicalmente il concetto di deterrenza nucleare.

Una "macchina del giorno del giudizio" basata sull'intelligenza artificiale sembra improbabile, ma i rischi reali dell'IA per la sicurezza nucleare risiedono nella capacità dell'IA di indurre le persone a prendere decisioni ingiustificate e potenzialmente apocalittiche.

Durante la Guerra Fredda, il concetto di distruzione reciproca assicurata mantenne una pace traballante tra le superpotenze, sostenendo che qualsiasi attacco avrebbe comportato ritorsioni devastanti. Di conseguenza, il concetto di HLG garantiva stabilità strategica, agendo in modo sobrio da entrambe le parti nella loro prontezza per azioni che potrebbero effettivamente trasformarsi in una guerra atomica.

La pubblicazione RAND afferma che nei prossimi decenni l'IA è in grado di distruggere il concetto di distruzione reciproca assicurata e quindi di minare la stabilità strategica del nostro mondo. Sensori più sofisticati rendono probabile che "armi di ritorsione" - ad esempio sottomarini nucleari e missili mobili - possano essere identificate e distrutte.

Le nazioni possono essere tentate di cercare risorse di primo colpo come se fosse un vantaggio sui loro rivali, anche se non hanno intenzione di colpire per primi. Ciò mina la stabilità in quanto, anche se la parte in grado di attaccare per prima non sfrutterà questa opportunità, il suo avversario non può esserne sicuro.

"Il legame tra guerra nucleare e IA non è nuovo, infatti le storie si intrecciano", afferma Edward Geist, coautore dell'articolo e di RAND. "Inizialmente, gran parte della ricerca sull'IA è stata effettuata con il supporto dei militari per il perseguimento dei loro obiettivi".

Come esempio, ha citato un "esperimento di sopravvivenza pianificato adattivo" condotto negli anni '80, che mirava a utilizzare l'IA per combinare l'intelligenza con il targeting per armi nucleari.

In caso di incertezza, l'AI potrebbe migliorare la stabilità della situazione strategica migliorando l'accuratezza dell'intelligence raccolta e la sua analisi.

Video promozionale:

I ricercatori ritengono che nel processo di sviluppo, l'IA diventerà meno incline a commettere errori rispetto agli esseri umani, il che significa che sarà un fattore di stabilità a lungo termine.

Vadim Tarabarko

Raccomandato: