Gli Scienziati Hanno Spiegato Come Una Corsa Agli Armamenti Porterà A Una "guerra In Stile Terminator" - Visualizzazione Alternativa

Gli Scienziati Hanno Spiegato Come Una Corsa Agli Armamenti Porterà A Una "guerra In Stile Terminator" - Visualizzazione Alternativa
Gli Scienziati Hanno Spiegato Come Una Corsa Agli Armamenti Porterà A Una "guerra In Stile Terminator" - Visualizzazione Alternativa

Video: Gli Scienziati Hanno Spiegato Come Una Corsa Agli Armamenti Porterà A Una "guerra In Stile Terminator" - Visualizzazione Alternativa

Video: Gli Scienziati Hanno Spiegato Come Una Corsa Agli Armamenti Porterà A Una
Video: 564- Come la Bulgaria cercò di vincere la II Guerra Mondiale senza combatterla [Pillole di Storia] 2024, Aprile
Anonim

In un nuovo rapporto, gli esperti della Cornell University hanno parlato dei rischi associati all'introduzione sempre più attiva dell'intelligenza artificiale nelle armi nucleari, secondo il Daily Mail. Secondo gli scienziati, le macchine possono "sfuggire al controllo" e provocare una "guerra apocalittica", quindi le decisioni principali nell'uso delle armi nucleari sono ancora meglio lasciare alla persona.

Gli scienziati avvertono che il trasferimento del controllo sulle armi nucleari all'intelligenza artificiale potrebbe finire in una guerra apocalittica "in stile Terminator".

Nel loro nuovo rapporto, gli esperti della American Ivy League Cornell University sostengono che un crescente spostamento verso l'automazione e la robotizzazione potrebbe portare al fatto che le macchine "sfuggono al controllo" e dichiarano guerra all'umanità, proprio come in una serie di fantascienza film "Terminator" con Arnold Schwarzenegger.

Secondo gli esperti, cercando di "mettersi al passo con gli Stati Uniti in termini di potenziale militare", Russia e Cina stanno cominciando a fare sempre più affidamento su tecnologie di intelligenza artificiale, che in futuro potrebbero comportare rischi nemmeno noti al mondo. Così, Mosca ha già iniziato a lavorare sul siluro nucleare sottomarino senza pilota Poseidon, precedentemente noto come Status-6.

Inoltre, i paesi possono decidere di utilizzare l'intelligenza artificiale più attivamente nei sistemi di allarme rapido. E qui, come ricordano gli scienziati, la storia ci mostra che anche i rischi possono essere grandi. Molte persone conoscono l'incidente del 1983, quando l'ufficiale sovietico Stanislav Petrov ignorò il segnale del sistema di lanciare missili americani. Petrov si rese conto che il segnale era falso e così salvò il mondo da una possibile guerra nucleare tra Stati Uniti e Russia.

Gli esperti riconoscono che in una qualche forma, l'informatizzazione delle armi nucleari può migliorare l'affidabilità e la stabilità di tali sistemi. L'intelligenza artificiale può raccogliere dati ed eseguire analisi, che possono quindi essere utilizzate dai leader militari.

"Nella modernizzazione degli arsenali nucleari, la leadership dovrebbe sforzarsi di utilizzare i sistemi informatici per ridurre i rischi di incidenti accidentali, falsi positivi e aumentare il controllo umano sulle operazioni con armi nucleari", raccomandano gli scienziati.

Raccomandato: