I Robot Da Battaglia Stanno Arrivando! - Visualizzazione Alternativa

I Robot Da Battaglia Stanno Arrivando! - Visualizzazione Alternativa
I Robot Da Battaglia Stanno Arrivando! - Visualizzazione Alternativa

Video: I Robot Da Battaglia Stanno Arrivando! - Visualizzazione Alternativa

Video: I Robot Da Battaglia Stanno Arrivando! - Visualizzazione Alternativa
Video: War robots trailer | Трейлер 2024, Potrebbe
Anonim

I veri robot assassini, che eseguono incessantemente il compito e non richiedono la supervisione umana, potrebbero apparire nell'arsenale degli eserciti del mondo in un anno, dicono gli esperti. Prevedendo il pericolo qui, gli esperti stanno discutendo se i robot killer e il loro utilizzo sul campo di battaglia dovrebbero essere vietati in anticipo.

Image
Image

I robot killer potrebbero essere in servizio con le truppe tra un anno se le Nazioni Unite non adottano misure in anticipo per limitarne l'uso, afferma Noel Sharkey, professore alla Sheffield University. Secondo lui, queste macchine causeranno inevitabilmente massicce morti innocenti, dal momento che non possono distinguere un militare da un civile non combattente. La sua dichiarazione è arrivata proprio nel momento in cui la comunità di esperti di 120 paesi sta discutendo a Ginevra i potenziali rischi associati al funzionamento di sistemi d'arma autonomi. Il professor Sharkey crede: ci sono poche discussioni, è urgente adottare un documento sulla limitazione della produzione di robot! Altrimenti, un anno dopo, i robot invaderanno letteralmente gli eserciti dei paesi sviluppati.

Image
Image

In questi giorni a Ginevra, i rappresentanti di oltre 90 paesi del mondo stanno discutendo del pericolo che proviene da "sistemi d'arma autonomi letali". Una delle questioni importanti di discussione è come garantire la sicurezza del loro utilizzo in una situazione di combattimento? Molti esperti, incluso il professor Sharkey, insistono sul fatto che, nonostante l'autonomia dei sistemi, una persona deve sempre avere la capacità di "controllo di principio" su di essi - per la sicurezza dell'umanità. "Un robot non è ancora in grado di prendere decisioni come un essere umano", afferma il professor Sharkey. - Non è completamente capace. per comprendere la logica delle ostilità, non può distinguere un alleato da un nemico e decidere sulla liceità di determinate azioni. "Non possiamo lasciare che il robot decida se, ad esempio, la vita di Osama bin Laden vale la pena, così che 50 donne anziane e 20 bambini muoiono con lui,Dice Sharkey. - Al robot non importa. Le decisioni fondamentali, ad esempio, sulla scelta di un obiettivo devono essere prese da una persona ". Secondo il professor Sharkey, se tali decisioni vengono lasciate ai robot, "le conseguenze del loro uso non saranno meno devastanti dell'uso di armi chimiche".

Image
Image

Il professor Sharkey è uno dei 57 esperti che hanno firmato una lettera aperta indirizzata all'Università della Corea del Sud, in cui gli esperti esprimono la loro protesta contro il programma per lo sviluppo di armi intelligenti. Il Korea Institute of Science and High Technology Kaist sta attualmente lanciando questo programma con il produttore di attrezzature militari Hanwa Systems e la notizia ha scosso la comunità scientifica. "Un'università, un'istituzione scientifica, non può farlo da un punto di vista morale", afferma il professor Sharkey, con il quale gli altri firmatari sono pienamente d'accordo.

Secondo gli esperti, i robot killer automatici apriranno il vaso di Pandora, rivoluzionando il modo di fare guerra.

Video promozionale:

I rappresentanti dell'Istituto Kaist hanno già risposto alla lettera aperta, assicurando ai loro colleghi che non intendono creare droidi in stile Skynet.

Image
Image

I rappresentanti del Keist Institute hanno assicurato ai loro colleghi che, come istituzione accademica, "apprezzano molto gli standard universali di etica e moralità" e non intendono sviluppare soldati robotici che operano al di fuori del controllo umano. Ad oggi, il Kaist Institute sta conducendo solo ricerche in questo settore. Su questo, gli autori della lettera aperta si sono calmati e non hanno boicottato i loro colleghi. Tuttavia, la questione se l'umanità sarà in grado di concordare i principi generali del controllo totale sulle azioni dei robot da combattimento è ancora aperta. Nel frattempo, oggi non è affatto importante in teoria. Oggi, i robot altamente funzionali sono già meccanismi così complessi che persino gli specialisti non comprendono appieno come funziona la loro intelligenza artificiale. E senza comprendere appieno questo, non sono in grado di prevederequando esattamente può fallire. "Se l'umanità è destinata a essere distrutta, allora, molto probabilmente, l'intelligenza artificiale giocherà un ruolo significativo in questo processo", afferma uno dei partecipanti alla conferenza di Ginevra. Secondo Elon Musk, l'intelligenza artificiale oggi porta con sé più minacce per l'umanità rispetto alla Corea del Nord. Musk è convinto che i robot debbano essere costantemente sotto stretto controllo degli esseri umani e ha ripetutamente fatto appello ai governi di diversi paesi affinché sviluppino regole chiare per il controllo sui sistemi con intelligenza artificiale.rispetto alla Corea del Nord. Musk è convinto che i robot debbano essere costantemente sotto stretto controllo degli esseri umani e ha più volte fatto appello ai governi di diversi paesi affinché sviluppino regole chiare per il controllo dei sistemi con intelligenza artificiale.rispetto alla Corea del Nord. Musk è convinto che i robot debbano essere costantemente sotto stretto controllo degli esseri umani e ha ripetutamente fatto appello ai governi di diversi paesi affinché sviluppino regole chiare per il controllo dei sistemi con intelligenza artificiale.

Varvara Lyutova

Raccomandato: