Il presidente di Microsoft Brad Smith ha affermato che l'uso di sistemi di armi da combattimento autonomi pone una serie di questioni etiche che i governi devono affrontare con la massima urgenza possibile.
Ha detto che la tecnologia in rapido progresso, in cui i droni volanti, galleggianti o ambulanti possono essere equipaggiati con armi letali - missili, bombe o armi leggere e programmati per operare in modo completamente o parzialmente autonomo, "finirà … in molti paesi".
Stati Uniti, Cina, Israele, Corea del Sud, Russia e Gran Bretagna stanno tutti sviluppando sistemi d'arma con un significativo grado di autonomia, con la funzione fondamentale di scegliere quale bersaglio attaccare.
Non è chiaro chi sia responsabile della morte o delle lesioni causate dalla macchina: il programmatore, il produttore, il comandante o la macchina stessa.
Smith afferma che ai robot "non dovrebbe essere permesso di decidere da soli se impegnarsi in combattimento e chi distruggere", e sostiene che dovrebbe essere sviluppata una convenzione internazionale per regolamentare l'uso della tecnologia di combattimento autonomo.
Lo sviluppo di tecnologie per sistemi di combattimento autonomi è sempre più contrastato da una crescente avversione sociale. Migliaia di dipendenti di Google hanno firmato un impegno a non sviluppare l'intelligenza artificiale da utilizzare nei sistemi d'arma.
Nell'ultimo anno, la campagna globale Stop Killer Robots è raddoppiata e ora include 113 organizzazioni non governative in 57 paesi.