Oficialul care a contribuit la stabilirea politicii Statelor Unite privind armele autonome susţine că astfel de arme ar putea fi de necontrolat în medii reale în cazul în care acestea au vicii de proiectare, pot fi atacate prin hacking şi manipulate de către adversari. Un articol publicat în The New York Times, arată pericolele care ne ameninţă prin construirea acestor arme.

In ultimii ani, senzorii ce au costuri reduse şi noile tehnologii de inteligenţă artificială au făcut posibilă proiectarea sistemelor de arme care iau decizia de a ucide, fără intervenţia umană. Spectrul aşa numiţilor roboţi criminali a provocat o mişcare de protest internaţională şi o dezbatere în cadrul Organizaţiei Naţiunilor Unite cu privire la limitarea, dezvoltarea şi utilizarea unor astfel de sisteme.

Noul raport a fost scris de Paul Scharre, care conduce un program privind viitorul războiului la Centrul de Securitate pentru o Nouă Americă, un grup de cercetare politică din Washington. Din 2008 până în 2013, acesta a lucrat în biroul Secretarului Apărării, unde a contribuit la stabilirea politicii #SUA privind armele fără pilot şi autonome. El a fost unul dintre autorii unei Directive a Departamentului de Apărare din 2012, care stabilea politica militară privind utilizarea unor astfel de sisteme. Raportul intitulat "Armele autonome şi riscul operaţional" avertizează cu privire la o serie de riscuri reale asociate sistemelor de armament care sunt complet autonome.

Raportul face o comparaţie între aceste sisteme complet automatizate, care au capacitatea de a-şi alege ţinta si ucide fără intervenţia umană şi armele care sunt programate să păstreze oamenii "în buclă" în procesul de selectare şi angajare a ţintelor. Autorul raportului, fost combatant pe câmpurile de luptă din Irak şi Afganistan, se concentrează asupra potenţialelor tipuri de defecţiuni care ar putea apărea în sistemele complet automatizate. Pentru a sublinia consecinţele militare ale eşecurilor tehnologice, raportul face o listă cu tipurile de defecţiuni care au avut loc în sistemele militare şi comerciale foarte automatizate.

"Oricine a fost vreodată frustrat după un apel telefonic pe o linie de asistenţă automată, un ceas cu alarmă setat din greşeală la "PM" în loc de "AM" sau oricare dintre nenumăratele frustrări care apar odată cu interacţiunea omului cu calculatorul, a experimentat problema "fragilităţii" care poate apăra în asemenea sisteme automate", scrie Scharre. Ideea sa de bază pe care vrea să o expună, este că sistemelor de arme autonome în mod inevitabil le lipseşte flexibilitatea de care oamenii dispun în a se adapta la circumstanţele noi care pot apărea, iar ca rezultat maşina va ucide din greşeală, lucru pe care oamenii probabil l-ar putea evita.

Armele complet autonome au început să apară în arsenalele militare, dar odată cu ele au fost contabilizate şi primele greşeli pe care acestea le-au făcut. De exemplu, în prima lor desfăşurare în Pacific, opt avioane de luptă experimentale F-22, datorită unei greşeli de computer generată de problema anului 2000 (Y2K), toate sistemele de la bord s-au închis şi rezultatul a fost aproape de o pierdere catastrofală a aeronavelor.  

Într-un interviu telefonic Paul Scharre a recunoscut ca a pune pur şi simplu un om la butoanele unui sistem de arme sofisticat nu este suficient, oamenii trebuind să se implice activ în deciziile sistemului, altfel catastrofele pot fi inevitabile. #Razboi #Armata