TehnoȘtiri

INTERVENȚIA UMANĂ ÎN ACȚIUNILE ROBOȚILOR MILITARI

(c) Tech. Sgt. Cory D. Payne/U.S. Air Force

Un nou proiect militar american sugerează faptul că, atunci când soldații sunt ajutați de roboți militari, nevoia umană de a interveni în activitatea acestora poate perturba beneficiile asistenței robotice. Dar funcționarea roboților militari cu inteligență artificială, în mod individual fără supravegherea umană, provoacă probleme etice îngrijorătoare.

Proiectul SESU (System-of-Systems Enhanced Small Unit) presupune o echipă militară, alcătuită din aproximativ 200 până la 300 de soldați, asistată de drone de mici dimensiuni și vehicule de sol robotizate. Unitatea militară ar lupta în zone în care inamicul controlează spațiul aerian și totuși ar fi capabil să învingă forțele inamice mai dezvoltate din punct de vedere al mărimii și armamentului.

În timp ce un program paralel al Agenției de Proiecte de Cercetare Avansată din SUA (DARPA), Offensive Swarm-Enabled Tactics (OFFSET), dezvoltă hardware pentru roboți, iar SESU se concentrează pe comanda și controlul unui număr mare de roboți. În loc să fie operați în mod individual, așa cum este cazul majorității dronelor actuale, roboții SESU vor avea integrată IA și vor fi în mare parte autonomi.

În octombrie 2020, cercetătorii au descris rezultatele simulărilor virtuale, prezentate în cadrul Conferinței de Comandament a Armatei SUA, în Washington. „Este foarte interesant să urmărești cum IA descoperă, în mod propriu, câteva tactici foarte complicate și interesante”, a declarat un cercetător al armatei SUA, în mod anonim.

Cu toate acestea, roboții au fost împiedicați de operatorii umani, care, în anumite condiții, nu au înțeles acțiunile acestora.

„Ceea ce am constatat, în timp ce conduceam simulările, a fost că oamenii întrerup acțiunile roboților, în mod constant”, a declarat cercetătorul anonim. Această interferență ar putea avea un efect grav asupra rezultatului, au spus ei, conducând la concluzia cruntă: „Dacă încetinim IA, la nivelul de înțelegere uman, tehnologia nu va avansa foarte mult”.

Este pentru prima dată când cercetătorii discută despre SESU, pentru care DARPA a acordat finanțări de peste 45 de milioane de dolari contractorilor Raytheon, Northrop Grumman și Collins Aerospace, la începutul anului 2020. Politica actuală a Pentagonului solicită ca IA militară letală să se afle sub controlul uman, dar concluziile sugerează faptul că acest lucru este în contradicție cu eficacitatea militară.

„Luarea rapidă și tactică a deciziilor este un avantaj cheie al IA. Luarea unor decizii rapide ar putea conduce la victorii ușoare împotriva adversarilor mai slabi, similare cu cele câștigate în războaiele anterioare”, a declarat Robert Bunker din cadrul firmei de consultanță americană C / O Futures, care a publicat un studiu la începutul anului 2020, în ceea ce privește controlul eficient al roboților înarmați.

„Un prim exemplu al acestui proces competitiv este blitzkriegul german lansat împotriva Franței, în anul 1940”, a declarat Bunker.

Stuart Russell, din cadrul Universității din California, Berkeley, care a militat de mult timp împotriva armelor autonome din motive etice, susține faptul că concluziile prezintă o încercare de a justifica utilizarea acestora.

Russell este de părere că cercetarea evidențiază necesitatea controalelor legale asupra armelor autonome. Acest lucru nu ar însemna neapărat o interdicție totală, ci ar putea limita autonomia, în anumite situații.

„Ar putea fi permisă o autonomie deplină, doar pentru războiul submarin sau pentru utilizarea armelor la scară largă, tancuri, avioane de vânătoare, nave aeriene, interzicând în același timp armele mici”, a declarat Russell.

Chiar și acest lucru poate conduce la un echilibru dificil între roboții militari eficienți și cei etici.