Motstridiga ATLAS
I början av förra året väckte USA: s militär världen med nyheten om utvecklingen av ATLAS -systemet (Advanced Targeting and Lethality Aided System), utformat för att ta stridsoperationer till en ny nivå av automatisering. Initiativet orsakade en blandad reaktion bland vanligt folk och upplysta militära experter. Mycket av skulden låg på utvecklarna (det militära C5ISR -centret och försvarsministeriets beväpningscenter), som för den eufoniska förkortningen ATLAS inkluderade termerna "dödlighet" och "förbättrad målbeteckning" i namnet. Amerikanerna skrämdes av berättelser om upproriska robotar och kritiserade arméns initiativ, säger de, det strider mot krigets etik. I synnerhet hänvisade många till Pentagon -direktivet 3000.09, som förbjuder överföring av rätten att öppna eld till ett automatiserat system. Integrationen av artificiell intelligens och maskininlärning i markfordon, enligt demonstranter, kan leda till utslag bland civila och vänliga trupper. Bland kritikerna fanns ganska respektabla forskare - till exempel Stuart Russell, professor i datavetenskap vid University of California i Berkeley.
Utvecklarna förklarade ganska rimligt att ATLAS inte har något att göra med de hypotetiska "mördarrobotarna" som mänskligheten har drömt om sedan den första "Terminator". Systemet är baserat på algoritmer för att hitta ett mål med hjälp av olika sensorsystem, välja de viktigaste och informera operatören om det. Nu i USA testas M113 -pansarpersonalbäraren med det integrerade ATLAS -systemet. För vapenoperatören visar algoritmer för artificiell intelligens inte bara de farligaste målen på skärmen, utan rekommenderar också typen av ammunition och till och med antalet skott för garanterat nederlag. Enligt utvecklarna är det slutliga beslutet om att träffa målet kvar hos skytten, och det är han som är ansvarig för resultatet. ATLAS huvuduppgift i en pansarversion är att öka svarets hastighet på ett potentiellt hot - i genomsnitt öppnar en tank (BMP eller pansarbärare) eld mot ett mål med en automatisk assistent tre gånger snabbare. Naturligtvis kan ett pansarfordon arbeta mer effektivt med gruppmål. I det här fallet väljer artificiell intelligens omedelbart ut mål i tankens ordningsföljd, styr vapnet på egen hand och rekommenderar typen av ammunition. Sedan början av augusti har olika typer av pansarfordon med integrerade ATLAS -system testats på Aberdeen Proving Ground. Baserat på resultaten av arbetet kommer ett beslut att fattas om militära tester och till och med om antagandet av sådana vapen.
Stridsvagnar är nu ett av de mest konservativa målen på slagfältet. Många av dem har inte förbättrats i grunden i årtionden, kvar i 70-80-talet av förra seklet när det gäller teknisk utveckling. Ofta är denna tröghet förknippad med den utbredda användningen av tankar i enskilda länder. För att på allvar modernisera en pansararmé på många tusen krävs enorma resurser. Men medlen för att motverka tankar utvecklas med stormsteg. Ett utmärkt exempel är den nuvarande konflikten i Nagorno-Karabakh, då turkiska och israeliska drönare är extremt effektiva mot armeniska stridsvagnar. Om vi ignorerar skador gör beräkningen av pris / prestanda-förhållandet för sådana pansarvapenvapen dem helt enkelt kungarna på slagfältet. Naturligtvis kommer ATLAS inte att skydda mot lufthot, men det kan vara ett bra verktyg för tidig varning för tankfarliga mål som ATGM-besättningar eller enstaka granatkastare.
Pentagon betraktar ATLAS -systemet inte som en enda militär struktur, utan som en del av en stor projektkonvergens. Detta initiativ bör ta truppmedvetenheten till nästa nivå. Genom maskininlärning, artificiell intelligens och den oöverträffade mättnaden på slagfältet med drönare hoppas amerikanerna att på allvar öka deras förmågor. Nyckeltanken är inte ny - att ansluta alla objekt på slagfältet med en gemensam informationsstruktur och att digitalisera den omgivande verkligheten. Hittills är ATLAS inte helt inkluderat i Project Convergence på grund av bristen på datautbyte med "grannar", men i framtiden kommer tankens artificiella hjärnor att bli en gemensam egendom. Förresten, i reklamen för projektet, betecknas Kina och Ryssland som entydiga militära mål.
Inget förtroende för elektronik
Amerikanska trupper har redan en negativ erfarenhet av beväpnade robotsystem. År 2007 skickades tre små spårplattformar SVÄRD (kort för Special Weapons Observation Reconnaissance Detection System), beväpnade med M249 maskingevär, till Irak. Och även om de inte var helt autonoma fordon lyckades de skrämma soldaterna med sina periodiska kaotiska rörelser av maskingevärens fat medan de patrullerade på Bagdads gator. Detta verkade för Pentagon som ett tecken på oförutsägbarhet, och de spårade maskingevärskyttarna skickades sakta hem. År 2012 utfärdades ett direktiv om att automatiserade och fjärrstyrda vapensystem inte ska skjuta av sig själva. Formellt har ATLAS utvecklats helt inom ramen för denna bestämmelse, men det finns inte färre frågor om innovation. Vissa experter (i synnerhet Michael S. Horowitz, biträdande professor i statsvetenskap vid University of Pennsylvania) anklagar nyheten för att förenkla processen att träffa ett mål. I själva verket förvandlar denna nivå av automatisering av sök- och målbeteckning strid till ett vanligt spel som World of Tanks för gunner. I ATLAS styrsystem markeras det prioriterade målet med rött, ett larm ljuder och tekniken, som den kan, stimulerar en person att öppna eld. Under extrema stridsförhållanden finns det lite tid att fatta beslut om skytte, och då uppmuntrar den "smarta roboten" dig. Som ett resultat hinner kämpen helt enkelt inte kritiskt bedöma situationen, och han, utan förståelse, öppnar eld. Det är nödvändigt att utvärdera hur ATLAS korrekt valda mål efter skjutningen. I vilken utsträckning är denna metod etisk och överensstämmer den med det ökända amerikanska direktivet? Microsoft, förresten, har redan lyckats falla under offentlig fördömelse för ett sådant hjälmmonterat målbeteckningssystem för militären, till och med en användarbojkott. I USA har det funnits en debatt om robotisering av detekterings- och vägledningssystem i många år. Som ett exempel nämner kritiker exempel på fel i autopilotsystemet på allmänna vägar, som redan har lett till skadade. Om även autopiloterna inte blivit 100% pålitliga efter att ha kört miljontals kilometer, vad kan vi då säga om en helt ny ATLAS, som kan driva tankfartyg att skjuta mot en oskyldig person med en 120 mm projektil. Moderna krig är nu så blodiga just för att militären fick förmågan att fjärradera på distans och gömde sig bakom en pålitlig barriär. Exemplet på nämnda Nagorno-Karabakh bekräftar än en gång denna sanning. Om kämpen också berövas möjligheten att kritiskt bedöma parametrarna för målet (detta är precis vad ATLAS leder till), kan det finnas mycket fler offer, och skulden för mordet kan redan delvis flyttas till maskinen.
Och slutligen var huvudargumentet mot system av ATLAS-typ bland pacifistkommentatorer den virtuella frånvaron av ett förbud mot öppning av automatisk eld. Nu är det bara de etiska kraven i Pentagon (som också har många reservationer) som förbjuder att automatisera mordprocessen. Med introduktionen av ATLAS kommer det inte att finnas några tekniska hinder för detta alls. Kommer den amerikanska armén att kunna ge upp en så lovande möjlighet att ytterligare påskynda svarstiden på ett hot och hålla sina krigare från att attackeras?