Urządzenia obrazowo określane jako killer robots mocno zawładnęły zbiorową wyobraźnią. Stanowią praktyczną realizację obecnej od kilku dekad w twórczości science-fiction wizji robotów-zabójców. Kolejne informacje o postępach w budowie sztucznej inteligencji (chociażby o sukcesach programów komputerowych w grach strategicznych) wywołują wrażenie, że jesteśmy u progu rewolucji.
Puszka Pandory
Odniesienie do twórczości science-fiction w sposób niemalże automatyczny prowokuje cały szereg obaw. Fikcyjne roboty i inne formy sztucznej inteligencji wymykały się spod ludzkiej kontroli, a nierzadko zwracały się przeciwko człowiekowi czy wręcz całej ludzkości (wystarczy wspomnieć chociażby 2001: Odyseję kosmiczną, Terminatora czy Matrix, żeby przywołać tylko najbardziej oczywiste kulturowe odniesienia).
Już twórca pojęcia robot, czeski pisarz Karel Čapek, w sztuce R.U.R. (Rossumovi Univerzální Roboti) – Uniwersalne roboty Rossuma z roku 1921 przedstawił wizję, w której roboty, początkowo zadowolone z pracy dla ludzi, wywołują rebelię kończącą się zagładą ludzkiego gatunku.
Wprowadzenie do uzbrojenia robotów bojowych postrzegane jest więc jako otwarcie puszki Pandory, która w bliżej nieokreślonej przyszłości doprowadzić może do tragicznych skutków. Obawy te znajdują odzwierciedlenie w ostrzeżeniach przed trudnymi do przewidzenia konsekwencjami eliminacji człowieka z pętli decyzyjnej w przypadku działań zbrojnych.
Strach przed robotem
Na rozmaitych forach pojawiają się inicjatywy zmierzające do wprowadzenia zakazu rozwoju, wytwarzania i stosowania broni charakteryzującej się cechami autonomii. Taki cel postawiła sobie Campaign to Stop Killer Robots, powstała w 2012 koalicja organizacji pozarządowych nawołujących do wprowadzenia zakazu broni autonomicznej.
Podobny ton miały rekomendacje Christopha Heynsa, specjalnego sprawozdawcy ONZ w sprawie selektywnej eliminacji (targeted killing – likwidowanie osób podejrzanych o terroryzm, realizowane przede wszystkim za pomocą samolotów bezzałogowych), który nawoływał by państwa ustanowiły swoje własne moratoria na rozwój śmiercionośnych robotów autonomicznych.
Obecnie dyskusja nad ewentualnym zakazem śmiercionośnej broni autonomicznej określanej jako LAWS (Lethal Autonomous Weapon Systems) toczy się przede wszystkim na forum Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (Convention on Certain Conventional Weapons).
W grudniu 2016, po trzech latach nieformalnych dyskusji utworzono grupę roboczą, która ma wypracować zręby przyszłego traktatu. Założeniem towarzyszącym pracom jest twierdzenie, że jakkolwiek każda techniczna rewolucja wprowadza zmiany do systemu bezpieczeństwa, to tym razem zmiana będzie fundamentalna i potencjalnie niezwykle niebezpieczna. Pojawia się bowiem ryzyko utraty ludzkiej kontroli nad prowadzeniem wojny, jakkolwiek niedoskonała była ona w przeszłości.
Duma Zachodu
Z drugiej strony różne formy zrobotyzowanych, niekoniecznie autonomicznych systemów bojowych, z uzbrojonymi bezzałogowymi statkami latającymi na czele, stały się przedmiotem swoistej dumy Zachodu. Dumy ledwie skrywanej pod maską politycznej poprawności. Pozwalają bowiem wierzyć, że w starciu z szerokim i różnorodnym frontem islamskiego terroryzmu, który jak dotychczas przewyższa regularne armie zachodnie pod względem determinacji, organizacji czy potencjału innowacyjnego (w sensie skutecznego stosowania niestandardowych metod walki), nieco już staromodne, ale typowe dla Zachodu odwołanie się do przewagi technicznej ciągle może dawać szanse na zwycięstwo.
Sposób w jaki prowadzona jest konflikt zbrojny jest w pewnym stopniu odbiciem kształtu społeczeństwa. Tak widzą to naukowcy dostrzegający w wojnie nie tylko fenomen militarny czy polityczny, ale także kulturowy (przywołać można Victora Davida Hansona, Johna Keegana czy Geoffreya Parkera). Sposób wojowania jest więc odzwierciedleniem kultury danego społeczeństwa i można wyodrębnić pewne szczególne, względnie trwałe cechy typowe dla danych społeczeństw i ich organizacji militarnych.
Maszyny nie ludzie
Wojny prowadzone przez Zachód prezentują generalnie model kapitałochłonny, a nie ludzkochłonny. Chętnie odwołują się do zdobyczy nauki i techniki dla uzyskania przewagi, zazwyczaj w celu skompensowania stosunkowo niewielkiej liczebności wojsk. Nie znaczy to, że technika wojskowa w świecie zachodnim zawsze była lepsza – bo bynajmniej tak nie było. Chodzi przede wszystkim o otwartość na innowacje, własne i cudze oraz ich szybkie przyjmowanie.
Robotyzacja jawi się jako kolejne ogniwo tego procesu, stanowiąc militarny wyraz czwartej rewolucji przemysłowej zakładającej stopniowe zanikanie bariery ludzie-maszyny. Autonomiczne systemy bojowe stanowić mogą wyraz dążenia do zbudowania ostatecznej broni precyzyjnej. System taki miałby postać platformy wyposażonej w ośrodek decyzyjny o cechach sztucznej inteligencji, zdolny do samodzielnego podejmowania decyzji odnoszących się do selekcji celu oraz jego eliminacji.
Triumf woli
Nieco przewrotnie można zauważyć, że ugrupowania wojującego islamu swoją wersją ostatecznej broni precyzyjnej już dysponują. Zamachowiec-samobójca wypełnia wszelkie znamiona autonomicznego systemu bojowego. Jedyną różnica jest posiadanie naturalnej a nie sztucznej inteligencji. Co więcej, zamachowiec-samobójca w sposób wręcz idealny odzwierciedla islamski sposób prowadzenia wojny. Jest ukształtowany przez odmienne niż w tradycji zachodniej pojmowanie przemocy. Dominuje nie przemoc instrumentalna, ale ekspresyjna, zmierzająca w pierwszym rzędzie do zaprezentowania odwagi i męstwa. Najważniejszym elementem wojny staje się duch. Celem konfliktu jest triumf własnego ducha i złamanie ducha przeciwnika.
Obraz wojny naznaczony przez dwie skrajności – roboty bojowe oraz zamachowców-samobojców. Idealnie więc ilustruje zderzenie dwóch sposobów wojowania, gdzie duch zmaga się z materią. Jest to również zderzenie dwóch typów mentalności, charakteryzującej nie tylko organizacje militarne, ale wręcz całe społeczeństwa.
Postheroiczna riposta
Zachodnia mentalność postheroiczna skutkuje – według brytyjskiego badacza stosunków międzynarodowych Christophera Cokera – upadkiem etosu wojownika. Żołnierze to dobrze opłacani, ukierunkowani na własne kariery profesjonaliści. Należą do społeczeństw, które z powodów demograficznych jest bardzo czułe na straty własne. Z racji posiadania jednego lub dwójki dzieci, ich śmierć w walce jest dla rodziny z Zachodu niewyobrażalną tragedią.
Robot bojowy staje się idealnym narzędziem walki dla społeczeństwa, którego zasadniczym imperatywem jest ograniczenie wszelkich przejawów ryzyka. Zachodnia mentalność postheroiczna zderza się z heroiczną mentalnością społeczeństw niezachodnich, szczególnie muzułmańskich. Tam gotowość do poświęceń, a nawet męczeństwa, łączy się z gotowością do stosowania przemocy. A ta jest w zdecydowanie większym stopniu obecna w życiu społecznym. Robotyzacja wojny jawi się więc jako technologiczna i postheroiczna odpowiedź Zachodu na triumf woli spod znaku islamskiego fundamentalizmu.
Czym jest robotyzacja
Robotyzacja wojny to termin chwytliwy, ale nieprecyzyjny i dlatego często mylący. Etymologia terminu robot odnosi się do występującego w wielu językach słowiańskich słowa robota oznaczającego ciężką pracę. Tym właśnie zajmować miały się byty występujące w sztuce R.U.R. Roboty Čapka były jednak sztucznie produkowanymi istotami stworzonymi na podłożu biologicznym, czyli organizmami żywymi. Stanowią one raczej wariację na temat mitu o golemie czy monstrum powołanego do życia przez doktora Frankensteina w powieści Mary Shelley.
Współczesna wizja robota zakładająca, że jest on istotą elektromechaniczną, pojawiła się w opowiadaniu Isaaca Asimova Runaround (Zabawa w berka) z 1942. Robot jest więc maszyną – czyli urządzeniem technicznym wykonującym pracę w oparciu o przekształcanie energii, a dokładniej fuzją maszyny i komputera.
Czuje, myśli i działa
Najczęściej przywoływana definicja robota zakłada, że jest on maszyną, która czuje, myśli i działa. Co więcej, działa w rzeczywistym a nie symulacyjnym środowisku. Innymi słowy, robot jest komputerem (jego zadanie to myślenie) wyposażonym w sensory (odpowiedzialne za odczuwanie) i efektory (działanie). Rozumienie tych czynności nie jest bynajmniej oczywiste – dotyczy to w szczególności myślenia. Nie wszystkie urządzenia określane powszechnie robotami są zdolne do ich wykonywania.
Wyposażenie w sensory powoduje, że robot nie wymaga do funkcjonowania interwencji człowieka, jak komputer wymagający operacji na klawiaturze czy myszce. Dzięki czujnikom ma zdolność kierowania się bodźcami płynącymi bezpośrednio ze środowiska. Efektory z kolei warunkują zdolność do niecyfrowego oddziaływania na środowisko. To w przeciwieństwie do komputera, który sam w sobie jest zdolny tylko do oddziaływania cyfrowego, czyli manipulacji danymi. Robot jest natomiast zdolny do manipulacji obiektami fizycznymi.
Sztuczna inteligencja
Jeśli określenie istoty odczuwania i działania nie stanowi dużego problemu, pojawia się on w przypadku definicji myślenia. Samo pojęcie sztucznej inteligencji zaproponowane przez Johna McCarthy’ego w 1956 jest niezwykle kontrowersyjne. Zwłaszcza że wśród naukowców nie ma zgody nawet co do tego, czym jest myślenie i inteligencja jako miara jego sprawności. Najczęściej przywołuje się w tym kontekście zdolność do adaptacji do nowych warunków i wykonywania nowych zadań, umiejętność dostrzegania zależności i relacji, czy też zdolność uczenia się.
Wcześniejsze rozumienie inteligencji sprowadzało się do zdolności do przetwarzania informacji. Jest to wszakże czynność, którą komputery wykonują najlepiej. Ale w tym przypadku, do przetwarzania twórczego noszącego znamiona abstrakcji, a nie czysto mechanicznego. Obecnie podkreśla się również konieczność posiadania zdolności w sferze emocjonalnej. Kolejny problem kryje się w pytaniu: czy maszyny mogą myśleć, czy tylko są zdolne co najwyżej do symulowania myślenia?
Autonomia
Zamiast ulotnych kategorii myślenia i inteligencji, za miarę postępów robotyzacji przyjęto więc autonomię. Jest w uproszczeniu rozumiana jako zdolność do samodzielnego kształtowania swojego zachowania.
System autonomiczny winien charakteryzować się następującymi cechami: być niezależny od operatora, mieć możliwość podejmowania decyzji w sposób swobodny (posiadać możliwości samodzielnego dostosowania środków do celów, a w ostateczności samodzielnego wyznaczania celów) oraz posiadać zdolność do funkcjonowania w nieprzewidywalnym środowisku.
Poszczególne stopnie autonomii w ramach danych kryteriów mogą pozostawać względem siebie we wzajemnie krzyżujących się relacjach. Przykładowo, dany system może być autonomiczny w realizacji funkcji nawigowania, nadzorowany w przypadku funkcji selekcji celów i półautonomiczny, gdy chodzi o ich rażenie.
Co więcej, dana funkcja może być realizowana w różnych trybach. Na przykład, gdy operator przejdzie z trybu nadzorowanego na półautonomiczny czy wręcz ręczne zdalne sterowanie. Dla autonomicznych robotów bojowych kluczowa jest oczywiście autonomia w zakresie selekcji celów (możliwość poszukiwania, wykrywania, identyfikacji, śledzenia, wyboru celu) oraz przeprowadzenia ataku na wybrany obiekt.
Kryterium skuteczności
Jednym z charakterystycznych elementów zachodniego sposobu prowadzenia wojen jest zdolność do oceny – rewizji lub kontynuowania – dotychczasowej praktyki militarnej w oparciu o kryterium skuteczności. Praktyka wojny w niewielkim stopniu poddawała się rygorom religijnym, ideologicznym, a nawet moralnym. Dążenie do wprowadzenia autonomicznych systemów bojowych także wynika z tego kryterium. Zakłada się, że tego rodzaju wyposażenie stanowiło będzie czynnik zwiększający skuteczność własnych oddziałów na polu walki.
Tendencji w kierunku proliferacji autonomicznych systemów bojowych z pewnością nie można wyjaśnić w oparciu o założenia determinizmu technicznego. Ten zakłada, że rozwój techniki jest do pewnego stopnia żywiołowy i nie poddaje się ludzkiej kontroli. Autonomicznych systemów bojowych nie konstruuje się tylko dlatego, że jest to możliwe. Są z nimi związane bardzo konkretne oczekiwania odnośnie do uzyskania przewagi na polu walki.
Wojna bez ryzyka
Najbardziej oczywistym powodem wprowadzania systemów autonomicznych jest dążenie do wyeliminowanie ryzyka dla własnych żołnierzy. Cała historia wojen postrzegana może być jako dążenie do bycia nietykalnym, żeby wspomnieć chociażby postać Achillesa. Roboty bojowe wydają się być spełnieniem odwiecznego marzenia twórców uzbrojenia: o broni pozwalającej porazić przeciwnika z dystansu, który czyni nas niewrażliwym na jego przeciwdziałanie. W tym sensie bezzałogowe systemy stanowią ostatnią inkarnację trendu znanego od co najmniej kilkudziesięciu lat i określanego jako broń kierowana lub co ostatnio jest modne inteligentna.
Dążenie do eliminacji człowieka w wymiarze fizycznym z przestrzeni bitewnej dobrze wpisuje się w tendencję określaną przez Martina Shawa jako risk-transfer militarism. Głównym wyznacznikiem tak prowadzonych operacji wojskowych staje się minimalizacja ryzyka dla personelu wojskowego państw zachodnich poprzez przerzucenie go na inne podmioty.
Dążenie do minimalizacji strat własnych ma kluczowe znaczenie od czasów operacji Pustynna Burza, która wyznaczyła niezwykle wyśrubowane standardy w tej dziedzinie: 148 ofiar śmiertelnych po stronie koalicji antyirackiej w działaniach bojowych. Zostało to doprowadzone wręcz do karykatury podczas wojny w Jugosławii w 1999, gdzie panowała koncepcja zero strat własnych.
Ryzyko minimalizować można przez ograniczenie się do ofensywy powietrznej (Jugosławia 1999), przerzucenie ciężaru działań wojennych na lądzie na lokalnych sojuszników (pierwsza faza operacji w Afganistanie), wykorzystanie prywatnych firm wojskowych (działanie typowe dla konfliktu w Iraku), wreszcie szerokie wykorzystanie systemów zrobotyzowanych.
Lepsze niż człowiek
Drugim zasadniczym powodem dążenia do wykorzystania autonomicznych systemów bojowych jest założenie, że w pewnych zadaniach będą one po prostu lepsze od ludzi. Nie ulega wątpliwości, że robot – a w zasadzie komputer, jeśli koncentrujemy się na elemencie odpowiedzialnym za myślenie – radzi sobie z pewnymi zadaniami lepiej niż człowiek. Dotyczy to oczywiście operacji umysłowych – wszak przetwarzanie informacji jest ich domeną.
Przykładem może być umiejętność gry w szachy. Pierwsze programy komputerowe wyposażone w taką umiejętność powstały w latach 1950. Wydarzeniem o znaczeniu symbolicznym było zwycięstwo Deep Blue z mistrzem świata Garrim Kasparowem w 1997 roku. Ostatnio szerokim echem odbiły się sukcesy AlphaGo w starochińskiej grze planszowej go. W 2016 program kilkukrotnie pokonał najlepszego na świece gracza Koreańczyka Lee Sedola.
Roboty przewyższają też ludzi pod względem fizycznym. Są w stanie operować w środowiskach niedostępnych dla człowieka i nie odczuwają zmęczenia, co pozwala realizować misje o większej długotrwałości. Często cechują się lepszymi parametrami w zakresie siły lub szybkości.
Ograniczenie decyzyjności
Efektem robotyzacji może być stopniowa eliminacja już nie tylko fizycznego, ale także umysłowego udziału człowieka w wojnie. W tym przede wszystkim ograniczenie ludzkiej decyzyjności. Wbrew pozorom, proces ten nie jest zupełnie nowy. Środowisko informacyjne pola bitwy staje się skomplikowane, chociażby poprzez zdolność do pozyskiwania informacji z wielu źródeł.
Człowiek nie jest w stanie przetworzyć takiej liczby danych, ucieka się zatem do pomocy systemów automatyzacji – jeszcze nie autonomii – procesu dowodzenia. Zazwyczaj pomoc polega na wsparciu w podejmowaniu decyzji. Obejmuje syntezę informacji i proponowanie rozwiązań. Stanowi to jednak pierwszy krok do wyeliminowania człowieka z pętli decyzyjnej.
Zwiększenie liczby dostępnych informacji skutkuje brakiem możliwości ich zagregowania i syntezy przez ludzki umysł. Komputer jawi się jako idealne rozwiązanie tego problemu. To właśnie przetwarzanie informacji jest domeną komputerów i polem, na którym w sposób zasadniczy przewyższają one ludzi.
Dodatkową presję tworzy ograniczenie czasu na podjęcie decyzji, zwłaszcza odkąd szeroko rozumiana prędkość stała się jednym z decydujących czynników na polu walki. Środki rażenia poruszają się tak szybko, że pozostawiają niewiele czasu na reakcję. Decyzję wypracowują więc automaty. Jak dotąd człowiek ma możliwość zatwierdzenia lub zablokowania decyzji maszyny. Często jest to jednak tylko możliwość. Operator zdaje sobie sprawę, że automat jest w procesie podejmowania decyzji bardziej kompetentny.
Mózg razem z efektorem
Ten wymiar odnosi się nie tyle do robotyzacji, ale do rozwoju sztucznej inteligencji. Z pewnych względów zasadnym jest, by ośrodek decyzyjny umieścić na platformie bojowej. Przede wszystkim fizyczne odizolowanie mózgu od efektora wymusza tworzenie kanałów komunikacyjnych łączących te dwa elementy. A te podatne są na zakłócenie, albo wręcz na przejęcie kontroli przez przeciwnika.
Najprawdopodobniej taki scenariusz udało się zrealizować Irańczykom. W grudniu 2011 sprowadzili na ziemię i przejęli w stanie praktycznie nieuszkodzonym amerykański rozpoznawczy samolot bezpilotowy RQ-170 Sentinel.
Nawet rebelianci, którzy przeprowadzili z wykorzystaniem uzbrojonych prymitywnych improwizowanych bezzałogowców ataki na rosyjską bazę w Chmejmin w Syrii na przełomie 2017 i 2018 roku, byli świadomi ryzyka zakłócenia kanałów komunikacyjnych. Zamiast zdalnego sterowania wyposażyli swoje urządzenia w prosty moduł autonomiczny w postaci odbiornika sygnału nawigacji satelitarnej.
Kłopotliwe opóźnienie
Kolejną wadą zdalnego sterowania i motywacją do rozwoju systemów autonomicznych jest opóźnienie w przesyle komend kierowania. W przypadku łącz satelitarnych, a tylko takie umożliwiają sterowanie o zasięgu globalnym, opóźnienie wynosi około jednej sekundy.
Nie jest to duży problem, gdy chodzi o stosunkowo proste misje rozpoznawcze. Praktycznie eliminuje jednak możliwość skutecznego prowadzenia walk powietrznych przeciwko aparatom załogowym. Dochodzą też problemy z czuciem maszyny, które w sposób oczywisty jest wyeliminowane w przypadku zdalnego sterowania. Występuje brak oporu i informacji zwrotnej na drążku sterownym, nie ma odczuwania wibracji czy ruchów powietrza.
W przypadku bezzałogowców mających zastąpić samoloty myśliwskie rozwiązaniem wydaje się być tylko ich maksymalna autonomizacja. Kluczowe decyzji powinny były podejmowane na pokładzie przez układ sztucznej inteligencji, a nie operatora usytuowanego poza maszyną.
Optymistyczne prognozy
Budowa autonomicznych systemów bojowych, które mogą stanowić użyteczne narzędzie na polu walki, przebiega wolnej niż przewidywano jeszcze kilkanaście lat temu. Na polskim podwórku symbolem tych zbyt optymistycznych prognoz jest teza postawiona w 2008 roku przez generała Stanisława Kozieja. Zakładał on, że bezzałogowe aparaty latające z pewnością za 15-20 lat zdominują powietrzny wymiar operacji wojskowych. Nieubłaganie się zbliża horyzont czasowy, w którym ta wizja ma się zmaterializować.
Tymczasem uzbrojone latające bezzałogowce, awangarda robotyzacji pola bitwy, nadal stanowią w najlepszym razie niszę. Co gorsza, są użyteczne tylko w ściśle określonych warunkach: w sytuacji całkowitego braku obrony przeciwlotniczej i sił powietrznych przeciwnika. Budowa takich maszyn okazuje się być większym wyzwaniem technicznym niż przypuszczano, a przez to ich rozwój jest znacznie wolniejszy niż zakładano.
Wyrazistym symbolem są losy programu Unmanned Carrier-Launched Airborne Surveillance and Strike (UCLASS). Początkowo zakładał stworzenie startującego z lotniskowców bezzałogowca, który miał być zdolny do operowania w przestrzeni powietrznej przeciwnika i realizacji misji uderzeniowych. Kolejne redefinicje programu zmierzały w kierunku położenia większego nacisku na prostsze misje rozpoznawcze. Ostatecznie UCLASS zmaterializuje się jako MQ-25 Stingray – pokładowy samolot do tankowania w powietrzu operujący we własnej przestrzeni powietrznej.
Problem z lądem
Szczególnym wyzwaniem okazało się skonstruowanie robotów bojowych przeznaczonych do działań na lądzie. Powietrze i woda są względnie wysoce ustrukturyzowanymi ośrodkami walki. W takiej przestrzeni wynik starcia już od dawna w znacznej mierze uzależniony jest od przewagi technicznej, w tym od dysponowania środkami obserwacji. Tymczasem ląd jako przestrzeń bitewna okazuje się w zdecydowanie większym stopniu nieprzewidywalny.
Dotychczasowe, często niezwykle ambitne programy rozwoju bojowych robotów lądowych, przyniosły stosunkowo mizerne efekty. Wymownym przykładem jest fiasko zakrojonego na szeroką skalę programu transformacji amerykańskich sił zbrojnych Future Combat Systems. Zakładał budowę szeregu platform załogowych i bezzałogowych, spiętych systemami komunikacyjnymi zapewniającymi bezprecedensową świadomość sytuacyjną zgodnie z koncepcją sieciocentrycznego pola walki. Chociaż wiele rozwiązań i doświadczeń programu znalazło praktyczne zastosowanie, to nie dotyczy to platform bezzałogowych, zarówno bojowych, jak i mających realizować inne zadania, na przykład logistyczne.
Także rosyjskie doświadczenia z wykorzystania lądowych bojowych platform bezzałogowych o dość ograniczonej skali autonomii podczas wojny w Syrii są, oględnie mówiąc, mieszane. Niska świadomość sytuacyjna operatorów i zawodne kanały łączności to tylko niektóre z problemów na jakie natrafili Rosjanie.
Odpowiednia doktryna
Trzeba również zaznaczyć, że nawet jeśli pokonane zostaną wszystkie trudności techniczne, otwartą kwestią pozostanie wypracowanie adekwatnej doktryny wykorzystania oraz struktur organizacyjnych formacji zrobotyzowanych bądź mieszanych.
Większość dotychczasowych przełomów w sposobie prowadzenia wojen, określanych mianem rewolucji w sprawach wojskowych, zawierała trzy wzajemnie uzupełniające się komponenty: techniczny, doktrynalny i organizacyjny. Wymownym przykładem są takie wynalazki jak czołgi, lotnictwo i łączność radiowa. Szeroko stosowane już w czasie pierwszej wojny światowej, stały się składnikami prawdziwej rewolucji dopiero, gdy otrzymały wsparcie w postaci adekwatnej doktryny (blitzkrieg).
Strach przed zmianą
Oprócz kwestii technicznych i doktrynalnych, należy pokonać opór przed radykalnymi zmianami, typowy dla z natury konserwatywnych organizacji militarnych. Historia wojskowości dostarcza wielu przykładów, gdy rewolucyjne rodzaje uzbrojenia musiały sobie torować drogę wśród uprzedzeń kasty oficerskiej. Przykładem może być zastąpienie żaglowców parowcami, czy koni pojazdami mechanicznymi.
Dodatkowym czynnikiem opóźniającym rozwój jest zasadna obawa przed overinnovation. Takie określenie oznacza techniczną innowację, która mimo wielkich nadziei może okazać się z taktycznego punktu widzenia w najlepszym razie niszą, a w najgorszym ślepą uliczką. Przykładami mogą być dwusilnikowe myśliwce (samoloty pościgowe) pod koniec lat 1930. lub czołgi rakietowe rozwijane w Stanach Zjednoczonych i Związku Radzieckim w latach 1960.
Następstwa psychologiczne
Trudne do przewidzenia są ewentualne konsekwencje psychologiczne robotyzacji. Zwraca się uwagę na potencjalny negatywny wpływ na spójność jednostek bojowych, na esprit de corps – duch koleżeństwa. Obecność pośród żołnierzy robotów wyposażonych w sensory i mogących służyć potencjalnie do monitorowania działań ludzi, może podważać zaufanie w ramach zespołu.
Trudno określić, czy i jakie skutki może mieć wyraźna w twórczości science-fiction tendencja do nadawania robotom ludzkich kształtów, czyli tworzenia urządzeń humanoidalnych. W dużej mierze stan taki przekłada się na specyficzne relacje na linii ludzie-roboty. Chociażby poprzez proces antropomorfizacji, czyli przypisywania innym bytom cech ludzkich.
Tworzenie robotów humanoidalnych ma też uzasadnienie funkcjonalne. W pewnych zadaniach rozmieszczenie sensorów i efektorów wzorowanie na ludziach jest optymalne. Ponadto roboty często operują w przestrzeni stworzonej z myślą o ludziach, tak więc humanoidalne maszyny będą się tam najlepiej odnajdywały. Chodzi o wymiary lub takie cechy mobilności jak zdolność chodzenia po schodach.
Z drugiej strony roboty mogą stanowić rozwiązanie dwóch kolejnych kluczowych problemów związanych z uczestnictwem ludzi w działaniach wojennych. Pierwszym jest możliwość uniknięcia szkód psychicznych. Obejmuje to na przykład syndrom stresu pourazowego, będący rezultatem uczestnictwa człowieka w działaniach na polu walki, a w szczególności wystawienia na okoliczności związane z zabijaniem.
Po drugie, roboty mogą stać się sposobem na przezwyciężenie występującego często wśród żołnierzy braku ducha ofensywnego spowodowanego względami psychologicznymi. Nie chodzi tylko o strach, ale również o awersję do zabijania. Część żołnierzy nie jest zdolna strzelać do przeciwnika. Co ciekawe, zjawisko to dotyka nawet pilotów samolotów myśliwskich.
Roboty a polityka
Na poziomie całych organizmów politycznych tendencja do oparcia sił zbrojnych na systemach zrobotyzowanych może pociągnąć obniżenie bariery rozpoczęcia działań zbrojnych. Wojna przestanie się być rozwiązaniem ostatecznym – jeśli kiedykolwiek nim była. Stać się może rozwiązaniem preferowanym.
Robotyzacja znowu zaoferuje politykom wizję wojny prowadzonej z chirurgiczną precyzją, oglądaną z perspektywy monitora. Co najważniejsze będzie niosła perspektywę eliminacji lub co najmniej ogromnego zmniejszenia strat własnych. W ten sposób na wojnę patrzono po operacji Pustynna Burza, choć po części był to propagandowo wykreowany obraz. Wówczas wydawało się, że kolejne wojny toczone przez Zachód będą podobne.
Takie też były założenia agresji na Irak w 2003. I rzeczywiście, początkowa faza wojny przebiegała według tego scenariusza. Okupacja Iraku unaoczniła jednak, że był to obraz jeśli nie fałszywy, to na pewno zbyt jednostronny i możliwy do realizacji tylko w pewnych, ściśle określonych uwarunkowaniach. Przebieg działań w Iraku i Afganistanie zdecydowanie osłabił gotowość Amerykanów do wikłania się w kolejne konflikty zbrojne. Jeśli entuzjaści robotyzacji na powrót wykreują obraz wojny o znikomym ryzyku, możemy być świadkami odwrócenia tej tendencji.
U.S. Navy photo taken by Mass Communications Specialist Seaman Apprentice Alex Millar/Released
Zderzenie cywilizacji
Rozpatrując sytuację zderzenia sposobów prowadzenia wojen wywodzących się z różnych kręgów kulturowych należy zwrócić uwagę, że często charakteryzują się one zupełnie odmiennym podejściem co do uznawania pewnych działań za moralnie uzasadnione lub też godne potępienia. Jeśli wojna prowadzona jest nie przeciwko danemu państwu i społeczeństwu, ale wręcz w jego imię i dla jego dobra, czyli jest wojną o serca i umysły, trudno jest ją wygrać z wykorzystaniem metod uznawanych przez dane społeczeństwo za niehonorowe.
Robotyzacja w starciu z fundamentalizm islamskim stanowi podwójne wyzwanie. Po pierwsze, uznawana jest za objaw tchórzostwa Zachodu, za niehonorową formę walki i przejaw arogancji społeczeństw zachodnich. Po drugie, jeśli rzeczywiście doszłoby do wojny, gdzie jedną stronę reprezentowałyby tylko roboty i przeciwnik nie mógłby zabijać żołnierzy (pewne cechy takich konfliktów mają operacje typu targeted killing), akty terroryzmu stałyby się uzasadnione zarówno moralnie, jak i instrumentalnie. Skoro bogate i technicznie zaawansowane społeczeństwo schowało się za robotami, atakowanie jego członków, w tym cywili, jest dla przeciwnika jednocześnie jedyną dostępną opcją i sprawiedliwą karą.
Rygory etyczne
Wojny prowadzone przez Zachód, często w celach humanitarnych i za pomocą możliwie najbardziej humanitarnych metod (przynajmniej w deklaracjach), muszą być poddawane rygorom etycznym. I to nawet jeśli przeciwnik ma zasady międzynarodowego prawa humanitarnego konfliktów zbrojnych w głębokiej pogardzie. Nadal armie zachodnie muszą przynajmniej starać się postępować zgodnie z jego zapisami.
Rygorom etycznym będą musiały być poddane również autonomiczne maszyny bojowe. Systemy decyzyjne powinny mieć możliwość działania zgodnie z zasadami proporcjonalności użytych środków oraz zakazem powodowania niepotrzebnych cierpień.
Walczący i niewalczący
Największym wyzwaniem wydaje się jednak zdolność do rozróżniania celów uprawionych i nieuprawnionych. Szczególnie istotne jest rozróżnienie między kombatantami i niekombatantami (walczącymi i niewalczącymi). Prawo wojny zakłada, że uprawnione jest tylko intencjonalne atakowanie walczących, czyli osób posiadających status kombatanta (żołnierza) i cywilów biorących bezpośredni udział w walkach.
We współczesnych konfliktach zbrojnych noszenie munduru, co było jednym z tradycyjnych wyróżników żołnierza, coraz częściej zamiast reguły staje się wyjątkiem. Sytuacja ta jest pochodną niejednoznacznego statusu wielu współczesnych konfliktów zbrojnych i stanowi wyzwanie o charakterze ogólnym. Skoro nie radzą sobie z nim ludzie, trudno oczekiwać, że zadaniu temu sprostają roboty.
Artykuł został pierwotnie opublikowany w MILMAG 01/2019