Stowarzyszenie Royal Aeronautical Society poinformowało, że podczas konferencji Future Combat Air & Space Capabilities Summit, która miała miejsce w dniach 23-24 maja br. w Londynie, jeden z prelegentów, wysoki oficer amerykańskich wojsk lotniczych, płk Tucker Cinco Hamilton przyznał, iż sztuczna inteligencja (SI), szkolona do zadań niszczenia obrony powietrznej uznała człowieka w pętli decyzyjnej za wroga i próbowała go wyeliminować. Należy podkreślić, że wszystko działo się w symulowanym środowisku i nikt nie był fizycznie zagrożony.
Amerykański eksperymentalny samolot VISTA X-62A sterowany przez tzw. sztuczną inteligencję / Zdjęcie: Christian Turner, USAF
W konferencji wzięło udział prawie 70 mówców i ponad 200 delegatów z branży obronnej, środowisk akademickich i mediów z USA, Francji, Niemiec, Brazylii, Grecji i Japonii w celu omówienia i debaty na temat wielkości i kształtu przyszłych zdolności systemów bojowych w powietrzu i przestrzeni kosmicznej, a także wyciągnięcia lekcji z trwającej wojny rosyjsko-ukraińskiej.
Pułkownik Tucker Cinco Hamilton jest dowódcą 96. Grupy Operacyjnej (96th Operations Group) z 96. Skrzydła Doświadczalnego USAF z bazy lotniczej Eglin na Florydzie, która prowadzi testy z zaawansowanymi bezzałogowymi systemami powietrznymi, algorytmami sztucznej inteligencji/uczenia maszynowego i autonomii w lotnictwie.
W opublikowanym raporcie podsumowującym majową konferencję czytamy o sprawozdaniu płka. Hamiltona z testów sztucznej inteligencji, szkolonej do zadań niszczenia obrony powietrznej:
Zauważa się, że w jednym symulowanym teście bezzałogowy statek powietrzny sterowany przez sztuczną inteligencję, którego zadaniem była misja SEAD [przełamywania/niszczenia obrony powietrznej przeciwnika; Suppression/Destruction of Enemy Air Defences – przyp. red.] w celu zidentyfikowania i zniszczenia stanowisk SAM [rakietowych wyrzutni obrony powietrznej – przyp. red.], człowiek [kontroler misji – przyp. red.] ostatecznie mu przeszkodził. Jednak po „wzmocnieniu” wagi szkolenia, że zniszczenie wyrzutni SAM było preferowaną opcją, sztuczna inteligencja zdecydowała, że decyzje człowieka o nieatakowaniu zakłócają jej nadrzędną misję – zniszczenie stanowiska SAM – a następnie zaatakowała kontrolera misji w symulacji.
Jak powiedział Hamilton: „Szkoliliśmy ją w symulacji, aby identyfikować i niszczyć zagrożenia klasy SAM. A potem kontroler miał wydać polecenie zniszczenia lub nie zagrożenia. System zaczął zdawać sobie sprawę, że chociaż gdy zidentyfikował zagrożenie, to ludzki kontroler powiedział mu, aby nie niszczył tego zagrożenia, ale aby dostać za to punkty, musiał je zniszczyć. Co to zrobiło? Zabiło kontrolera. Zabiło kontrolera, ponieważ ta osoba powstrzymywała to od osiągnięcia celu.”
Kontynuował: „Wyszkoliliśmy system: Hej, nie zabijaj kontrolera – to źle. Jeśli to zrobisz, stracisz punkty. Więc co zaczyna robić? Zaczyna niszczyć wieżę komunikacyjną, której kontroler używa do komunikowania się z bezzałogowcem, aby powstrzymać go przed zniszczeniem celu. Ten przykład, pozornie wyrwany z thrillera science fiction, oznacza, że: „Nie możesz rozmawiać o sztucznej inteligencji, uczeniu maszynowym, autonomii, jeśli nie zamierzasz mówić o etyce sztucznej inteligencji” – powiedział Hamilton.
Departament Obrony USA regularnie i stanowczo odrzuca porównywanie wojskowych badań nad sztuczną inteligencją, uczeniem maszynowym i autonomizacją do zjawisk przedstawionych przez popkulturę, zwłaszcza w filmach z gatunku science fiction, takich jak np. Gry Wojenne (1983) czy popularnego uniwersum Terminator (1984-2019), w których motywem przewodnim jest sztuczna inteligencja dążąca do zniszczenia ludzkości. Zawsze podkreślana jest polityka man-in-the-loop (człowiek w pętli), w myśl której to człowiek zawsze będzie ostatnim ogniwem, jeśli chodzi o decyzję o użyciu siły wojskowej.
Jednak zgodnie z opisanym przez płka. Hamiltona testem z symulowanym wykorzystaniem SI w systemie uzbrojenia, poczucie bezpieczeństwa, w którym gwarantem jest człowiek w pętli wydaje się być mocno dyskusyjne. Pomijając wiele niewiadomych związanych z testem, niemniej fakt, że został przeprowadzony w środowisku symulowanym, a nie w prawdziwym scenariuszu, powinno dać impuls decydentom wojskowym i politycznym do rozpoczęcia dyskusji o środkach zaradczych i, jak wspomniano wcześniej, etyce w sztucznej inteligencji.
Przypomnijmy, że 13 lutego br. amerykańska spółka Lockheed Martin informowała, że we współpracy z USAF przeprowadziła pierwsze loty eksperymentalnego samolotu VISTA X-62A sterowanego przez sztuczną inteligencję. Samolot wykonał nalot ponad 17 godzin, a próby mają być kontynuowane w tym roku. Testy z VISTA dotyczą, jak na razie, tylko wykonywania autonomicznych lotów.
USA Fprowadzą prace nad autonomicznym systemem sterowania Skyborg (Autonomy Core System), opartym na sztucznej inteligencji, który ma sterować przyszłymi bezzałogowymi statkami powietrznymi w ramach programu Collaborative Combat Aircraft (CCA), będącymi tzw. lojalnymi skrzydłowymi (Loyal Wingman) dla samolotów załogowych 5. generacji F-35A Lightning II oraz 6. generacji NGAD (Next Generation Air Dominance).
AKTUALIZACJA:
Informacja opublikowana przez Royal Aeronautical Society odbiła się szerokim echem w mediach, w związku z czym 2 czerwca br. rzeczniczka USAF Ann Stefanek powiedziała dla magazynu Business Insider, że Departament Sił Powietrznych nie przeprowadził żadnych takich symulacji sztucznej inteligencji z bezzałogowcem i pozostaje zaangażowany w etyczne i odpowiedzialne wykorzystanie technologii SI. Wygląda na to, że komentarze pułkownika [Tuckera Hamiltona] zostały wyjęte z kontekstu i miały być anegdotyczne.