Wojny algorytmów

Wojny algorytmów
Gdy mówi się o zaciągnięciu sztucznej inteligencji do wojska, od razu budzą się zmory znane z science fiction, zbuntowanej i śmiercionośnej AI, która obraca się przeciwko ludzkości, by ją wytępić. Niestety, równie silny jest lęk wojskowych i przywódców, że "przeciwnik nas wyprzedzi" w rozwoju algorytmów wojny.

Algorytmiczne działania wojenne, które, według wielu opinii, mogą radykalnie zmienić znane nam oblicze pola walki, przede wszystkim dlatego, że operacje militarne stałyby się szybsze, dalece wyprzedzałyby zdolność ludzi do podejmowania decyzji. Amerykański generał Jack Shanahan (1), szef amerykańskiego Joint AI Center, podkreśla jednak, że zanim wprowadzimy AI do arsenałów, musimy się upewnić, że systemy te będą wciąż pod ludzką kontrolą i nie zaczną prowadzić wojen na własną rękę.

1. Generał Jack Shanahan

"Jeżeli przeciwnik ma maszyny i algorytmy, to przegramy ten konflikt"

Możliwość prowadzenia wojny algorytmicznej opiera się na wykorzystaniu komputerowego postępu technologicznego w trzech głównych obszarach. Pierwszy z nich to dekady wykładniczego wzrostu mocy przetwarzania komputerowego, które umożliwiło znaczną poprawę wydajności uczenia maszynowego. Drugi polega na szybkim wzroście zasobów "big data", czyli ogromnych, najczęściej zautomatyzowanych, eksploatowanych i tworzonych na bieżąco zbiorów danych nadających się do trenowania maszyn. Trzeci dotyczy szybkiego rozwoju technik chmury obliczeniowej, dzięki której komputery mogą mieć łatwy dostęp i możliwość przetwarzania zasobów danych w celu rozwiązywania problemów.

Algorytm wojenny, jak definiują to specjaliści, po pierwsze musi być wyrażony za pomocą kodu komputerowego. Po drugie, musi wynikać z działania platformy zdolnej zarówno do zbierania informacji, jak też do dokonania wyboru, podejmowania decyzji, która, przynajmniej w teorii, nie wymagają ludzkiej interwencji. Po trzecie, co wydaje się oczywiste ale niekoniecznie jest, bo dopiero w działaniu okazuje się, czy technika zaprojektowana do czegoś innego może przydać się w wojaczce i odwrotnie, musi być zdolny do działania w warunkach konfliktu zbrojnego.

Z analizy powyższych obszarów i ich współdziałania wynika, że algorytmiczne wojna nie jest technologią odrębną, taką jak np. broń energetyczna albo rakiety hipersoniczne. Jej efekty są szerokie i stopniowo stają się wszechobecne w działaniach wojennych. Po raz pierwszy maszyny wojskowe stają się inteligentne, co potencjalnie czyni siły obronne, które je wprowadzają, skuteczniejszymi i wydajniejszymi. Takie inteligentne maszyny mają wyraźne ograniczenia, które muszą być dobrze zrozumiane.

"Możemy być zszokowani szybkością, chaosem, brutalnością i zaciętością wojny przyszłości, która trwać może zaskakująco krótko, być może mikrosekundy. Jak wyobrażamy sobie tę walkę? To musi być algorytm przeciwko algorytmowi", mówił Shanahan podczas rozmowy z byłym dyrektorem generalnym Google, Erikiem Schmidtem i wiceprezesem ds. globalnych w Google, Kentem Walkerem jesienią ubiegłego roku. "Jeżeli przeciwnik ma maszyny i algorytmy, a my nie, to istnieje niedopuszczalnie duże ryzyko, że przegramy ten konflikt".

W projekcie raportu Narodowej Rady Bezpieczeństwa Stanów Zjednoczonych na temat AI ponad 50 razy o Chinach, zwracając uwagę na oficjalnie głoszony przez przywódców Chin cel, jakim jest osiągnięcie do 2030 r. pozycji światowego lidera w dziedzinie AI (zobacz także: NIE! dla robotów bojowych).

Słowa te padły w Waszyngtonie na konferencji poświęconej sztucznej inteligencji, która odbyła się po tym, jak wspomniany ośrodek Shanahana przedstawił Kongresowi swój wstępny raport, przygotowany we współpracy ze znanymi specjalistami w dziedzinie sztucznej inteligencji, m.in. dyrektora ds. badań firmy Microsoft Erika Horvitza, dyrektora generalnego AWS Andy’ego Jassy i głównego badacza w Google Cloud Andrew Moore’a. Końcowy raport ukaże się w październiku 2020 roku.

Pracownicy Google protestują

Pentagon parę lat temu zaangażował się w wojnę algorytmiczną i szereg projektów związanych z AI w ramach Project Maven, który opierał się na współpracy z firmami technologicznymi m.in. Google i startupami takimi jak Clarifai. Obejmował przede wszystkim pracę nad sztuczną inteligencją, mającą ułatwić identyfikację obiektów na obrazach rejestrowanych przez drony.

Kiedy wiosną 2018 r. udział Google w projekcie został ujawniony, tysiące pracowników giganta z Mountain View podpisało list otwarty protestujący przeciwko zaangażowaniu firmy we współpracę z wojskiem. Po miesiącach niepokojów pracowniczych Google przyjął własny zestaw zasad AI, który zawiera zakaz udziału w działaniach polegających na budowie autonomicznej broni.

Google zobowiązał się również do zakończenia kontraktu Project Maven do końca 2019 roku. Wycofanie się Google nie oznaczało końca Projektu Maven. Przejął go Palantir Petera Thiela. Siły Powietrzne i Korpus Piechoty Morskiej USA planują wykorzystanie w ramach Project Maven specjalnych samolotów bezzałogowych, takich jak Global Hawk, z których każdy ma monitorować wizualnie nawet 100 kilometrów kwadratowych.

Przy okazji tego, co się działo wokół Project Maven, okazało się jasno, że wojsko USA pilnie potrzebuje własnej chmury obliczeniowej. Tak podczas wspomnianej konferencji mówił Shanahan. Było to wyraźnie widać, gdy trzeba było nagrania wideo i aktualizacje systemu transportować ciężarówkami do rozsianych w terenie instalacji wojskowych. W tworzenie jednolitej chmury obliczeniowej, która pozwoli rozwiązać problemy tego rodzaju, w ramach projektu jednolitej infrastruktury informatycznej dla wojska JEDI, zaangażowane są m.in. Microsoft, Amazon, Oracle i IBM. Google nie ze względu na swoje kodeksy etyczne.

Z wypowiedzi Shanahana jasno wynika, że wielka rewolucja AI w wojsku dopiero się zaczyna. A rola w wojsku amerykańskim jego ośrodka rośnie. Widać to wyraźnie w zakładanym budżecie JAIC. W 2019 roku było to nieco poniżej 90 milionów dolarów. W 2020 r. powinno to być już 414 mln dolarów, czyli około 10 proc, szacowanego przez Pentagon budżetu AI na 4 mld dolarów.

Maszyna rozpoznaje poddającego się żołnierza

Wojska amerykańskie są już wyposażone w systemy, takie jak np. Phalanx (2), który jest rodzajem autonomicznej broni używanej na amerykańskich okrętach marynarki wojennej do atakowania nadlatujących pocisków. Gdy wykryje rakietę, włącza się automatycznie i niszczy wszystko na swojej drodze. Może on zaatakować cztery lub pięć pocisków w ciągu pół sekundy, bez konieczności przechodzenia przez każdy cel i patrzenia na niego, mówi Ford.

2. System Phalanx

Innym przykładem jest półautonomiczny Harpy (3), system dronów produkcji Israel Aerospace Industries. Harpy służy do niszczenia radarów przeciwnika. Na przykład, w 2003 r., kiedy Stany Zjednoczone zaatakowały Irak, który miał systemy radarowe przechwytujące samoloty, drony izraelskiej produkcji pomogły znaleźć i je zniszczyć, tak aby Amerykanie mogli bezpiecznie wlecieć w iracką przestrzeń powietrzną.

3. Wystrzeliwanie drona systemu IAI Harpy

Kolejny znany przykład autonomicznej broni to system SGR-1 koreańskiego Samsunga, rozmieszczony w strefie zdemilitaryzowanej między Koreą Północną a Południową, który jest przeznaczony do identyfikacji i strzelania do intruzów z odległości do niemal czterech kilometrów. Według opisu system "potrafi odróżnić osobę, która się poddaje, od osoby, która się nie poddaje", na podstawie położenia jej rąk lub rozpoznania ułożenia broni w rękach.

4. Demonstracja detekcji poddającego się żołnierza przez system SGR-1 Samsunga

Amerykanie boją się zostać w tyle

Obecnie co najmniej 30 krajów na świecie używa broni automatycznej o różnym poziomie zaawansowania i wykorzystania AI. Chiny, Rosja i USA postrzegają sztuczną inteligencję jako niezbędny element budujący ich przyszłą pozycję w świecie. "Kto wygra wyścig AI, ten będzie rządził światem", powiedział studentom w sierpniu 2017 roku prezydent Rosji Władimir Putin. Prezydent Chińskiej Republiki Ludowej Xi Jinping nie ma na koncie tak głośnych medialnie wypowiedzi, ale to on jest głównym sprawczym dyrektywy wzywającej Chiny do stania się dominującą siłą w dziedzinie AI do 2030 r.

W USA narastają obawy przed "efektem sputnika", który wykazał, że Stany Zjednoczone są żałośnie słabo przygotowane do sprostania nowym wyzwaniom związanym ze sztuczną inteligencją. A to może być groźne dla świata, choćby dlatego, że zagrożony zdominowaniem kraj może chcieć zniwelować przewagę strategiczną wroga w inny sposób, czyli przez wojnę.

Choć początkowym zadaniem Project Maven była pomoc w lokalizacji islamskich bojowników ISIS, jego implikacje dla dalszego rozwoju militarnych systemów AI są ogromne. Elektroniczne, oparte na rejestratorach, monitorach i czujnikach (także mobilnych, latających) działania wojenne wiążą się z ogromną ilością niejednorodnych strumieni danych, które mogą być skutecznie wykorzystane tylko za pomocą algorytmów AI.

Hybrydowe pole walki stało się militarną wersją IoT, obfitującą w ważne informacje do oceny taktycznych i strategicznych zagrożeń i możliwości. Zdolność do zarządzania tymi danymi w czasie rzeczywistym przynosi ogromne korzyści, ale nieumiejętność wyciągnięcia wniosków z tych informacji może oznaczać katastrofę. Zdolność do szybkiego przetwarzania zalewu informacji z różnych platform działających w wielu domenach przekłada się na dwa podstawowe atuty militarne - szybkość i zasięg. Sztuczna inteligencja pozwala analizować w czasie rzeczywistym dynamiczne warunki pola walki i uderzać szybko i optymalnie, jednocześnie minimalizując ryzyko dla własnych sił.

To nowe pole walki to także wszechobecne i wszechwiedzące pojazdy autonomiczne. AI znajduje się w samym sercu tzw. rojów dronów, którym w ostatnich latach poświęca się wiele uwagi. Oprogramowanie nawigacyjne wykorzystujące AI wspomagane przez wszechobecne czujniki nie tylko umożliwia bezzałogowym pojazdom nawigację przez wrogi teren, ale może również ostatecznie umożliwić tworzenie złożonych formacji różnego rodzaju samolotów bezzałogowych działających w wielu dziedzinach, z dodatkowym uzbrojeniem umożliwiającym prowadzenie wyrafinowanych taktyk bojowych, natychmiast dostosowując się do manewrów wroga w celu wykorzystania możliwości pola walki i zgłaszania zmieniających się warunków.

Postępy w dziedzinie celowania i nawigacji wspomaganej przez sztuczną inteligencję poprawiają również perspektywy efektywności w szerokiej gamie systemów obrony taktycznej i strategicznej, w szczególności obrony przeciwrakietowej, poprzez wzmocnienie technik wykrywania, śledzenia i identyfikacji celów.

Sztuczna inteligencja stale zwiększa moc symulacji i narzędzi do gier, wykorzystywanych do badania broni jądrowej i konwencjonalnej. Masowe modelowanie i symulacja będą niezbędne do zaprojektowania wszechobejmującego, wielodomenowego systemu systemów przewidywanych do zarządzania walką i złożonych misji. AI wzbogaca również symulacje pól bitewnych i gry wojenne obejmujące interakcje z wieloma aktorami (5). Sztuczna inteligencja umożliwia graczom dodawanie i modyfikowanie zmiennych gry w celu zbadania, jak dynamiczne warunki (uzbrojenie, zaangażowanie sojuszników, dodatkowych oddziałów itd.) mogą wpływać na wyniki i podejmowanie decyzji.

5. Wirtualne pole walki

Dla wojska identyfikacja obiektów jest naturalnym punktem wyjścia dla AI. Po pierwsze potrzebuje zintegrowanej i szybkiej analizy rosnącej liczby obrazów i informacji zebranych z satelitów i samolotów bezzałogowych w celu znalezienia obiektów o znaczeniu wojskowym, takich jak pociski, ruchy wojsk, i innych danych cennych z wywiadowczego punktu widzenia. Obecnie pole bitwy rozciąga się na wszystkie tereny - morze, ląd, powietrze, kosmos i cyberprzestrzeń - w skali globalnej.

Cyberprzestrzeń, jako domena z natury cyfrowa, w naturalny sposób nadaje się do aplikacji AI. Po stronie ofensywnej AI mogłaby pomóc w zlokalizowaniu i wycelowaniu poszczególnych węzłów sieci lub indywidualnych kont w celu zebrania, zakłócenia lub dezinformacji. Cyberataki na krajową infrastrukturę i sieci dowodzenia mogą mieć katastrofalne skutki. Po stronie defensywnej SI może pomóc w wykrywaniu takich włamań i poszukiwaniu wyniszczających anomalii w cywilnych i wojskowych systemach operacyjnych.

Szybkość oczekiwana i niebezpieczna

Jednak szybkie podejmowanie decyzji i operacyjne wykonanie może nie służyć dobrze celom skutecznego zarządzania kryzysowego. Korzyści na polu walki, jakie daje AI i autonomiczne systemy, mogą nie dać czasu dyplomacji, która jak wiemy z historii często dobrze sprawdzała się jako sposób na uniknięcie kryzysu lub zarządzanie nim. W praktyce, spowolnienie działań, zatrzymanie się i przeznaczenie czasu na negocjacje może być kluczem do zwycięstwa lub przynajmniej uniknięcia katastrofy, zwłaszcza gdy stawka dotyczy broni jądrowej.

Decyzje o wojnie i pokoju nie mogą być pozostawione analityce prognostycznej. Istnieją zasadnicze różnice w sposobach wykorzystywania danych do celów naukowych, ekonomicznych i logistycznych oraz do przewidywania ludzkich zachowań.

Niektórzy mogą postrzegać AI jako siłę osłabiającą wzajemną wrażliwość strategiczną, a tym samym zwiększającą ryzyko wojny. Zniekształcone przypadkowo lub celowo dane mogłyby skłonić systemy AI do podejmowania niezamierzonych działań, takich jak nieprawidłowa identyfikacja i dążenie do niewłaściwych celów. Szybkość działania postulowana w przypadku rozwoju algorytmów wojny może oznaczać przedwczesną lub wręcz niepotrzebną eskalację, nie pozwalając racjonalnie zarządzać kryzysem. Algorytmy z drugiej strony, podobnie, nie będą czekać i wyjaśniać, bo również od nich oczekuje się szybkości.

6. AI i nuklearne ryzyko

Niepokojącym aspektem funkcjonowania algorytmów sztucznej inteligencji jest również opisywany przez nas niedawno w MT efekt "czarnej skrzynki". Nawet specjaliści nie wiedzą dokładnie, w jaki sposób AI dochodzi do wyników, które widzimy na wyjściu.

W przypadku algorytmów wojny, na taką niewiedzę o naturze i sposobie ich "myślenia" nie możemy sobie pozwolić. Nie chcemy chyba obudzić się w środku nocy pośród rozbłysków nuklearnych, bo "nasza" lub "ich" sztuczna inteligencja uznała, że to właściwy moment, by ostatecznie rozstrzygnąć grę.

Mirosław Usidus