Czy prosty, szeregowy robot będzie bohaterem wojny algorytmów? Wyścig zbrojeń AI

Czy prosty, szeregowy robot będzie bohaterem wojny algorytmów? Wyścig zbrojeń AI
Robot Vision 60 (1), który zaprojektowała i zbudowała amerykańska firma Ghost Robotics, budzi skojarzenia z cyklem filmowym "Terminator". Nie dlatego, że jest tak zwinny jak znani z filmu elektroniczni zabójcy. Przeciwnie, przypomina wciąż trochę śmieszne "robotyczne psy" Boston Dynamics. Kojarzy się tak, bo ma groźnie wyglądającą broń, czyli Special Purpose Unmanned Rifle.

Podobnie jak Terminator jest wyposażony również w 30-krotny zoom optyczny, kamerę termowizyjną do celowania w ciemności. Ma efektywny zasięg ognia do 1200 metrów. Nieco mniejsze wrażenie zrobił zaprezentowany przez tę samą firmę inny czteronożny robot o nazwie Minitaur, którego przeznaczeniem jest patrolowanie obiektów wojskowych a także wsparcie dla saperów lub strażaków. Roboty te mogą być sterowane zdalnie za pomocą aplikacji w smartfonie albo działać w trybie autonomicznym, bez bieżącej ingerencji operatora. Zatem mamy realne wcielenie sztucznej inteligencji w wojsku.

Niestety droga robotów i sztucznej inteligencji do wojska nie jest usłana wyłącznie różami. Szkoła wojskowa armii francuskiej, École Spéciale Militaire de Saint-Cyr, pokazała kilka miesięcy temu zdjęcia czworonożnego psa-robota Spot, zbudowanego przez amerykańską firmę Boston Dynamics, który, wraz z kilkoma innymi robotami, uczestniczył w dwudniowych ćwiczeniach i podobno był używany do zwiadu (2). Jak podała francuska gazeta "Ouest-France", podczas ćwiczeń żołnierze symulowali zdobycie skrzyżowania, działania obronne w nocy i w dzień oraz test walki w terenie zurbanizowanym.

2. Robot Boston Dynamics podczas ćwiczeń wojskowych

Spot, najoględniej mówiąc, nie zrobił pozytywnego wrażenia. Według gazety, podczas ćwiczeń robotowi wyczerpały się akumulatory i musiał być niesiony przez żołnierzy. Wiceprezes Boston Dynamics ds. rozwoju biznesu Michael Perry powiedział serwisowi "The Verge", że firma nie miała pojęcia o tym ćwiczeniu.

Nie oznacza to, że czworonożne terminatory są skreślone. W USA 325, Dywizjon Sił Bezpieczeństwa w Bazie Sił Powietrznych Tyndall na Florydzie zaczął wykorzystywać czworonożne roboty w regularnych operacjach. Zastosowano je m.in. do patrolowania granic bazy, poruszania się po bagnistych terenach itp. Wojsko więc wciąż interesuje się robotami, choć rzeczywiście mają one do przezwyciężenia sporo problemów z wydajnymi, trwałymi źródłami zasilania na czele.

Chociaż zwiad jest jednym z najbardziej oczywistych zastosowań tego rodzaju robotów, producenci powoli eksperymentują z innymi funkcjami użytkowymi. Oprócz rejestracji zdalnie obrazu wideo i mapowania, maszyny te mogą być wykorzystywane jako mobilne wieże komórkowe, do rozbrajania bomb lub wykrywania substancji chemicznych, biologicznych, radiologicznych i jądrowych.

Drony wsparcia

Zanim te czworonożne, a potem, kto wie, może dwunożne, roboty staną się powszechne w armii, najważniejszymi wojskowymi automatami są drony, które też wciąż nie są rozwiązaniem technicznie idealnym, np. do sterowania jednym dronem często potrzeba wciąż nierzadko wielu ludzi. Pomóc może AI. Dzięki algorytmom zwiększającym autonomię dronów ich eskadra czy też rój mógłby samodzielnie podążać za myśliwcem, bez ingerencji naziemnej kontroli i pilota w samolocie dowodzącym.

Operator lub pilot wydawałby polecenia dopiero w kluczowym momencie akcji, gdy drony mają do wykonania konkretne zadania. Można też wykorzystywać uczenie maszynowe do reagowania na sytuacje nagłe.

3. Wizualizacja programu Skyborg - samolot i towarzyszące mu drony

Siły powietrzne USA poinformowały w grudniu 2020 r., że zaprosiły firmy Boeing, General Atomics i Kratos do budowy prototypu drona do przenoszenia systemów tworzonych w ramach programu Skyborg (3), określanego jako "militarna AI". Oznacza to, że drony bojowe powstałe w ramach tego programu miałyby autonomię i sterowane byłyby przez algorytmy sztucznej inteligencji, a nie przez ludzi.

Pierwsza runda testów lotniczych miała się według planu rozpocząć w lipcu 2022 r.Oferta Boeinga może być oparta na konstrukcji, którą jego australijski oddział opracowuje dla Royal Australian Air Force w ramach programu działania w grupie Airpower Teaming System (ATS). Boeing ogłosił też, że przeprowadził półautonomiczny test pięciu małych samolotów bezzałogowych, połączonych w sieć w ramach programu ATS.

Niewykluczone jest także, że Boeing sięgnie po nową konstrukcję konstruowaną przez oddział firmy Boeing Australia o nazwie Loyal Wingman. Firma General Atomics przeprowadziła z kolei półautonomiczne testy z udziałem jednego ze swoich samolotów bezzałogowych typu stealth Avenger, sprzężone w sieci z pięcioma dronami. Bardzo prawdopodobne, że trzeci konkurent, Kratos, w ramach tego nowego kontraktu przedstawić, nowe warianty drona XQ-58 Valkyrie. Siły Powietrzne USA używają już XQ-58 w różnych testach innych zaawansowanych projektów przewidujących stosowanie dronów.

4. Wizualizacja autonomicznych platform do lądowania pojazdów VTOL

Wspomaganie lotnictwa nie musi polegać jedynie na udziale w misjach bojowych w roli skrzydłowych, bo tak wyobrażony jest program Skyborg. Amerykańskie siły zbrojne w ramach innego projektu, Mayflower, testują zrobotyzowane autonomiczne platformy, na których lądować mogą jednostki latające pionowego startu i lądowania (4), czyli śmigłowce i samoloty typu VTOL.

Jako główną funkcję tych autonomicznych platform wymienia się tankowanie latających maszyn. Pracuje nad nimi Sea Machines, firma z Bostonu, specjalizująca się w oprogramowaniu i systemach autonomicznych statków. Dwa lata temu firma z powodzeniem zademonstrowała zestaw oparty na autonomicznym systemie sterowania SM300 oraz technologii detekcji bazującej na zaawansowanym systemie widzenia komputerowego. Jedna z głównych zalet tego systemu polega na tym, że nie wymaga on budowania nowych jednostek pływających, korzystając z istniejących już i dostępnych komercyjnych barek, na których mogą lądować i być tankowane wojskowe maszyny VTOL i helikoptery.

AI myli się i, co gorsza, nie umie tego przyznać

Zdaniem specjalistów w tej dziedzinie, jeśli wojsko ma zamiar polegać na algorytmach i sztucznej inteligencji, to koniecznie musi rozwiązać inny problem, tzw. kruchej AI. Generał Daniel Simpson, jeden z najwyższych dowódców Sił Powietrznych USA, wskazał w grudniu 2021 r., jak daleko jest jeszcze do tego.

W przeprowadzonych testach eksperymentalny program rozpoznawania celów działał dobrze, gdy wszystkie warunki były idealne, ale drobna zmiana sprawiała, że jego wydajność zaczęła gwałtownie spadać. Początkowo AI otrzymywała dane z czujnika, który szukał pojedynczego pocisku ziemia-powietrze pod kątem ostrym, wyjaśniał Simpson. Następnie podano jej dane z innego czujnika, który szukał wielu pocisków pod kątem zbliżonym do pionowego. Jego dokładność spadła do 25 proc. To przykład owej "kruchości" sztucznej inteligencji, która występuje, gdy algorytm nie może generalizować lub dostosować się do warunków poza wąskim zestawem założeń.

Zjawisko to opisała w 2020 roku naukowiec i była pilotka marynarki wojennej Missy Cummings. Kiedy dane używane do trenowania algorytmu składają się ze zbyt dużej ilości jednego rodzaju obrazów lub danych z czujników z określonego punktu widzenia, a niewystarczającej ilości z innych punktów widzenia, odległości lub warunków, pojawia się owa "kruchość", pisała Cummings.

Niestety militarne zastosowania nie sprzyjają rozwiązywaniu tego problemu. W takich sytuacjach, jak eksperymenty z samochodami bez kierowcy, badacze po prostu zbierają więcej danych do szkolenia. W warunkach wojskowych może być bardzo dużo danych jednego typu, na przykład zdjęcia satelitarne lub z drona, zaś bardzo mało danych innego typu, ponieważ nie były one przydatne na polu walki.

Wojsko napotyka dodatkową przeszkodę - łatwiej jest uzyskać zdjęcia i wideo pieszych i latarni ulicznych pod wieloma kątami i w różnych warunkach niż zdjęcia chińskich lub rosyjskich pocisków ziemia-powietrze. W treningu AI do celów wojskowych badacze zaczęli coraz częściej polegać na tak zwanych syntetycznych danych treningowych, które w przypadku oprogramowania do celowania wojskowego byłyby zdjęciami lub filmami wideo sztucznie wygenerowanymi z prawdziwych danych. Nie trzeba chyba wyjaśniać, że wiedza AI uczonej na sztucznych danych jest równie… sztuczna.

Generał Simpson powiedział, że najbardziej niepokoiło nawet nie to, że algorytm miał rację tylko w 25 proc. przypadków, ale to, że "był przekonany, że ma rację w 90 proc. z nich, ale nie jest to wina algorytmu, lecz niewłaściwych danych treningowych".

Jego zdaniem wyniki te nie oznaczają, że wojsko powinno przestać dążyć do wykorzystania AI do wykrywania obiektów i celów. Przypominają one jednak o tym, jak bardzo AI może być podatna na działania przeciwnika w postaci fałszowania danych. Pokazują również, że AI, podobnie jak ludzie, może cierpieć z powodu nadmiernej pewności siebie.

Chiny mają dużo danych, ale czy to wystarczy?

Amerykanie mają więc problem z militaryzacją AI. Ale nie tylko oni. Swoje problemy mają także Chińczycy, których uważa się za bardziej w niektórych aspektach zaawansowanych we wdrażaniu sztucznej inteligencji do wojska. Nieco inne jednak.

W 2017 r. rząd chiński ogłosił plan, zgodnie z którym do 2030 r. Chiny mają zostać światowym liderem w dziedzinie sztucznej inteligencji, i od tego czasu przeznaczył miliardy dolarów na projekty i badania w dziedzinie sztucznej inteligencji w środowisku akademickim, rządowym i prywatnym.

Rządowy fundusz venture capital inwestuje ponad 30 miliardów dolarów w AI. Samo miasto Tianjin przeznaczyło 16 miliardów dolarów na rozwój AI. Zaś w Pekinie powstaje park badawczy AI o wartości 2 miliardów dolarów. Rząd i prywatne firmy w Chinach mają dostęp do niespotykanej gdzie indziej ilości danych, dotyczących wszystkiego, od zdrowia obywateli po korzystanie przez nich ze smartfonów.

WeChat, wielofunkcyjna aplikacja, dzięki której ludzie mogą czatować, umawiać się na randki, wysyłać płatności, zamawiać przejazdy, czytać wiadomości i inne, daje władzom pełny dostęp do danych użytkowników na żądanie. A to tylko jedno źródło danych. Wielu komentatorów uważa, że te czynniki dają Chinom poważną przewagę w rozwoju AI, a nawet stanowią wystarczający czynnik, aby postępy tego kraju przewyższyły postępy USA.

Ma się rozumieć chińscy teoretycy wojskowości widzą w tym rzadką okazję do "skokowego rozwoju" i wyprzedzenia przeciwników. Twierdzą, że "intelligentization" (inteligentyzacja?) sił zbrojnych będzie koncentrować się na "przestrzeni kognitywnej", która uprzywilejowuje złożone myślenie i efektywne podejmowanie decyzji. Piszą, że na polach bitew, gdzie zaawansowana technologia AI umożliwia podejmowanie lepszych decyzji, strona, która potrafi lepiej połączyć ludzką kreatywność i zdolności obliczeniowe robotów, będzie miała decydującą przewagę.

Chińska literatura na temat współczesnej wojskowości chętnie opisuje działania wojenne, które polegają na współpracy ludzi i maszyn, jako "wojnę algorytmiczną". Panuje tam pogląd, że "współpraca człowieka z maszyną" może niezmiernie poprawić zdolność armii chińskiej do podejmowania decyzji. Kluczowym zastosowaniem sztucznej inteligencji będzie, ich zdaniem, "system percepcji pola walki", który przekłada wysokiej jakości dane o celach na idealne zestawy celów dla dowódców.

Stratedzy chińscy uważają również, że coraz bardziej zaawansowane systemy autonomiczne będą stopniowo zastępować ludzi na pierwszej linii frontu. Największy potencjał dla autonomii ma domena powietrzna, a drony zostaną włączone do walki powietrznej na dwa podstawowe sposoby. Pierwszy to współpraca bezzałogowo-załogowa, w której załogowe myśliwce "statki-matki" będą kierować autonomicznymi dronami podczas bitwy. Drugi to wojna rojów, której celem jest obezwładnienie przeciwnika rojami inteligentnych dronów.

Koncepcje te brzmią jakoś znajomo? Czy Amerykanie czasem nie mają od dawna podobnych teorii i koncepcji? Oprócz faktu, że brzmi wtórnie w wielu aspektach, chińska myśl teoretyczna dotycząca sztucznej inteligencji w wojsku kładzie silny nacisk na centralizację systemów. To może być słaby punkt tej strategii, gdyż systemy z jednym silnym ośrodkiem są bardziej podatne na atak. Wychodzą w tym myśleniu największe wady chińskiego systemu organizacji wszystkiego, z komunistyczną mentalnością centralistyczną i słabymi szansami dla wykraczających poza schemat rozwiązań.

W artykule w czasopiśmie "Foreign Affairs" z czerwca 2020 r. naukowcy z Oksfordu, Carl Benedikt Frey i Michael Osborne, dowodzą, że atuty Chin mogą w rzeczywistości nie być aż tak korzystne w dłuższej perspektywie, a typowe dla tego kraju ograniczenia mogą stać się barierami dla rozwoju innowacji.

Aby to wyjaśnić, trzeba sobie szczerze przyznać, że AI jest obecnie w pewnym sensie zablokowana. Algorytmy i sieci neuronowe wciąż notują wprawdzie imponujące osiągnięcia, np. AlphaFold firmy DeepMind trafnie przewiduje struktury białek a GPT-3 firmy OpenAI pisze artykuły do złudzenia przypominające dzieła ludzkiej ręki. Jednak większość systemów to wąska inteligencja, polegająca na wykonywaniu konkretnego zadania, do którego system został pieczołowicie wytrenowany na masie danych.

Sukces najpotężniejszych generatorów i algorytmów wynika głównie z ogromnych zbiorów danych, na których były trenowane. Nie były to żadne rewolucyjne nowe metody czy architektury treningowe. Jeśli byłoby tak, że wszystko, czego potrzeba do rozwoju AI, to zwiększanie ilości danych wejściowych, to Chiny mogłyby mieć przewagę. Jednak jedną z największych przeszkód, jakie AI musi pokonać, aby rozwijać się skokowo, a nie małymi kroczkami, jest właśnie zależność od obszernych, specyficznych dla danego zadania danych. Kolejne wielkie wyzwania to szybkie zbliżanie się tych technik do granic możliwości obecnej mocy obliczeniowej plus ogromne zużycie energii.

Dlatego też, choć chiński zasób danych może obecnie dawać Chinom przewagę, to w dłuższej perspektywie może nie być zbyt mocnym oparciem na drodze do dominacji w dziedzinie AI. To, co mają Chińczycy, jest przydatne do budowania produktów, które wykorzystują dzisiejszą sztuczną inteligencję, ale nie do wprowadzania zmian w metodach nauczania maszynowego. Jak piszą Frey i Osborne, "świętym Graalem dalszego postępu w sztucznej inteligencji jest wydajność danych", a nie ich ilość.

W tym celu zespoły badawcze w ośrodkach akademickich i przemyśle prywatnym pracują nad metodami uczynienia AI mniej uzależnioną od ilości danych. Pojawiły się nowe metody szkolenia, takie jak uczenie jednostrzałowe (one-shot learning) i uczenie mniej niż jednostrzałowe (less-than-one-shot learning), a także wysiłki zmierzające do upodobnienia AI do ludzkiego mózgu.

Badacze wskazują ponadto, że chociaż Chiny mają wielkie rezerwy wykształconych ludzi i tradycję korzystania z technik wymyślonych gdzie indziej, to nie mają jeszcze olśniewających osiągnięć w zakresie innowacji. "Najbardziej innowacyjne społeczeństwa zawsze pozwalały ludziom realizować kontrowersyjne pomysły", piszą Frey i Osborne. Tymczasem ścisła cenzura oraz inwigilacja obywateli w Chinach nie zachęcają do realizowania kontrowersyjnych pomysłów. Obowiązujący w tym kraju system kredytów społecznych nagradza ludzi, którzy przestrzegają zasad i karze tych, którzy przekraczają państwowo wytyczone normy. Odgórna egzekucja rozwiązywania problemów może być skuteczna, gdy problem jest jasno zdefiniowany.

W dziedzinie AI trudno o tym mówić, a z pewnością kompetencji w tym definiowaniu nie mają przywódcy Komunistycznej Partii Chin. Odpowiednią analogią historyczną jest Związek Radziecki, który pomimo dużych inwestycji w naukę i technologię, przez krótki czas rywalizował z USA w takich dziedzinach jak energia jądrowaeksploracja kosmosu, jednak został daleko w tyle głównie z powodu czynników politycznych i kulturowych.

Huczne zatem zapowiedzi dominacji Chin w dziedzinie sztucznej inteligencji czy na innych strategicznie kluczowych obszarach mogą być znaczną przesadą, co warto zapamiętać.

Czy maszyny będą bardziej "etyczne" niż ludzie?

Czy wprowadzenie AI do cyberwojny jest nieuchronne? Wygląda na to, że tak, ponieważ zdolność człowieka do przetwarzania informacji jest ograniczona, a ilość danych krążących w systemach komputerowych rośnie błyskawicznie. Nowe systemy broni np. laserowej również stwarzają nowe wymagania, jeśli chodzi o szybkie przetwarzanie danych i podejmowanie decyzji, dlatego np. w armii amerykańskiej prowadzi się projekty tzw. laserów kognitywnych, w których operatorzy są wspierani przez AI.

5. Terminator w ogniu

Narasta jednocześnie w wielu kręgach niepokój i niepewność, czy zaangażowana do obrony sztuczna inteligencja zawsze będzie po dobrej, czy jak kto woli, naszej stronie. Inna sprawa to wątpliwości natury etycznej. Pomimo jednak wielu protestów i międzynarodowych kampanii, wielu zwolenników stosowania robotów i AI w wojsku nie przestaje przekonywać, że dzięki nim wojny będą mniej krwawe, bo ginąć będzie mniej żołnierzy.

Zwracają uwagę, że roboty, choć nie odczuwają litości, są również odporne na negatywne ludzkie emocje, jak panika, gniew i żądza zemsty, które czasem prowadzą do zbrodni wojennych. Obrońcy robotów używają też argumentu, że postęp techniki wojskowej doprowadził do ogromnego zmniejszenia strat cywilnych w ostatnim półwieczu. Precyzyjne bombardowania z powietrza w czasie wojny w Iraku przyniosły bez porównania mniej cywilnych ofiar niż bombardowania lotnicze w czasie II wojny światowej.

Nie da się ukryć, że to zależy od programowania, choć gdy mówimy o maszynach autonomicznych, wielu woli bardziej ogólne "ukierunkowanie", tych systemów. Jeśli wprowadzenie wojskowych automatów oznacza, że w miejsce zasady "najpierw strzelaj, potem pytaj" autonomiczne systemy będą kierowały się mniej agresywną strategią: "nie czyń niepotrzebnie krzywdy". "Terminatory" (5) staną się, według tego przekonania, "etyczne", gdy zostaną wyposażone w oprogramowanie zmuszające je do przestrzegania praw wojny. Zawsze więc wracamy do pytania o to, jak zachowają się ludzie, np. ci, którzy te maszyny będą konfigurować i programować.

Mirosław Usidus