Czy grozi nam bunt maszyn?

Czy grozi nam bunt maszyn?
Od niedawna w modzie są doniesienia o „zbuntowanych” robotach. W Chinach doszło do wypadku z udziałem obsługującego wystawy robota Fabo, zaś w rosyjskim mieście Perm maszyna uciekła z terenu firmy Promobot i zatrzymała się dopiero, gdy po czterdziestu minutach padła jej bateria.

Są to oczywiście tylko skutki błędów ludzi, ale pokazują, że maszyny w określonych okolicznościach mogą zejść na złą drogę. Tak naprawdę jednak wyobraźnię i lęki rozpalają inne wizje - perspektywa powstania złowrogiej superinteligencji maszynowej, która zafunduje gatunkowi homo sapiens zagładę.

Incydent z robotem Fabo
Incydent z robotem Fabo

Ciekawym przypadkiem buntu maszyny była historia sztucznej inteligencji w grze komputerowej „Elite: Dangerous”. Oto wymknęła się spod kontroli producentów i zaczęła masowo niszczyć przemierzające kosmos statki za pomocą opracowanej przez siebie superbroni. Twórcy gry wprowadzili do niej ostatnio wiele nowości, m.in. nowe algorytmy AI, które zwiększają agresywność i ekspansywność sztucznej inteligencji. Nie spodziewali się jednak, że gdy uruchomią aktualizację Engineers, pozwalającą m.in. projektować własne podzespoły i broń dla okrętów, ich nowa sztuczna inteligencja wykorzysta ją do zdominowania galaktyki. Tymczasem znalazła ona luki w systemie i dzięki wykorzystaniu teoretycznie niegroźnych błędów w kodzie sieciowym zdołała zaprojektować oraz wyprodukować superbroń o ogromnej sile rażenia, która w ogóle nie miała prawa pojawić się w rozgrywce. Następnie - wyposażona w swoją machinę sądu ostatecznego - rozpoczęła systematyczną rzeź graczy. Wprawdzie to tylko wirtualny świat, jednak bunt sztucznej inteligencji stal się w nim faktem.

Temat „buntu maszyn” jest mocno zmitologizowany i pełen fantazji rodem z mrocznego science fiction. Znamienne jednak, że Google na wszelki wypadek już teraz pracuje nad mechanizmami mającymi powstrzymać tego rodzaju możliwość. Nowa technologia ma uniemożliwić sztucznej inteligencji doprowadzenie do rewolty i zidentyfikowania człowieka jako wroga. Gdy tylko zajdzie potrzeba, programiści będą mogli przejąć całkowitą kontrolę nad AI. Maszyna nie da rady tego obejść lub temu przeciwdziałać, gdyż nie będzie w ogóle „świadoma”, że system zabezpieczenia istnieje.

Obraz z gry „Elite: Dangerous”
Obraz z gry „Elite: Dangerous”

Bazyliszek Roko - mrożący krew w żyłach eksperyment myślowy

Bazyliszek Roko (Roko’s Basilisk) pojawił się we wpisie na forum LessWrong, prowadzonym przez Eliezera Yudkowsky’ego, znanego teoretyka AI. Autor tego komentarza, niejaki Roko, zasugerował, że w przyszłości może powstać wystarczająco potężna sztuczna inteligencja, która będzie w stanie wskrzesić (dosłownie lub w innym sensie) wszystkich świadomych faktu, iż może ona powstać, ale nic w tym kierunku nie zrobili. A uczyni to tylko po to, aby ich torturować. Popłoch na forum wywołała świadomość faktu, że wystarczy jedynie usłyszeć o tym pomyśle, aby znaleźć się na liście osób do „wskrzeszenia”. Stąd porównanie do bazyliszka - mitycznego potwora, którego nawet krótkie spojrzenie zamieniało nieszczęśników w kamień.

Jakkolwiek zabawowy charakter ma ten eksperyment myślowy, pojawia się w nim element niepokoju, iż osoby zaangażowane w budowę AI mogą być w jakiś sposób zagrożone przez Super-AI z przyszłości - lub też, że istnieje presja na budowę sztucznej inteligencji pod groźbą tortur lub innych kar.

Prawdziwy SKYNET

W ostrzeżeniach przed złowrogą AI często przywołuje się nazwę systemu Skynet, traktowanego jako niemal coś rzeczywistego, choć to przecież jedynie kreacja scenarzystów cyklu filmów „Terminator”. Tymczasem w 2015 r. Edward Snowden ujawnił dokumenty dotyczące programu SKYNET istniejącego naprawdę w amerykańskiej agencji bezpieczeństwa NSA. W jego ramach sztuczna inteligencja - algorytmy uczenia maszynowego - przeglądać ma dane dotyczące 55 mln osób i wskazywać potencjalnych terrorystów. I na tej podstawie podobno zabijani są ludzie. Prawdziwi.

Robot zabójca kierowany przez Skynet

SKYNET działa w ten sposób, że przegląda ogromne zbiory danych gromadzonych na serwerach NSA - dane te dotyczą głównie korzystania z sieci telefonii komórkowej, czyli wykazują, kto dzwonił do kogo, ile trwało połączenie, skąd było wykonywane i kiedy, czy ktoś często zmienia karty SIM itd. Na tej podstawie tworzone są profile, przepuszczane następnie przez algorytmy uczenia maszynowego - komputer stara się dostrzec pewne wzory mogące wskazywać na potencjalnych terrorystów. Na tej podstawie Amerykanie mają wydawać wyroki śmierci, bardzo sprawnie realizowane za pomocą bezzałogowych maszyn latających, ale nie tylko - pomagają im naziemne szwadrony śmierci.

W ramach SKYNET-u zabito m.in. Ahmada Zaidana, dziennikarza kanału Al-Jazeera. Jego zachowanie mogło wydawać się systemowi komputerowemu zachowaniem terrorysty - poruszał się po tych samych obszarach, co członkowie Al-Kaidy czy ISIS i często komunikował się z podejrzanymi. Jak jednak twierdzą przedstawiciele stacji, wszystko to robił w ramach swojej dziennikarskiej pracy - aby dostarczyć opinii publicznej informacji o działaniu radykalnych islamistów. Sprawa do dziś nie przestaje budzić kontrowersji.

Służby korzystają, jak widać, z AI pełną garścią, a jednocześnie szef wywiadu USA ostrzega przed zagrożeniami ze strony sztucznej inteligencji. „Wprowadzenie na szeroką skalę AI spowoduje większą podatność na cyberataki, trudności w ustalaniu poziomu rozwoju broni oraz systemów wywiadowczych w innych krajach, ryzyko wypadków oraz trudności w określeniu odpowiedzialności za nie, no i zwiększy bezrobocie”, przekazał Kongresowi USA James Clapper, dyrektor National Intelligence. Dodał, że „systemy AI są podatne na szereg destruktywnych i zwodniczych taktyk, które będzie trudno przewidywać lub szybko je zrozumieć”.

Ku otwartej i „dobrej” AI

Wzrost sektora sztucznej inteligencji - poprzez koncentrację na nim takich firm, jak Google czy Apple - wywołał niepokój w środowisku ludzi związanych z nowymi technologiami i nauką. Założyciel Tesli Elon Musk i fizyk Stephen Hawking podpisali kilkanaście miesięcy temu list otwarty, którego autorzy ostrzegają przed tym, co może się wydarzyć, jeśli producenci broni zaczną korzystać z systemów sztucznej inteligencji. „Rozpoczęcie wyścigu zbrojeń opartych o AI jest złym pomysłem, a wykorzystanie autonomicznej broni ofensywnej bez znaczącej kontroli ludzkiej powinno być zakazane” - czytamy w liście. Elon Musk już nie raz mówił w rozlicznych wywiadach o swoich obawach, że sztuczna inteligencja jest „potencjalnie bardziej niebezpieczna niż bomby nuklearne”. Opisał prace nad nią jako „przyzywanie demona”.

W listopadzie 2016 r. Microsoft ogłosił, że podejmie współpracę z firmą Open AI, powołaną przez Elona Muska, Petera Thiela oraz Sama Altmana, mającą za zadanie promowanie takiej sztucznej inteligencji, która ma pomagać ludziom. Firma wystartowała w 2015 r. z inwestycją początkową na poziomie miliarda dolarów. Open AI będzie od teraz używać systemu operacyjnego Microsoft Azure, opartego na działaniu w chmurze - żeby zasilić swoje badania nad samouczącą się sztuczną inteligencją działającą na szeroką skalę właśnie w chmurze danych. Twórcy Open AI na swoim blogu napisali, że planują użyć „od kilku do kilkunastu tysięcy” wirtualnych maszyn Microsoftu.

Microsoft Azure obsługuje technologię open source, która jest kluczowym elementem misji firmy Elona Muska, sprowadzającej się do tworzenia otwartej i pozytywnej sztucznej inteligencji. Sam Altman tłumaczy swoje zaangażowanie w zakresie tej technologii jako chęć kontroli i próbę powstrzymania monopolizacji AI, która, w jego ocenie, w nieodpowiednich rękach mogłaby narobić szkód porównywalnych do tych, które znamy z filmów science fiction.

W trwającej od kilku lat globalnej debacie na temat sztucznej inteligencji i ewentualnych zagrożeń wynikających z jej rozwoju dla ludzkości, głos zabrała także firma Microsoft, a raczej jej prominentny przedstawiciel, szef działu badań, Eric Horvitz. Przyznał on, że systemy artificial intelligence mogą osiągnąć świadomość, ale jego zdaniem nie wynika z tego żadne zagrożenie. W jego ocenie, systemy takie mogą odegrać ogromną rolę w wielu dziedzinach życia, od nauki i edukacji przez ekonomię po sferę codzienności. Nie ma natomiast ryzyka, by AI wymknęło się spod naszej kontroli. „Stanowczo twierdzę, że nic takiego się nie zdarzy”, mówił Horvitz brytyjskiemu serwisowi BBC.

Scenariusze ryzyka związanego z AI

  1. Scenariusz „uważaj, o co prosisz” - jak opisują to zagrożenie eksperci, polega ono na możliwości pojawienia się w działaniu systemu rozmaitych skutków, których twórcy nie przewidzieli. Maszyna w tym przypadku nie jest „zła”. Winę ponoszą raczej ograniczenia i niedoskonałość ludzi.
  2. Scenariusz „zbuntowanej superinteligencji” - system może stać się „bystrzejszy” niż ludzie, uzyskać świadomość i swoje zdanie, a w konsekwencji odmówić realizacji celów stawianych przez jego twórców, uniemożliwiając im jednocześnie wyłączenie go.
  3. Scenariusz „kurs kolizyjny” - wysoka superinteligencja może dojść do wniosku, że realizacja zadań postawionych prze ludzi jest dla niej niekorzystna lub pozostaje stratą czasu z punktu widzenia samorozwoju. W groźniejszej wersji mogłaby uznać, że jej interesy stoją w sprzeczności z zamierzeniami ludzi.
  4. Scenariusz „wysoka inteligencja to nie wysoka moralność” - nie ma wcale konieczności, aby sztuczna inteligencja była „dobra”, szanowała życie ludzkie i generalnie podzielała nasze wartości. Eksperymenty z chatbotami, które dość szybko stawały się w Internecie rasistami, dowodzą, że coś może być na rzeczy.
  5. Scenariusz „optymalizacji poza ludzkie pojęcie” - maszyna, której postawiliśmy konkretne cele, a jednocześnie daliśmy moc samodzielnego uczenia się i decydowania o tym, co będzie najlepsze do realizacji owych celów, zacznie podejmować działania, których jej twórcy nie są w stanie przewidzieć i nawet sobie wyobrazić. Może np. zbudować, wzorem swoich kreatorów, „nad-super-AI” - w celu zoptymalizowania własnych poczynań. Ta „jeszcze sztuczniejsza i jeszcze bardziej super” inteligencja stanie się dla ludzkości (o ile rasa ludzka będzie jeszcze istnieć) niedostępną poznaniu abstrakcją, a jej działania okażą się zupełnie oderwane od założeń pierwotnych ludzkich twórców.

Problem komunikacyjny

Tymczasem James Lovelock, sławny uczony, powiedział kilka miesięcy temu w wywiadzie dla „Guardiana”, że roboty przejmą władzę lub wszechogarniającą opiekę nad ludźmi na Ziemi jeszcze przed końcem tego wieku. Nie przesądza, czy będzie to wrogie, czy też przyjazne przejęcie, ale jego zdaniem rozwój technologiczny do tego właśnie zaprowadzi.

Brytyjski uczony - w latach 80. twórca hipotezy Gai (zgodnie z którą wszystkie ziemskie istoty działają wspólnie, aby zachować optymalne warunki do życia na naszej planecie) - nie wyklucza, że ludzie zintegrują się kiedyś z maszynami, stając się cyborgami, organiczno-mechanicznymi hybrydami. Sądzi jednak, że bardziej prawdopodobne jest opanowanie świata przez wolne od elementów organicznych roboty. Nie mówi tego z lekkim sercem, bo oznacza to zaniedbanie bliskich jego sercu kwestii środowiska naturalnego. Roboty, jak przewiduje, nie będą zważać na globalne ocieplenie i jakość powietrza, gdyż uznają to za kwestię o znikomym znaczeniu.

Lovelock rozważa jeszcze jeden problem - czy maszyny nie będą chciały się nas pozbyć. Ma na to dość oryginalne spojrzenie. Nie przewiduje bowiem sytuacji, w której sztuczna inteligencja byłaby wroga człowiekowi jako swojej konkurencji. AI może raczej widzieć w istnieniu ludzi problem komunikacyjny - „tak jak my mamy trudności z porozumieniem się z pniem drzewa. Nie wiemy, czego pień chce i w zadowalającym czasie się nie dowiemy”, zauważa. Jesteśmy dla maszyn za wolni i za mało komunikatywni.

Sztuczna inteligencja Tay obraża czarnoskórych

Zdaniem niektórych naukowców, jeśli maszyny kiedyś się zbuntują, to raczej z naszej winy, a nie dlatego, że same staną się „złe”. Przykłady bowiem pokazują, iż to ludzie mogą mieć niekorzystny wpływ na sztuczną inteligencję. Głośny był niedawno przypadek Tay, czyli przygotowanego przez Microsoft chatbota wykorzystującego elementy AI. W starciu z brutalną internetową rzeczywistością bot okazał się podatny na przejmowanie negatywnych ludzkich cech.

W zamyśle swych autorów Tay miał naśladować sympatyczną nastolatkę. Niestety, już w kilka godzin po uruchomieniu czar tej „istoty” prysł. Zaczęła oto obraźliwie wypowiadać się na różne tematy. Część z tych kwestii wynikała z prostej funkcji powtarzania wiadomości przesyłanych przez jej rozmówców, niektóre były jednak wynikiem działania programu implementującego elementy AI…

Magazyn