Czy jest potrzebna "przerwa" w rozwoju AI? Apel o przystopowanie z AI, nim stanie się "coś złego"

Czy jest potrzebna "przerwa" w rozwoju AI? Apel o przystopowanie z AI,  nim stanie się "coś złego"
Elon Musk i liczna grupa ekspertów od sztucznej inteligencji oraz szefów firm z branży hi-tech wzywają do ustanowienia półrocznej przerwy w rozwoju systemów sztucznej inteligencji (1), potężniejszych niż nowo uruchomiony GPT-4 firmy OpenAI, aż do opracowania niezależnych protokołów bezpieczeństwa. Ich list otwarty wskazuje potencjalne zagrożenia dla społeczeństwa.

Domagające się wstrzymania prac nad sztuczną inteligencją, dopóki nie zostaną wprowadzone "solidne systemy zarządzania AI", wystąpienie liderów, pod egidą organizacji o nazwie Future of Life Institute, miało miejsce krótko po tym, jak wspierana przez Microsoft firma OpenAI zademonstrowała czwartą wersję swojego programu GPT (Generative Pretrained Transformer) AI. Głównym darczyńcą tej organizacji nonprofit jest fundacja Elona Muska oraz londyńska grupa Founders Pledge, a także Silicon Valley Community Foundation.

"AI mnie stresuje", powiedział, cytowany przez agencję Reutersa, Elon Musk na początku tego miesiąca. Do zatrzymania się, zastanowienia nad zagrożeniami płynącymi z AI i wprowadzenia regulacji Musk wzywał już w wywiadzie dla znanego podcastera Joe Rogana w 2018 r. Z drugiej strony, choć Musk od dawna wygłasza alarmujące i pełne sceptycyzmu deklaracje w sprawie algorytmów sztucznej inteligencji, warto pamiętać, że jest współzałożycielem OpenAI, a jego firm wykorzystuje AI do systemu autopilota.

Wielu komentatorów zarzuca mu hipokryzję, a nawet chęć zyskania na czasie, by móc rozwinąć swój własny konkurencyjny model i inne projekty AI. "Zamierzam uruchomić coś, co nazywam TruthGPT, czyli szukającą maksimum prawdy AI, która próbuje zrozumieć naturę Wszechświata", niedawno mówił w jednej wypowiedzi Musk. "Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą?... "

Czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć, uczynić niepotrzebnymi i zastąpić? -  takie pytania formułowane są w liście, w którym znaleźć można dobitne twierdzenie, że "takie decyzje nie mogą być delegowane do niewybieranych demokratycznie liderów branży technologicznej".

List został podpisany przez ponad tysiąc osób. Oprócz Muska także m.in. dyrektor generalny Stability AI, Emad Mostaque, naukowcy z należącej do Alphabetu firmy DeepMind, a także gwiazdy branży AI, Yoshua Bengio, często określany jako jeden z  "ojców chrzestnych sztucznej inteligencji" i Stuart Russell, pionier badań w tej dziedzinie. Listu natomiast nie podpisali, choć proponowano im to, Sam Altman, szef OpenAI. Sundar Pichai i Satya Nadella, prezesi Alphabetu i Microsoftu.

Wraz z wystąpieniami takimi jak list domagający się półrocznego "moratorium" pojawiają się od pewnego czasu sygnały rosnącego zainteresowania amerykańskich ustawodawców tą sprawą. Stawiają pytania o wpływ AI na amerykańskie bezpieczeństwo narodowe i edukację. Unijna policja Europol ostrzegła o groźbie nadużywania systemów i generatorów w próbach phishingu, szerzeniu dezinformacji i cyberprzestępczości.

My się zatrzymamy, a Chińczycy - nie, i co wtedy?

Głos w rozgorzałej debacie zabrał także współzałożyciel Microsoftu Bill Gates, mówiąc, że jest "przerażony" tym, że sztuczna inteligencja może dostać się w niepowołane ręce, jednak nie zgadza się z Muskiem i innymi autorami apelu o wstrzymanie prac nad AI, gdyż, jego zdaniem, to nie jest typ technologii, której rozwój można zatrzymać przez wciśnięcie jakiegokolwiek guzika.

"Jeśli wstrzymasz tylko tych dobrych, a nie wstrzymasz wszystkich innych, prawdopodobnie sam sobie zaszkodzisz", powiedział Gates w wywiadzie dla amerykańskiej telewizji ABC, dodając, że dla "dobrych" ważne jest, aby rozwijać potężniejsze systemy AI (niż ci źli).

Definicja tego, kim mogą być ci dobrzy, ma charakter subiektywny, ale wyścig o dominację w dziedzinie AI wpisuje się w trwającą już od dawna rywalizację na skalę korporacyjną i geopolityczną. Udane wprowadzenie ChatGPT przez OpenAI pod koniec ubiegłego roku zapoczątkowało wyścig zbrojeń między Microsoftem i Google o zdobycie rynku generatywnej AI, ale starcie to rozlewa się również na skalę międzynarodową, gdyż o supremację w dziedzinie algorytmów walczą USA z Chinami.

ChatGPT jest zablokowany w Chinach. Baidu, najpopularniejsza chińska wyszukiwarka, pracuje nad własną wersję generatywnej sztucznej inteligencji. Na razie chińskie dokonania w tej dziedzinie nie robią wielkiego wrażenia. Ponadto w Chinach AI jest silnie ograniczana przez administracyjne ograniczenia i cenzurę. Nie może korzystać z wszystkich danych, z których powinna, jeśli ma być uniwersalna. To daje USA przewagę, ale rozgrywka się nie zakończyła. Wręcz przeciwnie, raczej się dopiero zaczyna.

Międzynarodowa rywalizacja w zakresie AI nie ogranicza się jedynie do uzyskania przewagi biznesowej. Rozwiązania te  obiecują również zwiększenie możliwości militarnych. Według raportu Uniwersytetu Georgetown z 2021 roku Chiny inwestują co najmniej 1,6 miliarda dolarów rocznie w systemy wojskowe związane z AI. W swojej propozycji budżetu na rok 2024 z marca, Departament Obrony USA poprosił ustawodawców o podpisanie zgody na 1,8 miliarda dolarów na nowe inwestycje w AI.

Niekontrolowany wyścig zbrojeń w dziedzinie algorytmów jest niepokojący w tym, że jego odpryskiem może być pojawienie się rozwiązań, które przyniosą zgubę całej ludzkości, tak jak z każdą bronią. W wywiadzie dla "New York Timesa", Geoffrey Hinton, były inżynier Google, porównał potrzebę wprowadzenia globalnych zasad regulujących AI do międzynarodowych traktatów, które przez dziesięciolecia ograniczały rozprzestrzenianie się broni jądrowej. Ale kluczowa różnica z AI, kontynuował, jest taka, że jest znacznie łatwiejsze dla rywali rozwijać ją za zamkniętymi drzwiami niż broń masowego rażenia. Jednak w późniejszej wypowiedzi dla CNN Hinton dodał, że nie poparłby proponowanego w liście Muska i innych, moratorium na badania nad AI, ponieważ byłoby ono trudne do narzucenia na arenie międzynarodowej (czyli np. Chinom), co pozwoliłoby rywalom na wysforowanie się do przodu.

To, tak naprawdę, wcale nie inteligencja

Apel o wstrzymania prac nad AI budzi sceptycyzm w branży technologicznej także z innych powodów. W tej branży doskonale wiadomo, że takiego postulatu nie da się spełnić. Trudno sobie wyobrazić, że np. rząd lub jakaś inna władza mogłaby narzucić "zakaz eksperymentów z AI". Innowacji nie da się zatrzymać. Ten, kto odkrył ogień, nie pytał nikogo o zgodę, a gdy już wiadomo było, jaki to odkrycie ma potencjał, nigdy nie udało się go opanować. Kiedy odkryto elektryczność, nie byłoby sensu jej zakazywać - zawsze znalazłby się ktoś, gdzieś, kto wykorzystałby jej moc w celu zarobienia pieniędzy.

Uczenie maszynowe jest tylko najnowszą z długiej listy technik, które budzą obawy ludzi, najczęściej z powodu niezrozumienia ich istoty. W przypadku AI seria nieporozumień zaczyna się od używania niewłaściwej terminologii, zwłaszcza pojęcia sztucznej inteligencji. Przez to niektórzy uważają, że mamy do czynienia z techniką, której nie możemy kontrolować. Równie bezpodstawne jest przekonanie, że uczenie maszynowe daje potencjalnie możliwość stworzenia "ogólnej inteligencji". Tego rodzaju magiczne myślenie dotyka nawet ludzi pracujących w tej dziedzinie, jak choćby niedawny (opisywany blisko rok temu w MT) przypadek Blake’a Lemoine’a i jego obsesji na punkcie rzekomej samoświadomości algorytmu Google LaMDA, nad którym pracował.

Specjaliści przypominają, że duży model językowy robi po prostu to, co każdy inny algorytm - uczy się wiązać pojęcia i formułować z ich wykorzystaniem zdania i większe sekwencje zdań. Przypominają, że model nie myśli i tak naprawdę nie jest inteligentny. Nie jest oczywiście także samoświadomy ani nawet świadomy. W niektórych ujęciach opisuje się ChatGPT i podobne narzędzia jako niesamowicie rozbudowane wersje funkcji autouzupełniania tekstu, z którymi mamy do czynienia od lat w naszym smartfonie, w poczcie elektronicznej lub w edytorach tekstowych. Autouzupełnianie często sprawia wrażenie czegoś bardzo inteligentnego, ale także nierzadko - niezwykle głupiego.

To statystyka, mówią eksperci, a nie inteligencja. GPT i inne generatory realizują funkcje statystyczne na  tyle złożone i  opracowane na tak dużą skalę, w modelach o tak wielu parametrach i z tak dużą pamięcią, że  nie potrafimy za  nimi nadążyć. Ale to nie czyni ich inteligentnymi ani zdolnymi do samoświadomości.

W pewnych ujęciach trudno jednak zaprzeczyć, że uczenie maszynowe niesie ze sobą "głębokie zagrożenia dla społeczeństwa". Technika ta, choć nie jest demoniczną superinteligencją, tak czy inaczej może zastąpić miliony miejsc pracy. Pod tym względem nie różni się od setek innych wynalazków i maszyn wprowadzanych przez ludzkość od kilkuset lat. Kiedyś technika zastępowała pracę fizyczną ludzi. Dziś sięga po wiele zawodów "inteligenckich". I z tym trzeba się mierzyć i wyciągać wnioski. 

Mirosław Usidus