Wszystko już było? Zimy sztucznej inteligencji

Wszystko już było? Zimy sztucznej inteligencji
Rodney Brooks (1), uznany naukowiec i były dyrektor laboratorium MIT, przewiduje „zimę AI”, tej AI, jaką znamy w obecnym wcieleniu. Mówił o tym już na początku 2024 r. Jego doświadczenie pozwala mu zauważyć, że obecna gorączka wokół AI nie różni się od poprzednich, które widział w ciągu ponad 60-letniej historii tej dziedziny.

Zdaniem Brooksa, 2024 rok nie będzie „złotą erą AI” (teraz to żadna nowość, ale wtedy, gdy to mówił, trwał wciąż rewolucyjny entuzjazm), a to, co się działo, to kolejny etap dobrze znanego cyklu nadziei i rozczarowań. Jego wypowiedzi dotyczą przede wszystkim modeli językowych i chatbotów, takich jak ChatGPT, Bing czy Google Deep Mind. Brooks podkreśla, że mimo imponujących osiągnięć, te systemy AI wciąż są dalekie od stania się wszechmogącą AGI (sztuczną inteligencją ogólną). Krytykował on zaawansowane modele za popełnianie błędów w stosunkowo prostych zadaniach programistycznych. Brooks podkreśla, że LLM są dobre w kreowaniu odpowiedzi, które brzmią przekonująco, ale to nie to samo, co dostarczanie prawdziwej wiedzy, wartości i rozwiązań. Wskazuje na to, że systemy AI, mimo że są w stanie wytworzyć odpowiedź, która brzmi, jakby była po-prawna, nie mają faktycznego zrozumienia pytania ani kontekstu.

Cykle ocieplenia i zlodowacenia

historii sztucznej inteligencji pojęcie „zima AI” jest nieźle zdefiniowane i opisane. W skrócie określa się tak okres zmniejszonego finansowania i zainteresowania badaniami nad sztuczną inteligencją. Dziedzina ta doświadczyła historycznie już kilku cykli nadmiernego pompowania balonika oczekiwań i szumu medialnego, po których nastąpiło rozczarowanie i fala krytyki, po czym szły cięcia w finansowaniu, wyciszanie projektów. Po latach, a czasem dekadach, ponownie rosło zainteresowanie. Miało to związek zazwyczaj z przełomami i nowymi osiągnięciami po stronie algorytmów lub sprzętu albo obu tych rzeczach na raz.

Termin „zima AI” pojawił się po raz pierwszy w 1984 roku jako temat publicznej debaty na dorocznym spotkaniu AAAI (wówczas Amerykańskiego Stowarzyszenia Sztucznej Inteligencji). Roger Schank i Marvin Minsky, dwaj czołowi badacze z pionierskiej fazy sztucznej inteligencji, którzy doświadczyli „zimy” lat siedemdziesiątych, ostrzegali społeczność biznesową, że entuzjazm dla sztucznej inteligencji wymknął się spod kontroli w latach 80. i z pewnością nastąpi rozczarowanie. Opisali oni sekwencję wydarzeń, który już raz przeżyli, rozpoczynającą się od pesymizmu w społeczności AI, powielanego w mediach, następnie poważnego ograniczania finansowania i w końcu zamykania poważnych badań. Branża AI warta już wówczas miliardy dolarów zaczęła się wkrótce załamywać.

W historii sztucznej inteligencji wyróżnia się dwie duże zimy, pierwsza mniej więcej w latach 1974–1980 a druga – od 1987/88 do lat dwutysięcznych. Było też kilka mniejszych, „studzących”, epizodów, wymykających się uproszczonej chronologii, w tym porażka tłumaczenia maszynowego w 1966, fala krytyki perceptronów (wczesnych, jednowarstwowych sztucznych sieci neuronowych) w 1969 r., seria niepowodzeń DARPA w pracach nad projektami badań nad rozumieniem mowy na Uniwersytecie Carnegie Mellon od 1971 do 1975 roku. W latach osiemdziesiątych początek kolejnej zimy sygnalizowało załamanie się rynku maszyn opartych na językach programowania LISP. W kolejnym roku nastąpiło anulowanie nowych wydatków na sztuczną inteligencję ze strony Strategic Computing Initiative. Do  1990  r. porzucono wiele projektów systemów eksperckich i pierwotne cele projektu komputerowego piątej generacji. Potem, od  najniższego punktu na początku lat 90. atmosfera wokół AI bardzo powoli poprawiała się. Od około 2012 r. zainteresowanie sztuczną inteligencją (a zwłaszcza poddziedziną uczenia maszynowego) ze strony społeczności badawczych i korporacyjnych doprowadziło do gwałtownego wzrostu finansowania i inwestycji, co doprowadziło do boomu na sztuczną inteligencję, który znamy z ostatnich trzech lat.

Rezultaty uparcie nie spełniały oczekiwań

Historię sztucznej inteligencji w niektórych opracowaniach rozpoczyna się w bardzo głębokiej historii, np. od René Descartes'a, który w 1637 roku przewidział, że pewnego dnia maszyny będą w stanie podejmować decyzje i postępować w  inteligentny sposób. Trzy wieki później Alan Turing zasugerował, że maszyny, podobnie jak ludzie, mogą wyciągać logiczne wnioski w celu rozwiązywania problemów lub podejmowania decyzji. W 1950 r. opisał metodę umożliwiającą ustalenie, czy maszyna jest inteligentna. Jednak Turing i po-zostali przedstawiciele branży napotkali przeszkodę w postaci ówczesnych niewielkich możliwości komputerów, które nie dość, że były bardzo kosztowne, to jeszcze brakowało im pamięci operacyjnej i masowej.

W 1956 r. John McCarthy, amerykański informatyk, zorganizował konferencję w Dartmouth. To właśnie tam oficjalnie ukuto termin sztuczna inteligencja. Na jej definicję składały się pojęcia z dziedziny cybernetyki oraz przetwarzania informacji. Okres od 1956 do 1973 r. nazywany jest latem sztucznej inteligencji. Badacze snuli optymistyczne prognozy na temat przyszłości AI, a komputery wykonywały coraz więcej zadań – od mówienia po angielsku po rozwiązywanie równań algebraicznych.

Podczas zimnej wojny rząd USA był szczególnie zainteresowany automatycznym, natychmiastowym tłumaczeniem rosyjskich dokumentów i raportów naukowych. Rząd mocno wspierał wysiłki na rzecz tłumaczenia maszynowego, począwszy od 1954 roku. Na początku badacze byli optymistami. Nie doceniono jednak ogromnych trudności związanych z ujednoznacznianiem znaczenia słów. Aby przetłumaczyć zdanie, maszyna musiała mieć pojęcie, czego ono dotyczy, w przeciwnym razie popełniała błędy. Do 1964 r. Narodowa Rada Badań (NRC) zaniepokoiła się brakiem postępów i utworzyła Komitet Doradczy ds. Automatycznego Przetwarzania Języka (ALPAC), aby przyjrzeć się temu problemowi. W raporcie z 1966 r. stwierdzono, że tłumaczenie maszynowe jest droższe, mniej dokładne i wolniejsze niż tłumaczenie ludzkie. Po wydaniu około dwudziestu milionów dolarów NRC zakończyła wsparcie.

Wcześniej proste sieci lub obwody połączonych jednostek, w tym sieć neuronowa Waltera Pittsa i Warrena McCullocha dla logiki oraz system SNARC autorstwa Marvina Minsky’ego, nie przyniosły obiecanych rezultatów i zostały porzucone pod koniec lat pięćdziesiątych XX wieku. Po sukcesie programów takich jak Logic Theorist i General Problem Solver algorytmy do manipulowania symbolami wydawały się wówczas bardziej obiecujące jako środki do osiągnięcia logicznego rozumowania postrzeganego wtedy jako istota inteligencji, zarówno naturalnej, jak i sztucznej. Zainteresowanie perceptronami, wynalezionymi przez Franka Rosenblatta, było utrzymywane przy życiu tylko dzięki sile jego osobowości. Optymistycznie przewidywał on, że perceptron „może w końcu być w stanie uczyć się, podejmować decyzje i tłumaczyć języki”. Główny nurt badań nad perceptronami zakończył się częściowo dlatego, że książka pt. „Perceptrons” z 1969 roku autorstwa Marvina Minsky’ego i Seymoura Paperta wykazała ograniczenia możliwości perceptronów. Chociaż było już wiadomo, że rozwiązaniem problemu mogą być perceptrony wielowarstwowe, nikt w latach 60. jeszcze nie wiedział, jak szkolić wielowarstwowy perceptron. Propagacja wsteczna nie była wówczas znana.

W latach sześćdziesiątych Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (wówczas znana jako ARPA, obecnie DARPA) wydawała miliony dolarów na badania nad sztuczną inteligencją. W programy przez nią finansowane zaangażowane były sławy, „ojcowie założyciele AI”, Marvin Minsky, John McCarthy, Herbert A. Simon czy Allen Newell. Jednak finansowano raczej znane nazwiska niż określone cele, kierunki i zadania. W 1969 kurek z pieniędzmi zakręcono. Czyste nieukierunkowane badania nie były już finansowane przez DARPA. Naukowcy musieli teraz wykazać, że ich praca daje szanse na stworzenie użytecznej technologii wojskowej. W 1974 roku finansowanie projektów AI praktycznie nie istniało. Badacz sztucznej inteligencji Hans Moravec obwiniał za kryzys wcześniejsze nierealistyczne prognozy swoich kolegów: „Wielu badaczy zostało wciągniętych do mechanizmu generowania coraz większej przesady. Ich początkowe obietnice dla DARPA były zbyt optymistyczne. A to, co ostatecznie dostarczyli, znacznie od tego odbiegało. Czuli jednak, że w kolejnej propozycji nie mogą obiecać mniej niż w pierwszej, więc obiecywali więcej”.

W latach 70. i na początku lat 80. trudno było znaleźć duże fundusze na projekty związane z sieciami neuronowymi. „Zima” dobiegła końca w pierwszej połowie lat 80., kiedy to prace Johna Hopfielda, Davida Rumelharta i innych ożywiły zainteresowanie na dużą skalę. Korporacje na całym świecie zainteresowały się wcieleniem AI nazywanym „systemem eksperckim”. Pierwszym komercyjnym systemem eksperckim był XCON, opracowany w Carnegie Mellon dla Digital Equipment Corporation, który odniósł ogromny sukces – szacuje się, że zaoszczędził firmie 40 milionów dolarów w ciągu zaledwie sześciu lat działania. Zachęcone tym korporacje na całym świecie zaczęły opracowywać i wdrażać systemy eksperckie, a do 1985 roku wydały ponad miliard dolarów na sztuczną inteligencję. Wyrosła cała gałąź gospodarki z tym związana, w tym firmy programistyczne, takie jak Teknowledge i Intellicorp (KEE), oraz firmy sprzętowe, np. Symbolics i LISP Machines Inc., które zbudowały wyspecjalizowane komputery, zwane maszynami LISP, zoptymalizowane do przetwarzania języka programowania LISP.

W 1983 roku DARPA ponownie zaczęła finansować badania nad sztuczną inteligencją w ramach Strategic Computing Initiative. Zgodnie z pierwotną propozycją, projekt miał rozpocząć się od praktycznych, osiągalnych celów, które jednak ambitnie obejmowały nawet sztuczną inteligencję ogólną jako cel dalekosiężny. Do 1985 roku wydano 100 milionów dolarów na prawie sto projektów w przemyśle, na uniwersytetach i w laboratoriach rządowych. Potem znów, wraz z załamaniem się rynku „maszyn eksperckich”, nastąpiły kolejne cięcia, jednak kilka projektów, w tym asystent pilota, autonomiczny pojazd lądowy oraz system zarządzania bitwą DART, przetrwało i było kontynuowanych z pewnym sukcesem.

Jak wspomniano, rok 1987 był sądnym rokiem dla rynku sprzętu AI opartego na LISP. Stacje robocze firm takich jak Sun Microsystems stały się alternatywą dla maszyn LISP. Wydajność nowej generacji komputerów stawała się wyzwaniem dla maszyn LISP, któremu nie umiały sprostać. Komputery stacjonarne budowane przez Apple i IBM również oferowały prostszą i bardziej popularną architekturę do uruchamiania aplikacji w języku LISP. Do 1987 roku niektóre z nich stały się równie wydajne, jak droższe maszyny wyspecjalizowane LISP. Cała branża warta pół miliarda dolarów została wyparta przez konkurencję w ciągu jednego roku. Do lat 90. większość komercyjnych firm LISP, w tym Symbolics, LISP Machines Inc., Lucid Inc., upadła. Inne firmy, np. Texas Instruments i Xerox, porzuciły tę dziedzinę. Nastąpiła kolejna „zima AI”, gdyż systemy eksperckie oparte na LISP uznawano za jej wcielenie.

Ostatnie lato było gorące jak nigdy, ale czy będzie trwać bez końca?

Alex Castro w „The Economist” w 2007 r. opisywał co działo się w kolejnych latach: „Inwestorzy byli zniechęceni terminem ‘rozpoznawanie głosu’, który, podobnie jak ‘sztuczna inteligencja’, był kojarzony z systemami, które nie spełniały oczekiwań”. John Markoff w „New York Times” w 2005 roku pisał: „Niektórzy informatycy i inżynierowie oprogramowania unikali w tamtym okresie terminu sztuczna inteligencja, obawiając się, że będą postrzegani jako niepoważni marzyciele”. Wielu badaczy zajmujących się AI celowo używało innych określeń, takich jak informatyka, uczenie maszynowe, analityka, systemy oparte na wiedzy, zarządzanie regułami biznesowymi, systemy kognitywne, systemy inteligentne, inteligentni agenci lub inteligencja obliczeniowa, bo wyrażenie „sztuczna inteligencja” szkodziło ich projektom.

Projekty AI zeszły więc z pierwszego planu, ale nie zostały całkiem porzucone. W 1988 r. badacze z IBM opublikowali pracę wprowadzającą zasady prawdopodobieństwa podczas automatycznego tłumaczenia języka francuskiego na angielski. Podejście to wkrótce zostało zastąpione podejściem polegającym na ustaleniu prawdopodobieństwa wyniku zamiast stosowania zasad. To podejście bardziej zbliżone do procesów kognitywnych zachodzących w ludzkim mózgu stanowiło
podwaliny pod dzisiejszą technologię uczenia maszynowego.

W końcu, w latach 2015–2020, po ponad dwu dekadach „przyczajenia”, nastąpiła erupcja aktywności badawczej w dziedzinie sztucznej inteligencji. Liczba publikacji zawierających hasło kluczowe „sztuczna inteligencja” wzrosła z 169 tys. w 2014 r. do 590 tysięcy w 2019 r. Boom ten napędzała eksplozja dostępności tanich, dynamicznie skalowalnych chmur obliczeniowych. Dzięki chmurom nawet studenci mogli wdrażać i eksperymentować z dużymi modelami sztucznej inteligencji. Sukcesy „wiosny AI” to m.in. szybkie postępy w tłumaczeniach językowych (Google Translate), rozpoznawaniu obrazów (pobudzonym przez bazę danych ImageNet) skomercjalizowaną przez Google Image Search oraz w systemach gier, takich jak AlphaZero (mistrz szachowy) i AlphaGo (mistrz gry Go) oraz Watson (mistrz teleturniejów telewizyjnych). Po gwałtownym boomie nastąpiło coś w rodzaju minizimy, czyli spadek publikacji o 33 proc. rok do roku w latach 2021–2023. Przyczyny tej ostatniej „zimy” nie wydają się całkowicie jasne. Część z nich można potencjalnie przypisać okolicznościom stworzonym przez pandemię covidu, która doprowadziła do powszechnej reorientacji badań i finansowania w różnych dziedzinach akademickich, w tym AI. Mogła to być równie dobrze korekta po wybuchu w latach 2015–2020.

Udostępnienie w 2022 r. chatbota AI ChatGPT firmy OpenAI, który już w styczniu 2023 r. miał ponad sto milionów użytkowników, to nie po prostu powrót AI, ale wydarzenie w historii sztucznej inteligencji bezprecedensowe. Historycznie bowiem nawet w swoich lepszych okresach AI nie była tak głośna, znana i popularna jak w ostatnich latach. Osiągnęła najwyższy poziom zainteresowania i finansowania w swojej historii pod każdym możliwym względem, w tym: publikacji, wniosków patentowych i inwestycji. Zapanowała powszechna zgoda co do tego, że sztuczna inteligencja jest największą rzeczą od czasów Internetu, a może nawet większą. Jednak starsi i obdarzeni dobrą pamięcią przypominają, że cykl „zim AI” nie został jeszcze unieważniony. 

Mirosław Usidus