Zachwyty i rozczarowania. AI po roku od premiery ChatGPT

Zachwyty i rozczarowania. AI po roku od premiery ChatGPT
Przez rok AI zdążyła rozbłysnąć w szybkim płomieniu medialnego rozgłosu, wzbudzić zachwyty nad jej uniwersalnością, a nawet kreatywnością (1), a potem coraz częściej - rozczarowanie i krytykę. Okazało się, że nie robi wszystkiego, a do wyników, które generuje, należy podchodzić ostrożnie, biorąc poprawkę na jej wady, przekłamania, ograniczenia i halucynacje. Jednak…

…jak wynika z wielu sygnałów np. harwardzkich badań wśród pracowników renomowanej Boston Consulting Group, narzędzia AI pozwoliły im zwiększyć ogólną produktywność o 40 proc. Jesienią ChatGPT dostał w końcu dostęp do internetu na bieżąco, którego brak był chyba jednym z głównych zdziwień pierwszych użytkowników rok temu. Generatywne narzędzia AI wkroczyły do wielkich ekosystemów, Adobe, YouTube i w końcu Microsoftu i Google. Wkroczyły też do edukacji, najpierw nieoficjalnie, a nawet nielegalnie, bo szkoły i uczelnie zaczęły zakazywać korzystania z ChatGPT, jednak z czasem instytucje takie jak np. uniwersytety w Hongkongu zezwoliły studentom na korzystanie z generatorów AI w przygotowywaniu prac i zadań.

Ktoś ma duże wydatki, ktoś inny dużo zarobił

Być może rozwój funkcji ChatGPT jesienią 2023 r. to ucieczka do przodu, gdyż wcześniej pojawiały się sugestie, że  tworząca go firma OpenAI jest bliska bankructwa, wydając około 700  tysięcy dolarów dziennie, aby utrzymać ChatGPT, przy czym to nie całość kosztów, bo nie uwzględnia innych znanych produktów, takich jak wyższej (premium) wersji GPT-4 i generatora obrazów DALL-E2. Łącznie straty OpenAI osiągnęły podobno 540 milionów dolarów od czasu opracowania ChatGPT do sierpnia 2023 r.

Dyrektor generalny OpenAI, Sam Altman (2), oszacował niedawno, że szkolenie GPT-4 kosztowało ponad 100 milionów dolarów, a to dopiero początek kosztów. Inwestycja Microsoftu w wysokości 10 miliardów dolarów, wraz z inwestycją kilku innych firm venture capital, utrzymała OpenAI na powierzchni, jednak na razie nie widać szansy na wyrównanie bilansu. OpenAI nie generuje wystarczających przychodów z produktów AI, aby wyjść na plus i na razie nie widać na to perspektyw.

2. Sam Altman.
Zdjęcie: Autorstwa TechCrunch - TechCrunch Disrupt San Francisco 2019
- Day 2, CC BY 2.0, commons.wikimedia.org

Chociaż OpenAI i ChatGPT rok temu po udostępnieniu usługi miały rekordową liczbę rejestracji, to po kilku miesiącach ekscytacji liczba użytkowników zaczęła się zmniejszać. Według serwisu monitorującego SimilarWeb, w lipcu 2023 r. baza użytkowników spadła o 12 procent w porównaniu z czerwcem - z 1,7 do 1,5 miliarda użytkowników.

Wkrótce po ChatGPT udostępniono całą gamę innych wielkich modeli językowych (LLM) w postaci interfejsów dialogowych, generujących odpowiedzi tekstowe i obrazowe w odpowiedzi na prompty, w tym szereg modeli o otwartym kodzie źródłowym, z których można korzystać bezpłatnie i które można ponownie wykorzystywać bez żadnych opłat licencyjnych. Można je dostosowywać także do bardzo zindywidualizowanych potrzeb użytkowników i firm. Dlaczego więc ktokolwiek miałby wybrać płatną, zastrzeżoną i ograniczoną wersję OpenAI zamiast bardziej elastycznej i darmowej LLaMA 2 od Meta, zwłaszcza biorąc pod uwagę jej potencjalną przewagę w określonych scenariuszach?

Nastroje w pierwszych miesiącach sugerowały, że nadszedł czas, by Google czy Meta zaczęły drżeć swoją pozycję. Pierwsza z tych firm uruchomiła po kilku miesiącach podobną do ChatGPT usługę Bard. Druga zdecydowała się pójść inną ścieżką, udostępniając swoje modele jako open source. Co z tego wyniknie, jeszcze się okaże. Wydaje się, że w sytuacji, gdy pierwsza fala narzędzi LLM ujawniła swoje ograniczenia i wady, wszystko jest jeszcze otwarte. Elon Musk, który lata temu wsparł finansowo OpenAI na wczesnym etapie jej działalności, wyraził swoje niezadowolenia z kierunku, jaki obrała ta firma i otwarcie ogłosił, że stworzy konkurencyjnego chatbota o nazwie TruthGPT opartego na enigmatycznym modelu xAI, który ma nie być tak stronniczy ani podatny na halucynacje jak ChatGPT. Serwis „Firstpost” informował, że Musk kupił ponad 10 tys. procesorów graficznych NVIDIA do swojego projektu AI, po 10 tys. USD za sztukę.

Jeśli jesteśmy przy NVIDIA, to ta firma informowała w sierpniu 2023, że zarobiła sześć miliardów dolarów czystego zysku dzięki boomowi na sztuczną inteligencję. To wzrost o 843 proc. rok do roku. Stała się zarazem jedną z nielicznych firm wartych łącznie bilion dolarów. „Spodziewamy się, że dalszy wzrost będzie napędzany głównie przez centra danych”, komentowała dyrektor finansowa firmy Colette Kress. Kolejny chip AI od NVIDIA, GH200, pojawi się w połowie 2024 roku a jego cena nie jest jeszcze znana. Główni rywale NVIDIA, Intel i AMD, nie mają jeszcze przekonujących odpowiedzi na układy zasilające generatywną sztuczną inteligencję. AMD Instinct MI300 to pierwszy na świecie procesor zintegrowany z układem graficznym; może wejść na rynek na przełomie 2023 i 2024 roku.

Dryf modeli

Dalszym ciągiem kłopotów OpenAI były dziwnie brzmiące doniesienia o obniżaniu jakości odpowiedzi ChatGPT w czasie. Według badań przeprowadzonych na Uniwersytecie Stanforda i upublicznionych latem 2023 r., w ciągu zaledwie kilku miesięcy ChatGPT zmienił się na tyle, że zamiast 98 proc. poprawnych odpowiedzi na proste zadanie matematyczne odpowiadał poprawnie zaledwie w 2 proc. przypadków. Naukowcy odkryli duże wahania w zdolności technologii do  wykonywania niektórych zadań, co jest określane jako dryf. Przeanalizowano dwie wersje modelu, GPT-3.5 i GPT-4.

W trakcie badania naukowcy odkryli, że w marcu GPT-4 był w stanie poprawnie zidentyfikować, że liczba 17077 jest liczbą pierwszą w 97,6 proc. przypadków, zaś zaledwie trzy miesiące później jego dokładność spadła do zaledwie 2,4 proc. Tymczasem model GPT-3.5 zdaje się rozwijać w odwrotnym kierunku. Wersja marcowa uzyskała prawidłową odpowiedź na to samo pytanie w zaledwie 7,4 proc. przypadków, podczas gdy wersja czerwcowa odpowiadała poprawnie w 86,8 proc. przypadków. Podobnie zróżnicowane wyniki wystąpiły, gdy badacze poprosili modele o napisanie kodu i wykonanie testu rozumowania wizualnego, w którym poproszono technologię o przewidzenie następnej figury we wzorze. W ramach badań poproszono również ChatGPT o przedstawienie swojego „łańcucha myśli”, czyli wyjaśnienia toku swojego rozumowania. W marcu ChatGPT robił to, ale w czerwcu, „z niejasnych powodów”, przestał pokazywać swoje rozumowanie krok po kroku.

Nie może to nie dziwić, gdyż „czwórka” powinna być zasadniczo lepsza od wersji „3,5”. Dokładna natura tych zjawisk jest nadal słabo poznana, ponieważ zarówno naukowcy, jak i opinia publiczna nie mają wglądu w modele zasilające ChatGPT. Być może to się zmieni, bowiem ujawnienie modeli i danych, na których były szkolone, może zostać wymuszone przez sąd w procesie, jaki został wytoczony OpenAI przez grupę pisarzy z autorem „Gry o tron” George'em R.R. Martinem i Johnem Grishamem na czele, oskarżających twórców generatora o naruszanie ich praw autorskich.

Ten pozew i wiele innych działań to tylko niektóre z elementów walki o większą przejrzystość modeli AI. Naukowcy z Uniwersytetu Stanfordu stwierdzili niedawno, że żadne z obecnych dużych modeli językowych (LLM) wykorzystywanych w narzędziach sztucznej inteligencji, takich jak GPT-4 firmy OpenAI i Bard firmy Google, nie są zgodne z ustawą o sztucznej inteligencji (AI) Unii Europejskiej (UE). Ustawa ta, pierwsza tego rodzaju regulująca sztuczną inteligencję na poziomie krajowym i regionalnym, została niedawno przyjęta przez Parlament Europejski.

Badacze ze Stanforda napisali, że brak przejrzystości w ujawnianiu statusu danych szkoleniowych chronionych prawem autorskim, zużytej energii, wyprodukowanych emisji i metodologii ograniczania potencjalnego ryzyka były jednymi z najbardziej niepokojących ustaleń w badaniach. Co więcej, zespół stwierdził wyraźną rozbieżność między otwartymi i zamkniętymi wersjami modeli, przy czym otwarte wersje prowadzą do bardziej solidnego ujawnienia zasobów, ale wiążą się z większymi wyzwaniami w zakresie monitorowania lub kontrolowania wdrażania.

Jednocześnie nastąpiło zauważalne zmniejszenie przejrzystości w głównych wydaniach modeli. OpenAI, na przykład, nie ujawniło żadnych informacji dotyczących danych i obliczeń w swoich raportach dla GPT-4, powołując się na konkurencyjny krajobraz i implikacje dla bezpieczeństwa. W ostatnim czasie OpenAI usiłowała wpłynąć na stanowisko różnych państw wobec sztucznej inteligencji. Zagroziła nawet, że opuści Europę, jeśli przepisy będą zbyt rygorystyczne. Groźbę tę później odwołano.

Na giełdzie stosunkowo słabo, w turystyce - kompromitacja, w mediach - ostrożnie

„Wall Street Journal” doniósł o co najmniej trzynastu funduszach giełdowych (ETF) zarządzanych przez sztuczną inteligencję. Prawie żaden z nich nie postawił na tegoroczny wzrost indeksu S&P 500, który śledzi pięćset największych spółek notowanych na amerykańskiej giełdzie. Wzrost ten, nawiasem mówiąc, był w znacznym stopniu napędzany przez boom na sztuczną inteligencję. Mówiąc inaczej - zarządzane przez AI portfele inwestycyjne nie zarobiły na rozgłosie, jaki wygenerował boom na AI. Fundusz AIEQ np., zasilany przez sztuczną inteligencję IBM Watson, choć nie zaliczył wielkiej wtopy, osiągał słabe wyniki. Od czasu uruchomienia w 2017 r. AIEQ osiągnął zwrot w wysokości 44 proc. W tym samym okresie inwestorzy ludzcy korzystający z funduszu opartego na wynikach S&P mogli pochwalić się aż 93-procentowym zwrotem. 44-procentowy zwrot sam w sobie nie jest zły, ale dla graczy giełdowych pozostawanie w tyle za rynkiem dyskwalifikuje narzędzie.

Zdaniem cytowanego przez „WSJ” Erika Ghyselsa z Uniwersytetu Karoliny Północnej w Chapel Hill, chociaż sztuczna inteligencja może być szybsza niż ludzcy inwestorzy w bieżących operacjach, to wolno dostosowuje się do „wydarzeń zmieniających paradygmat”, takich jak wojna na Ukrainie, a także nawet sam rozwój sztucznej inteligencji. Oznacza to, jego zdaniem, iż sztuczna inteligencja nie może w dłuższej perspektywie czasowej pokonać inwestorów-ludzi.

Rozczarowujące wyniki AI na giełdzie nie wzbudzały jednak takiego zażenowania jak wygenerowany przez sztuczną inteligencję i opublikowany w jednym z serwisów Microsoftu artykuł podróżniczy, który zalecał turystom udającym się do Ottawy w Kanadzie odwiedzenie banku żywności dla bezdomnych i ubogich tuż obok zachęty do pójścia na mecz hokeja. „Wybierasz się do Ottawy? Oto, czego nie możesz przegapić”, czytamy w tytule. Ottawski bank żywności, polecany przez AI, gdy „masz pusty żołądek”, znalazł się na trzecim miejscu wśród obowiązkowych atrakcji turystycznych stolicy.

Agencja Associated Press w wytycznych dla pracowników zaleciła niedawno swoim pracownikom, aby unikali używania ChatGPT do tworzenia treści do publikacji, nie zakazując jednak „eksperymentowania z ChatGPT”. Są proszeni o zachowanie ostrożności. Według dokumentu agencji, wszelkie wyniki pochodzące z generatywnej platformy AI „powinny być traktowane jako niesprawdzony materiał źródłowy” i mają podlegać istniejącym standardom weryfikacji AP. Agencja nie pozwala sztucznej inteligencji zmieniać zdjęć, filmów ani dźwięku i nie będzie wykorzystywać obrazów generowanych przez sztuczną inteligencję, chyba że będą one przedmiotem wiadomości. W takich przypadkach AP ma oznaczać zdjęcia wygenerowane przez AI w podpisach. Choć AP ustanawia te standardy dla swoich pracowników, to  jednocześnie podpisała umowę z OpenAI, na mocy której agencyjne treści służyć mają do szkolenia generatywnych modeli sztucznej inteligencji. AP od dawna wykorzystuje również zautomatyzowane narzędzia do szybkiego tworzenia raportów finansowych i wyników z lokalnych lig sportowych.

Narzędzia AI grzęzną w problemach, które są trudne do rozwiązania dla samej AI, np. automatyzowany system rekrutacyjny Amazon oparty na sztucznej inteligencji już w 2017 r. został anulowany po uzyskaniu dowodów na dyskryminację kandydujących kobiet. Amazon opracował narzędzie rekrutacyjne oparte na sztucznej inteligencji, aby zidentyfikować najlepszych kandydatów na podstawie życiorysów z dekady. Ponieważ jednak w branży technologicznej przeważają mężczyźni, system preferował tę płeć i zaczął obniżać ocenę życiorysów zawierających słowo „kobiecy” lub tych od absolwentów dwóch uczelni tylko dla kobiet, jednocześnie faworyzując niektóre terminy (np. „wykonany”), które pojawiały się częściej w życiorysach mężczyzn. Amazon próbował skorygować to, ale stanął w obliczu wyzwań trudnych do wyeliminowania.

Innych przykładem zawodu, jaki sprawiła, było narzędzie Google Health do wykrywania retinopatii cukrzycowej. Narzędzie do skanowania siatkówki radziło sobie znacznie gorzej w rzeczywistych warunkach niż w kontrolowanych eksperymentach. Piętrzyły się skany odrzucone z powodu niskiej jakości skanowania i opóźnienia spowodowane przerywaną łącznością internetową podczas przesyłania obrazów do chmury. Także medyczna sztuczna inteligencja IBM Watson kilka lat temu miała dostarczyć wiele niebezpiecznych i nieprawidłowych zaleceń dotyczących leczenia pacjentów chorych na raka. Problem wynikał z natury danych wprowadzanych do Watsona. Badacze IBM wprowadzali hipotetyczne lub „syntetyczne” przypadki, aby umożliwić szkolenie systemu w zakresie szerszej gamy scenariuszy pacjentów. Oznaczało to jednak również, że wiele zaleceń opierało się w dużej mierze na preferencjach terapeutycznych kilku wybranych lekarzy dostarczających dane, a nie na spostrzeżeniach pochodzących z rzeczywistych przypadków pacjentów.

Inny przykład przykrej porażki to algorytmy natychmiastowego zakupu (iBuying) firmy Zillow. Firma poniosła znaczne straty w swojej działalności polegającej na sprzedaży domów ze względu na niedokładne dane do uczenia maszynowego systemu służącego do wyceny nieruchomości. System Zillow błędnie ocenił przyszłe wartości nieruchomości, co doprowadziło do złożenia właścicielom domów wielu ofert powyżej wartości rynkowej. Ta błędna ocena ostatecznie doprowadziła do zamknięcia operacji natychmiastowego zakupu Zillow i straty w wysokości kilkuset milionów dolarów.

Głośna w mediach stała się wpadka amerykańskiego prawnika o nazwisku Steven Schwartz, który użył ChatGPT do pomocy przy przygotowywaniu pozwu sądowego dotyczącego obrażeń spowodowanych zaniedbaniami linii lotniczej. Dokument napisany w asyście AI zawierał cytaty z precedensowych wyroków w sprawach, które, jak się okazało, w ogóle nie miały miejsca. Schwartz, który prowadzi praktykę od trzech dekad, przyznał się do korzystania z ChatGPT, wyjaśniając, że był nieświadomy możliwości tworzenia sfabrykowanych treści przez generator.

Już w 2019 roku Arvind Narayanan z Uniwersytetu Princeton, profesor informatyki i ekspert w dziedzinie uczciwości algorytmów, sztucznej inteligencji i prywatności, udostępnił na Twitterze zestaw slajdów zatytułowany „AI Snake Oil”. Prezentacja stwierdza m.in., iż „wiele z tego, co jest dziś sprzedawane jako ‘AI’, to olej z węża, nie działa i nie może działać”.

Sukcesy i nadzieje

Listę wpadek narzędzi AI można ciągać. Jest tego wiele. Jednak gdy widzimy sparaliżowaną kobietę „mówiącą” dzięki algorytmom sztucznej inteligencji za pośrednictwem cyfrowego awatara, to szyderstwo gaśnie. Przełomowy interfejs mózg-komputer (BCI) stworzony w kalifornijskich uczelniach UC San Francisco i UC Berkeley konwertuje sygnały z aktywności mózgu na tekst z imponującą prędkością prawie osiemdziesięciu słów na minutę - osiągnięcie rekordowe. Badanie stanowi znaczący krok w kierunku przywrócenia kompleksowej komunikacji osobom sparaliżowanym.

W publikacji na łamach sierpniowego „Nature”, Edward Chang opisuje, jak wszczepił układ 253 elektrod na powierzchnię mózgu kobiety w obszarach krytycznych dla mowy. Elektrody przechwytywały sygnały mózgowe, które, gdyby nie udar, trafiłyby do mięśni jej języka, szczęki i krtani, a także twarzy. Kabel, podłączony do portu przymocowanego do jej głowy, połączył elektrody z bankiem komputerów.

Przez wiele tygodni uczestniczka pracowała z zespołem nad wyszkoleniem algorytmów sztucznej inteligencji systemu do rozpoznawania jej sygnałów mózgowych odpowiadających mowie. Wiązało się to z ciągłym powtarzaniem różnych fraz z 1024-wyrazowego słownika konwersacyjnego, aż komputer rozpoznał wzorce aktywności mózgu związane z dźwiękami. Zamiast trenować sztuczną inteligencję do rozpoznawania całych słów, naukowcy stworzyli system, który dekoduje słowa z fonemów. Korzystając z tego podejścia, komputer musiał nauczyć się tylko 39 fonemów, aby odszyfrować dowolne słowo w języku angielskim. Zwiększyło to zarówno dokładność systemu, jak i uczyniło go trzykrotnie szybszym.  

Aby stworzyć głos, zespół opracował algorytm syntezy mowy, który spersonalizował tak, aby brzmiał jak jej głos przed urazem, wykorzystując stare nagranie jej głosu. Zespół animował awatara za pomocą oprogramowania, które symuluje i animuje ruchy mięśni twarzy, opracowanego przez Speech Graphics, firmę zajmującą się animacją twarzy opartą na sztucznej inteligencji. Naukowcy stworzyli niestandardowe procesy uczenia maszynowego, które pozwoliły oprogramowaniu firmy połączyć się z sygnałami wysyłanymi z mózgu kobiety, gdy próbowała mówić i przekształcić je w ruchy na twarzy awatara. Kolejnym krokiem dla zespołu jest stworzenie wersji bezprzewodowej, która nie wymagałaby fizycznego połączenia użytkownika z BCI.

Inny pozytywny medyczny przykład wykorzystania AI pochodzi z Amazona, który zaprezentował nowe narzędzie do sztucznej inteligencji i rozpoznawania mowy, które ma pomóc lekarzom we wprowadzaniu notatek z wizyt pacjentów do ich systemów. Na razie AWS HealthScribe jest dostępny tylko w wersji zapoznawczej w Wirginii Północnej. Jest to coś, co robią również inne narzędzia AI, takie jak Otter.ai do spotkań biznesowych, ale AWS HealthScribe dostosowuje doświadczenie do kontekstu medycznego. „Lekarze często spędzają prawie dwa razy więcej czasu na zadaniach administracyjnych niż na bezpośrednich interakcjach z pacjentami”, pisze w komunikacie Amazon.

HealthScribe generuje podsumowane notatki kliniczne z kluczowymi sekcjami, takimi jak główna skarga, historia obecnej choroby, ocena i plan leczenia. Lekarze mogą przejrzeć podsumowanie, dokonać edycji i sfinalizować notatki do dokumentacji klinicznej. Usługa „nie zachowuje przychodzącego dźwięku ani tekstu wyjściowego, ani nie wykorzystuje danych do trenowania modeli AI” - zapewnia Amazon.

Także Microsoft uruchomił w marcu nieco podobne rozwiązanie o nazwie DAX Express, które wykorzystuje model GPT-4 OpenAI w celu „zmniejszenia obciążeń administracyjnych i umożliwienia lekarzom spędzania większej ilości czasu na opiece nad pacjentami, a mniej na papierkowej robocie”.

Pomoc i oszczędności czasu rozwiązania AI oferują nie tylko medycynie. Jeśli ktoś chce stworzyć stronę internetową, ale nie umie kodować, może już wkrótce skorzystać z usługi Wix, która usprawnia proces tworzenia stron internetowych za pomocą sztucznej inteligencji. Generator witryn wykorzystuje ChatGPT, a także własne modele AI Wix, w celu projektowania stron internetowych dostosowanych do konkretnych potrzeb
użytkownika za pomocą jednego prompta.

Narzędzie integrowane będzie z aplikacjami biznesowymi Wix, w tym sklepami, systemami rezerwacji, restauracjami i innymi. W rezultacie ostateczny produkt wygenerowany przez sztuczną inteligencję ma być kompletną witryną z obrazami, tekstem i funkcjami biznesowymi, co odróżnia usługę od zwykłego szablonu, w którym użytkownik musi samodzielnie wprowadzić wszystko, co ważne. Usługa ma być dostępna „już wkrótce”. Warto dodać, że nie jest to jedyna tego rodzaju powstająca w ostatnim czasie na bazie boomu na generatywną AI usługa łatwego tworzenia stron WWW.

AI skuteczna, niestety

Są też udane wdrożenia AI w innych dziedzinach, choć niektóre mogą wydać się kontrowersyjne; np. izraelskie siły zbrojne systemy uzbrojenia AI w działaniach militarnych. Bloomberg doniósł, że izraelscy wojskowi potwierdzili wykorzystanie systemu rekomendacji AI, który analizuje dane w celu określenia, które cele należy wybrać do nalotów. Naloty można następnie szybko zorganizować za pomocą innego modelu sztucznej inteligencji o nazwie Fire Factory, który wykorzystuje dane o celach do obliczania ładunków amunicji, ustalania priorytetów i przypisywania tysięcy celów do  samolotów i dronów oraz proponowania harmonogramu ataków. Zapewnienie sztucznej inteligencji wysokiego poziomu kontroli nad operacjami wojskowymi przyniosło wiele kontrowersji i debat. Przedstawiciele wojska izraelskiego próbowali  to załagodzić, podkreślając, że systemy są nadzorowane przez ludzi, którzy weryfikują i zatwierdzają cele i plany.

W lutym 2023 pojawiła się informacja, że odrzutowiec treningowy Lockheed Martin był pilotowany przez sztuczną inteligencję przez siedemnaście godzin. W tym samym miesiącu Marynarka Wojenna Stanów Zjednoczonych przyjęła do służby okręt, który może działać autonomicznie przez okres do 30 dni.

Inny drażliwym, oprócz zastosowań wojskowych, tematem jest zastępowanie ludzi na stanowiskach pracy. Opublikowane przez serwis „Finbold” wskazują na realną perspektywę zmniejszania zatrudnienia w wielu zawodach z powodu ekspansji automatyzacji, algorytmów i AI. Wynika z nich np., że już w trzecim kwartale 2023 r. praca kasjera w sklepie stanie się w USA najbardziej zanikającym zawodem. Sekretarki, urzędnicy biurowi i specjaliści ds. obsługi klienta idą w dalszej kolejności. Do końca tej dekady zniknąć mają w tych zawodach setki tysięcy miejsc pracy jedynie w Stanach Zjednoczonych. Z drugiej strony, według danych „Finbold”, na podstawie ankiety przeprowadzonej wśród amerykańskich liderów biznesu, w pierwszym kwartale 2023 r., 66 proc. z nich używa ChatGPT do pisania kodu, zaś wykorzystania do tworzenia treści kształtują się na poziomie 58 proc., obsługa klienta korzysta z AI w 57 proc. Ponadto 52 proc. respondentów wskazało, że używa ChatGPT do tworzenia podsumowań spotkań lub dokumentów. Wirtualni asystenci obsługiwani przez ChatGPT zyskują na popularności, potencjalnie zastępując ludzkich asystentów.

To już było. Czy się powtórzy?

Niektórzy widzą w tym, co się od roku dzieje w branży AI, analogię z bańką dot.comów, i późniejszy krach z przełomu wieków XX i XXI. Wtedy, chcąc zarobić na fali nowej internetowej technologii, inwestorzy zaczęli wrzucać duże sumy w firmy, które, choć składały obietnice podboju świata, to w rzeczywistości daleko były od realnych dochodów. A kiedy zdecydowana większość tych przedsięwzięć ostatecznie się nie powiodła, nastąpiło przebicie balonu i około pięciu bilionów dolarów znikło w niebycie.

Jak pisał kilka miesięcy temu dziennik „The Wall Street Journal”, ta sama atmosfera gorączki złota wyczuwalna była na rozwijającym się rynku sztucznej inteligencji na początku 2023 r. Znów przypłynęło mnóstwo pieniędzy z firm inwestycyjnych. Jednak prawdziwa wartość technik AI jest nadal bardzo nie-jasna, tak samo jak perspektywa ich dochodowości.

Trzeba też przyznać, że istnieją również pewne duże różnice pomiędzy boomem AI a dot.comami. Większość największych graczy w branży sztucznej inteligencji to potentaci z Doliny Krzemowej, którzy od dłuższego czasu pracują nad rozwojem rozwiązań AI. To nie startupy, lecz Google, Meta, Microsoft, Amazon i inne firmy zaliczane do potentatów Big Tech. Niektóre z tych firm, nawiasem mówiąc, mają w swoim doświadczeniu boom i krach dot.comowy. Od tego czasu ich potęga i znaczenie szybko rosły. OpenAI np. została założona przez grupę weteranów Doliny Krzemowej - Petera Thiela, Reida Hoffmana, Elona Muska i innych. Nie jest w tym sensie nowicjuszem i ma głębokie powiązania z branżą technologiczną. To samo dotyczy innych przedsięwzięć w sektorze generatywnej AI, np. firm Character.AI i Humane Inc. założonych odpowiednio przez byłych dyrektorów Google i Apple.

Bańka tak czy inaczej może pęknąć. Już zresztą widać sporo objawów uchodzącego powietrza. I analogicznie do przypadków firm fali dot.com, niektóre przedsięwzięcia związane ze sztuczną inteligencją prawdopodobnie przetrwają. I  one oraz przyszłe, obecnie nieznane jeszcze projekty, tworzyć będą kolejną falę. Jeśli analogia z dot.comami ma być pełna, to fala ta będzie falą sukcesu i utrwalenia pozycji AI w naszym świecie. Jednocześnie ogromne koszty szkolenia, tworzenia i utrzymania narzędzi AI znów mogą doprowadzić do monopolizacji, czyli świata, w którym niewielka liczba dużych graczy kontroluje dostęp do niezwykle potężnych systemów sztucznej inteligencji, a wszyscy inni są od nich zależni. 

Mirosław Usidus