Rozwój oparty na badaniach naukowych. Zużywający się silnik
John Van Reenen z MIT oraz Nicholas Bloom, Charles I. Jones i Michael Webb z Uniwersytetu Stanforda piszą:
"Szeroki wachlarz dowodów związanych z różnymi gałęziami przemysłu, produktami i firmami wskazuje, że nakłady na badania znacznie rosną, podczas gdy efektywność samych badań gwałtownie spada".
Jako przykład podają prawo Moore'a, zauważając, że "liczba badaczy wymagana obecnie do osiągnięcia słynnego podwojenia zagęszczenia co dwa lata układów komputerowych jest ponad osiemnaście razy większa od tej wymaganej na początku lat 70. ubiegłego wieku". Podobne tendencje autorzy obserwują w pracach naukowych związanych z rolnictwem i medycyną. Coraz więcej badań nad rakiem i innymi chorobami nie prowadzi wcale do zwiększenia liczby uratowanych istnień ludzkich, lecz raczej odwrotnie - relacja pomiędzy wzrostem nakładów a wzrostem efektów staje się coraz mniej korzystna. Przykładowo, od 1950 r. liczba medykamentów zatwierdzonych przez amerykańską Agencję Żywności i Leków FDA w przeliczeniu na miliard dolarów wydawanych na badania drastycznie spadła.
Poglądy tego rodzaju nie są w świecie zachodnim aż tak nowe. Już w 2009 Benjamin Jones w swojej pracy na temat narastających trudności w poszukiwaniu innowacji, dowodził, że potencjalni innowatorzy w danej dziedzinie potrzebują obecnie więcej niż kiedyś edukacji i specjalizacji, aby zyskać biegłość pozwalającą na samo dotarcie do granic, które mogliby następnie przekraczać. Zespoły badawcze stale zwiększają liczebność, a jednocześnie liczba patentów przypadających na jednego naukowca spada.
Ekonomistów interesuje przede wszystkim to, co nazywa się naukami stosowanymi, czyli działalność badawcza, napędzająca wzrost gospodarczy i podnosząca dobrobyt, poprawiająca zdrowie oraz poziom życia. Są za to krytykowani, gdyż, zdaniem wielu ekspertów, nauki nie można sprowadzać do tak wąskiego, utylitarnego rozumienia. Teoria Wielkiego Wybuchu czy odkrycie bozonu Higgsa nie zwiększają produktu krajowego brutto, ale przecież pogłębiają nasze rozumienie świata. Czyż nie o to w końcu chodzi w nauce?
Fuzja, czyli już witaliśmy się z gąską
Trudno jednak podważyć proste liczbowe zależności, które przedstawiają specjaliści w dziedzinie ekonomii. Niektórzy mają na to odpowiedź, nad którą ekonomia również mogłaby się poważnie zastanowić. Zdaniem wielu oczonych, dotychczasowa nauka rozwiązała już stosunkowo łatwe problemy i jest w trakcie przechodzenia do tych trudniejszych, takich np. jak zagadnienia relacji "umysł-ciało" lub też wyzwanie unifikacji fizyki.
Rodzą się tutaj trudne pytania.
W którym momencie, jeśli w ogóle, zdecydujemy, że niektóre owoce, po które usiłujemy sięgnąć, są nieosiągalne?
Albo - jak mógłby to ująć ekonomista - ile jesteśmy skłonni wydać na rozwiązywanie problemów, które okazują się bardzo trudne do rozwiązania?
Kiedy, jeśli w ogóle, powinniśmy zacząć ograniczać straty i zrezygnować z dalszej eksploracji?
Przykładem pokazującym zderzenie z bardzo trudną kwestią, która początkowo wydawała się łatwa, jest historia prób opanowania syntezy termojądrowej. Odkrycie syntezy jądrowej w latach 30. ubiegłego wieku oraz wynalezienie broni termojądrowej w latach 50. skłoniło fizyków do oczekiwania, że syntezę można szybko wykorzystać do wytwarzania energii. Ponad siedemdziesiąt lat później wcale jednak nie jesteśmy na tej ścieżce dużo dalej, a mimo wielu obietnic, pokojowej i kontrolowanej energii z fuzji w naszych gniazdkach jak nie było, tak nie ma.
Jeśli nauka doprowadza badania do punktu, w którym nie widać innej możliwości dalszego postępu, jak tylko kolejne gigantyczne nakłady finansowe, to być może czas się zatrzymać i zastanowić, czy warto je ponosić. Wydaje się, że do takiej sytuacji zbliżają się fizycy, którzy zbudowali potężną drugą odsłonę Wielkiego Zderzacza Hadronów i, jak na razie, niewiele z tego wynika… Nie ma wyników potwierdzających lub obalających wielkie teorie. Pojawiają się sugestie, że trzeba jeszcze większego akceleratora. Nie każdy jednak uważa, że tędy droga.
Paradoks kłamcy
Zwłaszcza że, jak twierdzi w opublikowanej w maju 2018 r. pracy naukowej prof. David Wolpert z Santa Fe Institute, da się dowieść, iż istnieją fundamentalne ograniczenia poznania naukowego.
Dowód ten zaczyna się od matematycznego sformalizowania sposobu, w jaki "urządzenie inferencyjne" - czyli, powiedzmy, naukowiec uzbrojony w superkomputer, wspaniały sprzęt eksperymentalny itp. - może pozyskać wiedzę naukową na temat stanu otaczającego go wszechświata. Istnieje podstawowa matematyczna zasada, ograniczająca wiedzę naukową, która może być zdobywana przez obserwowanie swojego wszechświata, kontrolowanie go, przewidywanie, co stanie się dalej, lub wnioskowanie, co stało się w przeszłości. Mianowicie urządzenie inferencyjne i zdobywana przez nie wiedza są podsystemami tego samego wszechświata. Sprzężenie to ogranicza możliwości działania owego urządzenia. Wolpert dowodzi, że zawsze będzie coś, czego nie może ono przewidzieć, coś czego nie zapamięta i coś czego nie jest w stanie zaobserwować.
"W pewnym sensie ten formalizm można postrzegać jako rozszerzenie twierdzenia Donalda MacKaya, iż prognoza dotycząca przyszłości narratora nie może uwzględniać efektu uczenia się przez narratora tej prognozy", wyjaśnia Wolpert w serwisie phys.org.
Co się stanie, jeśli nie wymagamy, aby urządzenie inferencyjne wiedziało wszystko o swoim wszechświecie, a jedynie, aby wiedziało jak najwięcej z tego, co może być znane? Struktura matematyczna Wolperta pokazuje, że nie mogą współistnieć w tym wszechświecie dwa urządzenia inferencyjne, które mają zarówno wolną wolę (odpowiednio zdefiniowaną), jak i maksymalną wiedzę o wszechświecie. Może (lub nie) istnieć jedno takie "urządzenie superinferencyjne" - ale nie więcej niż jedno. Wolpert żartobliwie nazywa ten rezultat "zasadą monoteizmu", ponieważ choć nie zabrania ona istnienia bóstwa w naszym wszechświecie, to zakazuje istnienia więcej niż jednego.
Wolpert porównuje swój wywód do paradoksu kłamcy kreteńskiego, w którym Epimenides z Knossos, kreteńczyk, formułuje słynne stwierdzenie: "wszyscy Kreteńczycy są kłamcami". W przeciwieństwie jednak do wypowiedzi Epimenidesa, obnażającej problem układów mających zdolność samoreferencyjną, rozumowanie Wolperta odnosi się również do urządzeń inferencyjnych bez tej zdolności.
Badania Wolperta i jego zespołu prowadzone są w wielu różnych kierunkach, od logiki poznawczej po teorię maszyn Turinga. Naukowcy z Santa Fe starają się tworzyć bardziej zróżnicowane, probabilistyczne ramy, które pozwolą im badać nie tylko granice absolutnie poprawnej wiedzy, ale także to, co dzieje się, gdy urządzenia inferencyjne nie muszą działać ze stuprocentową dokładnością.
Już nie jest tak, jak sto lat temu
Oparte na analizie matematyczno-logicznej rozważania Wolperta mówią nam coś o ekonomii nauki. Sugerują bowiem, że najdalej idące wyzwania współczesnej nauki - problemy kosmologiczne, pytania o pochodzenie i naturę Wszechświata - nie powinny być obszarem największych nakładów finansowych. Wątpliwe bowiem jest uzyskanie zadowalających rozwiązań. W najlepszych razie dowiemy się nowych rzeczy, które tylko pomnożą liczbę pytań, powiększając zatem obszar niewiedzy. Fizycy dobrze znają to zjawisko.
Jak jednak wynika z cytowanych wcześniej danych, skupienie się na naukach stosowanych i praktycznych efektach zdobywanej wiedzy jest coraz mniej wydajne. Zupełnie, jak gdyby wyczerpywało się paliwo, albo zużywał się ze starości silnik nauki, który jeszcze dwieście czy sto lat temu tak skutecznie napędzał rozwój techniki, wynalazczość, racjonalizację, produkcję, wreszcie całą gospodarkę, przynosząc w efekcie wzrost dobrobytu i jakości życia ludzi.
Nie chodzi o to, aby z tego powodu załamywać ręce i rozdzierać szaty. Warto jednak na pewno zastanowić się, czy nie czas na radykalny remont lub nawet wymianę tego silnika na inny.