Sztuczna inteligencja nie działa zgodnie z logiką naukowego postępu
Sieci neuronowe - technika, która daje nam inteligentne, konwersujące boty i genialne generatory tekstu, zdolne już nawet do tworzenia poezji - stanowią dla obserwatorów z zewnątrz nieprzeniknioną tajemnicę.
Stają się coraz większe i coraz bardziej złożone, przetwarzając ogromne zbiory danych i posługując się masywnymi macierzami obliczeniowymi. Sprawia to, że powielanie i analizowanie powstałych modeli jest kosztowne, a czasem wręcz niemożliwe dla innych badaczy, poza wielkimi ośrodkami, dysponującymi ogromnymi budżetami.
Wielu naukowców dobrze rozumie ten problem. Jest wśród nich Joëlle Pineau (2), przewodnicząca NeurIPS, najważniejszej konferencji poświęconej sztucznej inteligencji, do spraw „odtwarzalności”. Eksperci pod jej kierownictwem chcą doprowadzić do powstania „listy kontrolnej odtwarzalności”.
Ideą, jak mówi Pineau, jest zachęcenie badaczy do proponowania mapy drogowej dla innych, aby ci mieli szanse odtworzyć powstałe już prace i z nich skorzystać. Można podziwiać elokwencję nowego generatora tekstu lub nadludzką zwinność robota grającego w gry wideo, ale nawet najlepsi specjaliści nie mają pojęcia, jak te cuda działają. Replikowanie modeli AI jest więc ważne nie tylko dla identyfikacji nowych celów i obszarów badań, ale także jako czysto praktyczne wskazówki użycia.
Problem ten próbują rozwiązań też inni. Naukowcy z Google’a zaproponowali „karty modeli”, aby szczegółowo opisać, w jaki sposób przetestowano systemy uczenia maszynowego, wliczając wyniki wskazujące na potencjalne błędy. Badacze z Allen Institute for Artificial Intelligence (AI2) opublikowali artykuł, którego celem jest rozszerzenie listy kontrolnej odtwarzalności Pineau o inne etapy procesu eksperymentalnego. „Pokaż swoją pracę”, apelują.
Czasami podstawowych informacji brakuje, ponieważ projekt badawczy jest zastrzeżony, zwłaszcza przez laboratoria pracujące dla firm. Częściej stanowi to jednak oznakę braku umiejętności opisu zmieniających się i komplikujących metod badawczych. Sieci neuronowe to bardzo złożona dziedzina. Uzyskanie lepszych wyników często wymaga dostrajania tysięcy „gałek i guziczków”, co niektórzy nazywają „czarną magią”. Wybranie optymalnego modelu nierzadko wiąże się też z przeprowadzeniem dużej liczby eksperymentów. Magia staje się bardzo kosztowna.
Kiedy np. Facebook próbował zreplikować działanie AlphaGo, systemu opracowanego przez DeepMind Alphabet, zadanie to okazało się niezwykle trudne. Ogromne wymagania obliczeniowe, miliony eksperymentów na tysiącach urządzeń w ciągu wielu dni, w połączeniu z brakiem dostępności kodu, sprawiły, że system „okazał się bardzo trudny, jeśli nie niemożliwy, do odtworzenia, zbadania, udoskonalenia i rozszerzenia”, jak ocenili zatrudnieni przez Facebooka eksperci.
Problem wydaje się specjalistyczny. Gdyby jednak głębiej się nad tym zastanowić, zjawisko problemów z odtwarzalnością wyników i funkcji pomiędzy jednym zespołem badawczym a kolejnym, podważa całą logikę funkcjonowania znanej nam nauki i procesów badawczych. Z reguły bowiem wyniki wcześniejszych badań można wykorzystać jako podstawę do kolejnych, co napędza rozwój wiedzy, technologii i ogólny postęp.
Mirosław Usidus