Dlaczego komputery analogowe wciąż są nam i będą potrzebne? Drzewo jako hybryda analogowo-cyfrowa
Nie ma dokładnego rozróżnienia pomiędzy obliczeniami analogowymi i cyfrowymi. Ogólnie rzecz biorąc, obliczenia cyfrowe zajmują się liczbami całkowitymi, sekwencjami binarnymi, logiką deterministyczną i czasem sprowadzonym do kawałków, porcji, bitów, podczas gdy obliczenia analogowe zajmują się liczbami rzeczywistymi, logiką niedeterministyczną i funkcjami ciągłymi, w tym czasem, który istnieje jako kontinuum w świecie rzeczywistym.
Wyobraźmy sobie, że mamy znaleźć środek drogi. Można zmierzyć jej szerokość, cyfrowo obliczyć środek z dokładnością do najbliższego przyrostu. Można też użyć "komputera analogowego", czyli kawałka sznurka, odwzorowując szerokość drogi na długość sznurka i znajdując środek, bez dzielenia na bity.
Komputer analogowy to maszyna przetwarzająca sygnał ciągły (analogowy), służąca do rozwiązywania problemów matematycznych i innych (np. zagadnień technicznych, badania zjawisk biologicznych itp.) przez modelowanie (odwzorowywanie) odpowiednich zależności (na ogół ujętych w języku matematyki) za pomocą zjawisk zachodzących w układach mechanicznych, elektrycznych, elektromechanicznych lub elektronicznych. Rozwinięciem komputerów (maszyn) analogowych były komputery analogowo-cyfrowe.
Komputery analogowe do przełomu lat 60. i 70. były znacznie szybsze i tańsze od ówczesnych komputerów cyfrowych. Dobrze sprawdzały się przy rozwiązywaniu równań różniczkowych i symulacji procesów, jednak wzrost szybkości i spadek ceny komputerów cyfrowych oraz szybki rozwój ich oprogramowania spowodował stopniowy zanik zainteresowania komputerami analogowymi po 1970 r. Pierwszym polskim elektronicznym komputerem analogowym był ARR (Analizator Równań Różniczkowych) Leona Łukaszewicza z 1953 r. Ok. 1954 r. powstał komputer analogowy do rozwiązywania układów równań liniowych ARAL, Analizator Równań Algebraicznych Liniowych (1).
Zdziwilibyśmy się, jak wiele systemów w przyrodzie działa zarówno w reżimie analogowym, jak i cyfrowym. Drzewo integruje szeroki zakres danych wejściowych jako funkcje ciągłe, ale jeśli zetniemy to drzewo, okaże się, że przez cały czas liczyło ono lata na sposób podobny do cyfrowego, na co wskazują słoje przyrostu (2). Natura wykorzystuje kodowanie cyfrowe do przechowywania, replikacji i rekombinacji sekwencji nukleotydów, ale polega na przetwarzaniu analogowym, działającym w systemach nerwowych, w celu zapewnienia rozpoznania i kontroli. System genetyczny w każdej żywej komórce jest komputerem z zapisanymi programami. Mózg już czymś takim nie jest.
Obliczenia cyfrowe, nietolerujące błędów lub niejednoznaczności, zależą od korekcji błędów na każdym etapie. Obliczenia analogowe tolerują błędy. Komputery cyfrowe wykonują transformacje pomiędzy dwoma rodzajami bitów - bitami reprezentującymi różnice w przestrzeni i bitami reprezentującymi różnice w czasie. Przekształcenia pomiędzy tymi dwoma formami informacji, sekwencją i strukturą, są regulowane przez programowanie komputera i dopóki komputery wymagają ludzkich programistów, zachowujemy nad nimi kontrolę.
Zanim przejdziemy do roli przetwarzania analogowego w AI, przypomnijmy trzy prawa sztucznej inteligencji. Pierwsze z nich, znane jako prawo Ashby’ego, od nazwiska cybernetyka W. Rossa Ashby’ego, mówi, że każdy efektywny system sterowania musi być tak złożony, jak system, którym steruje.
Drugie prawo, sformułowane przez Johna von Neumanna, stwierdza, że cechą definiującą złożony system jest to, że stanowi on swój własny, najprostszy opis zachowania. Najprostszym kompletnym modelem organizmu jest sam organizm. Próba zredukowania zachowania systemu do jakiegokolwiek formalnego opisu komplikuje sprawy bardziej, a nie mniej.
Trzecie prawo stwierdza, że każdy system wystarczająco prosty, by być zrozumiałym, nie będzie wystarczająco skomplikowany, by zachowywać się inteligentnie, podczas gdy każdy system wystarczająco skomplikowany, by zachowywać się inteligentnie, będzie zbyt skomplikowany, by go zrozumieć.
Każde z tych trzech praw, na swój sposób sugeruje, że rozwoju systemów sztucznej inteligencji nie można oprzeć jedynie na przetwarzaniu cyfrowym. Obliczenia typu analogowego będą nam potrzebne zarówno do konstruowania doskonalszych systemów AI, zrozumienia sposobów ich działania, jak też do kontrolowania ich w sposób efektywny.
Mirosław Usidus