Mózg z probówki. Syntetyczna inteligencja - coś innego niż AI
Naukowcy z Cortical Labs, australijskiego startupu zajmującego się bioinformatyką, przeprowadzili w 2021 r. eksperymenty, w których połączyli neuronowe komórki macierzyste z opartymi na krzemie matrycami wieloelektrodowymi. Ich badania wykazały, że można odtworzyć, metodą in vitro, symulowaną, quasi-biologiczną sieć neuronową wykazującą "biologiczną inteligencję", która w przeprowadzonych eksperymentach uczyła się grać w znaną grę komputerową Pong.
Naukowcom z Cortical Labs udało się zsynchronizować sieć neuronową z drążkiem wykorzystywanym przez graczy, czyli sieć neuronowa nauczyła się, jak kontrolować sprzęt do gry w Ponga. Odkryli oni, że quasi-biologiczny system, który nazwali DishBrain (1), był w stanie nauczyć się grać w Ponga szybciej niż AI. Opanowała grę po 10-15 rundach, podczas gdy znanym algorytmom sztucznej inteligencji potrzebuje takich rund kilka tysięcy w tym samym celu.
Wielu ekspertów uważa, że uogólnione systemy SBI (syntetycznej inteligencji biologicznej) mogą poprzedzać pojawienie się sztucznej inteligencji ogólnej (AGI). Naukowcy z Cortical Labs publikacji na temat swoich badań traktują w tego rodzaju spekulacje z rezerwą, jednak ich ustalenia wskazujące, iż syntetyczna inteligencja biologiczna może nauczyć się adaptować do niektórych środowisk i kontekstów szybciej niż AI wskazują, że syntetyczna inteligencja biologiczna może mieć, przynajmniej pod pewnymi względami przewagę nad AI. W artykule opublikowanym w grudniu 2021 r. przez "New Scientist", Brett Kagan z Cortical Labs powiedział: "uważamy, że uczciwie jest nazwać je [SBI] mózgami cyborgów".
Oczywiście naukowcy zaangażowani w produkcję syntetycznej inteligencji biologicznej zdają sobie sprawę z problemów etycznych płynących z ich badań. Kultury sieci neuronowych, według wszelkich biologicznych definicji, są żyjącymi jednostkami. Naukowców i filozofów niepokoją implikacje tworzenia świadomych, lecz pozbawionych możliwości decydowania "mózgów", bytów myślących, lecz zniewolonych do realizacji stawianych im zadań.
Zanim Cortical Labs opublikowało swoje wyniki, w czerwcu 2019 roku Hideya Sakaguchi z kalifornijskiego Instytutu Salka oceniał, że organoidy neuronowe "są dalekie od 'myślącego' mózgu", dodając, że do "odtworzenia wyższych funkcji mózgu, takich jak świadomość, czy myślenie”, organoidy potrzebują „subiektywnych doświadczeń, a to wymaga wejścia sensorycznego i systemu wyjścia motorycznego w tym samym czasie".
Myśli czy nie myśli?
Termin "syntetyczna inteligencja" został użyty przez Johna Haugelanda w 1986 roku do opisania dotychczasowych badań nad sztuczną inteligencją. Pierwsza generacja badaczy AI mocno wierzyła, że ich techniki doprowadzą do prawdziwej, podobnej do ludzkiej inteligencji w maszynach. Po pierwszej zimie AI wielu badaczy AI przeniosło swój nacisk ze sztucznej inteligencji ogólnej na poszukiwanie rozwiązań dla konkretnych problemów indywidualnych, takich jak uczenie maszynowe, podejście, do którego niektóre popularne źródła odnoszą się jako "słaba AI" lub "stosowana AI".
Pomiędzy różny mi źródłami nie ma zgody co do tego, co dokładnie stanowi "prawdziwą" inteligencję w przeciwieństwie
do "symulowanej" inteligencji, a zatem - czy istnieje znaczące rozróżnienie między sztuczną inteligencją a inteligencją syntetyczną. 2.
Wielu badaczy uważa, że można powiedzieć, że maszyny wykonujące podobne do człowieka zadania "umysłowe" rzeczywiście myślą. Sławny badacz tych problemów, John Searle natomiast sugerował, że myśląca maszyna jest w najlepszym razie symulacją. Pisał on m. in.: "Nikt nie przypuszcza, że komputerowa symulacja pożaru spali okolicę lub że komputerowa symulacja ulewy sprawi, że wszyscy zostaniemy oblani". Zasadnicza różnica między symulowanym umysłem a prawdziwym umysłem jest jednym z kluczowych punktów jego sławnego argumentu lub eksperymentu myślowego z chińskim pokojem.
Opisać go można w następujący sposób: Załóżmy, że skonstruowaliśmy komputer, który zachowuje się, jakby rozumiał język chiński. Innymi słowy, komputer bierze chińskie znaki jako podstawę wejściową i śledzi zbiór reguł nimi rządzący (jak wszystkie komputery), koreluje je z innymi chińskimi znakami, które prezentuje jako informację wyjściową. Załóżmy, że ten komputer wykonuje to zadanie w sposób tak przekonujący, że łatwo przechodzi test Turinga, tzn. przekonuje Chińczyka, że jest Chińczykiem. Na wszystkie pytania, które człowiek zadaje, udziela właściwych odpowiedzi w sposób tak naturalny, że Chińczyk jest przekonany, iż rozmawia z innym Chińczykiem. Zwolennicy mocnej sztucznej inteligencji wyciągają stąd wniosek, że komputer rozumie chiński tak, jak człowiek.
Teraz Searle proponuje, żeby założyć, iż to on sam siedzi wewnątrz komputera. Innymi słowy, on sam znajduje się w małym pokoju, w którym dostaje chińskie znaki, konstruuje książkę reguł, a następnie zwraca inne chińskie znaki, ułożone zgodnie z tymi regułami (2). Searle oczywiście nie rozumie ani słowa po chińsku, mimo iż wykonuje powierzone mu zadanie. Następnie argumentuje, że jego brak rozumienia dowodzi, że i komputery nie rozumieją chińskiego, znajdując się w takiej samej sytuacji jak on - są bezumysłowymi manipulatorami symboli i nie rozumieją, co "mówią", tak, jak i on nie rozumie treści chińskich znaków, którymi operował.
Alegoria Searle’a stosowania jest zwykle do AI. Gdy mówimy o syntetycznych inteligencjach z elementem biologicznym typu SBI, zaczynają się problemy innej natury, np. jak należałoby rozumieć i definiować życie. To dopiero początek tej "zabawy", która w kolejnych rundach może nas zaskoczyć.
Mirosław Usidus