Sztuczna inteligencja budzi lęki, ale czy rzeczywiście jest blisko?
Czy bardziej "inteligentny" jest program o nazwie O*, przygotowany na szwedzkim Uniwersytecie w Goeteborgu, który imitując mózg dziecka, uczy się matematyki? A może prawdziwą sztuczną inteligencją będą komputery zbudowane według architektury trójwymiarowej nakreślonej przez IBM już grubo ponad rok temu?
Mają być przecież chłodzone w ciekłym środowisku, zupełnie jak to dzieje się w mózgu. A może to wciąż nie jest AI, przynajmniej w takim kształcie, jaki sobie wyobrażamy, czyli maszyny, która myśli, czuje i reaguje zupełnie tak jak my, a przy tym jest znacznie potężniejsza?
Demony
Ta hipotetyczna potęga wielu sceptyków niepokoi najbardziej. "To największe zagrożenie dla naszej egzystencji" - tak ocenia sztuczną inteligencję znany przedsiębiorca technologiczny Elon Musk (1). Powiedział to podczas debaty przeprowadzonej w październiku 2014 r. na Massachusetts Institute of Technology (MIT), dodając, że budując AI, "wzywamy demona".
Nie jest to pierwsza tego typu wypowiedź założyciela PayPala, Tesli Motors i SpaceX. Podczas wywiadu, którego udzielił w czerwcu stacji CNBC, zapytany o sztuczną inteligencję Musk stwierdził, że powinniśmy być bardzo ostrożni, pracując nad tego typu oprogramowaniem.
Jako przykład tego, co może pójść nie tak, przypomniał wtedy Terminatora. "Mam nadzieję, że nie jesteśmy tylko biologicznym programem rozruchowym (boot loaderem) dla cyfrowej superinteligencji. Niestety, wydaje się to być coraz bardziej prawdopodobne," ostrzegł Musk.
Co prawda postęp w zakresie badań nad sztuczną inteligencją jest znaczący, ale nadal nikt nie może pochwalić się kodem, który z czystym sumieniem można byłoby określić mianem AI. Nie znaczy to jednak, że nie należy wziąć pod uwagę możliwości jego powstania oraz tego, że twór taki mógłby się wymknąć spod kontroli.
Spośród znanych w świecie nauki osób ostrzegał przed tym m.in. Stephen Hawking (2). Z drugiej strony entuzjaści AI, tacy jak np. Ray Kurzweil, twierdzą, że nic nam nie grozi, ponieważ sztuczna inteligencja wykorzystana zostanie do zwiększenia możliwości ludzi.
Budowanie sztucznej inteligencji, gdy nie rozumie się własnej
Wbrew jednak czarnym wizjom snutym przez nawet bardzo znanych i aktywnych w świecie nauki oraz techniki osób, nasze zaawansowanie w dziedzinie budowy sztucznej inteligencji może nie być aż tak imponujące, jak się wielu zdaje.
Profesor Michael I. Jordan (3), wybitny specjalista w dziedzinie nauczania maszynowego z Uniwersytetu Kalifornijskiego w Berkeley uważa, że wokół tej kwestii przede wszystkim panuje za dużo medialnego zamieszania i dezinformacji. Aby zbudować inteligencję „sztuczną”, musielibyśmy bowiem wystarczająco dobrze poznać naturę naszej własnej, ludzkiej. A tak nie jest.
"Potrzeba dekad badań, jeśli nie stuleci, abyśmy poznali najgłębsze mechanizmy w naszym mózgu," mówił w rozmowie z magazynem „IEEE Spectrum”.
"Na wyższych poziomach poznania, czyli w kwestiach tego, jak postrzegamy, pamiętamy i działamy, kompletnie nie mamy pojęcia, w jaki sposób neurony przechowują i przetwarzają dane, jakiego rodzaju algorytmy tu działają. Więc nie żyjemy jeszcze w erze, w której moglibyśmy wykorzystać wiedzę o naszym mózgu do budowy sztucznych systemów inteligencji." Twierdzenia Jordana mogą uspokajać wszystkich tych, których przekonują ostre wypowiedzi Muska czy Hawkinga o zagrożeniach ze strony AI. Z drugiej strony strony nasuwają podejrzenie, że wszystkie te firmy i ośrodki naukowe mówiące o pojawieniu się sztucznej inteligencji w perspektywie nawet kilku lat, mocno fałszują rzeczywistość.
A sieci neuronowe chłoną wiedzę
Google już od pewnego czasu stosuje komputerowe sieci neuronowe do rozpoznawania obiektów w filmach prezentowanych na YouTube. Na podstawie analizy zawartych w nich kształtów i kolorów sztuczna inteligencja odgaduje, czy bohaterami filmików są np. koty.
Kolejny krok to rozpoznawanie zawartości wszystkich zdjęć na podstawie samej analizy obrazu, bez uwzględniania opisów tekstowych ilustracji. Algorytmy stworzone przez Google’a mają pewną cechę imitującą nasz mózg - uczą się samodzielnie.
"Rozwiązania Google’a przybliżają nas stopniowo do ostatecznego celu sztucznej inteligencji. Jest nim powstanie programu, który potrafi to samo, co zwierzęca, a nawet ludzka, inteligencja" - wyjaśniał dla portalu technologyreview.com profesor Yoshua Bengio z Uniwersytetu w Montrealu, pracujący nad podobnymi projektami. Jego zdaniem, trudno sobie wyobrazić inteligencję, także maszynową, bez odpowiednio dużego zasobu wiedzy o świecie.
Dlatego tak ważna w rozwoju AI jest zdolność sieci neuronowych do uczenia się. Jeff Dean z zespołu pracującego nad algorytmami neuronowymi dla Google’a, zwraca uwagę, że programom, które udało się skonstruować, niektóre zadania "wychodzą lepiej niż ludziom", zwłaszcza te wizualne. Jako przykład podaje zdolność maszyn do szybkiego rozpoznawania numerów domów na zdjęciach Google Street View.
Google wykorzystuje samouczące się sieci neuronowe także do aplikacji rozpoznających mowę, znanych użytkownikom urządzeń przenośnych opartych na systemie Android. Przedstawiciele tej firmy twierdzą, że bezbłędność owych aplikacji wzrosła w ostatnich miesiącach aż o ok. jedną czwartą.
Od uśmiechu po największy dowód matematyczny
Na świecie pojawia się coraz więcej rozwiązań, algorytmów i systemów określanych jako sztuczna inteligencja. Czy to jednak prawdziwa AI, czy tylko modny termin? Tak czy owak, narzędzia te okazują się często bardzo przydatne i praktyczne. Chińscy naukowcy opracowali np. algorytm komputerowy sprawdzający jakość opisów haseł w Wikipedii.
Jak wiadomo, internetowa encyklopedia powstała i wciąż powstaje dzięki wysiłkom wolontariuszy, tzw. wikipedystów. Omówienia haseł są w niej edytowane i weryfikowane na zasadzie społecznościowej, czyli każdy użytkownik może wprowadzać edycje i zmiany. Krytycy, wywodzący się głównie ze świata oficjalnej nauki, wciąż podkreślają, że nie można tego źródła porównywać z tradycyjnymi encyklopediami, redagowanymi przez zespoły autorytetów w swoich dziedzinach.
Jingyu Han i Ke-Jia Chen z Uniwersytetu Nankińskiego opracowali swoje narzędzie, wykorzystując tzw. sieć bayesowską do przedstawiania zależności pomiędzy zdarzeniami w oparciu o rachunek prawdopodobieństwa. Zastosowali ją do wpisów w Wikipedii, uzyskując dane pozwalające na stworzenie ich rankingu. Wpisy oznaczane jako te o niskiej jakości mogą informować o potrzebie edycji i udoskonalenia.
Te natomiast, które w rankingu są wysoko, mogą zostać oznaczane jako "wyczerpujące" i być wyposażone w mechanizm blokujący poprawki obniżające ich jakość. Z kolei komputerowy system rozpoznawania twarzy (CERT), opracowany przez naukowców z kilku uczelni - z Kalifornii, amerykańskiego Bufallo i kanadyjskiego Toronto -lepiej wykrywa udawanie grymasów bólu niż ludzie.
Tak wynika z badań porównawczych zdolności oceny zachowań 205 osób, spośród których niektóre musiały zanurzyć rękę w lodowato zimnej wodzie, inne zaś tylko udawały ból. Okazało się, że oceniający ekspresje ich twarzy ludzie wykrywali fałsz w sposób losowy, czyli ich skuteczność wynosiła zawsze w okolicach 50 procent. Tymczasem komputerowy system demaskował symulantów z 85-procentową skutecznością.
Według autorów opracowania, maszyna wykrywała zmiany na twarzy, których ludzie nawet nie zauważają. Następny krok do sztucznej inteligencji - system wykrywania grymasów niejednoznacznych - opracowano na stanowym Uniwersytecie Ohio. Jest on w stanie rozpoznać znacznie bardziej złożoną i sprzeczną mimikę twarzy "radośnie zniesmaczonej" lub "smutnej i pełnej złości".
Jak donoszą naukowcy w publikacji w czasopiśmie "Proceedings of the National Academy of Science"”, liczba rozpoznawanych przez ich system wyrazów twarzy potroiła się i wynosi obecnie 21. Komputer rozpoznaje znaczenie grymasów na podstawie modeli układu poszczególnych mięśni twarzy.
Powstała baza 5 tys. zdjęć, które poddano żmudnej analizie pod kątem najczęściej spotykanych układów mięśni. Dotychczas naukowcy potrafili przedstawić za pomocą modelowania komputerowego twarzy najwyżej sześć stanów emocjonalnych człowieka: radość, smutek, strach, złość, zaskoczenie i wstręt.
Na kampusie amerykańskiej uczelni Carnegie Mellon University komputer NEIL (Never Ending Image Learner) 24 godziny na dobę ogląda obrazki. Po co? Uczeni, którzy go stworzyli i zaprogramowali, uważają, że nauczy się w ten sposób rozumieć świat i rozumować, jak człowiek.
Od lipca 2013 r. nowa nadzieja twórców sztucznej inteligencji, stworzona dzięki funduszom departamentów obrony i marynarki USA, przejrzała już miliony zdjęć. Dzięki wizualnej wiedzy, NEIL-owi udało się do tej pory rozpoznać samodzielnie 1500 obiektów, 1200 scen oraz przeprowadzić 2,5 tys. logicznych asocjacji pomiędzy obiektami. Relacje, które maszynowa inteligencja "odkrywa", nie należą jednak póki co do zbyt wyrafinowanych.
Umie on np. stwierdzić, że auta występują na drogach lub, że kaczki są podobne do gęsi… Układy określane jako AI coraz częściej wkraczają do życia i pomagają nam, np. w zwiedzaniu miast. Podczas wakacyjnych wędrówek nie zawsze chodzi o dotarcie do celu drogą najkrótszą.
Geo-aplikacja opracowana przez badaczy pracujących dla firmy Yahoo! szacuje "piękno" określonych miejsc i na podstawie jego poziomu wytycza turystyczne szlaki. Naukowcy korzystali w swoich pracach z bazy danych zdjęć centrum Londynu i opinii samych mieszkańców miasta.
Zdaniem twórców algorytmu drogi "piękniejsze" są przeciętnie o 12 procent dłuższe niż te najkrótsze. W planie jest stworzenie aplikacji, która byłaby przewodnikiem po największych europejskich miastach. Sztuczna inteligencja ma również pomóc unikać wypadków drogowych.
Volvo zapowiada obecnie stworzenie czegoś w rodzaju systemu sztucznej inteligencji w pojeździe, która nie tylko reagowałaby na zaistniałe już zagrożenia, ale przez analizę otoczenia również przewidywała sytuacje, które dopiero mogą zaistnieć. Prace nad systemem znanym pod nazwą "centralized Sensor Fusion framework" są prowadzone przez zespół ośrodków badawczych we współpracy z firmami Volvo Cars i Volvo Trucks.
Jak informują zaangażowani w projekt, prace nad nim potrwają jeszcze co najmniej pięć lat. Jego głównym założeniem będzie identyfikacja zagrożeń, zanim pojawią się na drodze jadącego pojazdu i w polu widzenia kierowcy. Gdy system wykryje potencjalnie niebezpieczną sytuację, sam dokona decyzji, co robić.
Może nakazać zatrzymanie samochodu albo kalkulację "ścieżki uniku' (4). Nadzwyczaj wydajna maszynowa inteligencja być może umożliwi nam również rozwiązanie wielu historycznych problemów matematycznych - tak jak pomogła w przeprowadzeniu dowodu jednego z twierdzeń węgierskiego matematyka Paula Erdősa.
Rozwikłanie słynnego problemu sekwencji ±1, przedstawione przez naukowców z Uniwersytetu Liverpoolu, Alexeia Lisitsy i Borisa Koneva, miało objętość o trzy gigabajty większą niż cała Wikipedia (w wersji skompresowanej), "ważyło" bowiem na dysku aż 13 gigabajtów.
Dla uczonych to nie tylko rekord wielkości dowodu matematycznego, ale również przekroczenie granic ludzkiej matematyki. Otwarcie mówi o tym Lisitsa, nazywając wywód, który opublikowali z kolegą czymś "nieludzkim". Do przeprowadzenia dowodu wykorzystali komputer o wielkiej mocy obliczeniowej, któremu analiza sekwencji liczbowych zajęła sześć godzin.
Sprawdzenie prawidłowości dowodu twierdzenia Erdősa przez człowieka zajęłoby wiele lat i raczej nie wchodzi w grę. Potrzebny byłby do tego jeszcze większy komputer, który wygeneruje jeszcze większy plik. Zatem opinie o "nieludzkiej" matematyce są chyba uzasadnione.
Inna sprawa, czy potrzeba do tego aż sztucznej inteligencji, czy raczej po prostu ogromnej mocy obliczeniowej maszyny? Prawdziwie bowiem inteligentna maszyna poszukałaby, podobnie jak człowiek, innego urządzenia, które wykona za nią żmudną robotę…
Mirosław Usidus