Wieża Babel 2.0

Wieża Babel 2.0
Na pewno nie zabraknie osób, które uznają za przedwczesne prognozy schyłku zjawiska masowej nauki języków obcych i zawodu tłumacza. Jednak doskonalenie technik sztucznej inteligencji, dokonującej tłumaczeń zarówno w mowie jak i w piśmie, każe myśleć o logicznych konsekwencjach.

W ostatnich latach dość regularnie docierają do nas informacje o nowych narzędziach tłumaczących, które radzą sobie ze złożonością języków dużo lepiej niż znana z sieci usługa Google Translate. Powstały nawet technologie, które dzięki sieciom neuronowym i machine learning już teraz tłumaczą w niektórych językach lepiej niż profesjonaliści z krwi i kości.

 

Skype tłumaczy na żywo

Jedną z nowości ostatnich lat jest Skype Translator (Tłumacz Skype’a) - narzędzie, które pozwala na tłumaczenie w tzw. czasie rzeczywistym, czyli natychmiastowo i symultanicznie w trakcie rozmowy przez komunikator. Udostępniona wersja działa na razie w odniesieniu do najpopularniejszych języków: angielskiego, niemieckiego, francuskiego, włoskiego, chińsko-mandaryńskiego, portugalskiego i hiszpańskiego, ale ta lista sukcesywnie się wydłuża. W wersji tekstowej komunikatora dostępnych jest jeszcze kilkadziesiąt innych języków. Usługa ta oparta jest na technologii tzw. uczenia maszynowego, co oznacza, że doskonali się w miarę używania przez ludzi.

Tłumaczenia przez Skype

Tłumaczenia przez Skype

 

Microsoft udostępnił to narzędzie w wersji testowej już w 2015 r. Popularność tego rodzaju rozmów w Skype wzrosła o 400%. Najpopularniejsze okazały się tłumaczenia z francuskiego na angielski. Narzędzie włącza się automatycznie, jeśli rozmówca jest zarejestrowany w serwisie jako użytkownik innego języka niż osoba wzywająca do konwersacji. Jeśli tak nie jest, można włączyć tę opcję podczas rozmowy.

Sukces w fazie testowej wykazał, że narzędzie sprawdza się, choć z pewnością nie jest jeszcze doskonałe. Nad podobnymi rozwiązaniami pracują także Google i Apple.

 

Sztuczna inteligencja sama się uczy języków

Wkrótce po uruchomieniu usługi Microsoftu udostępniony został Google Translate z tłumaczeniem tekstu pisanego i słowa mówionego w czasie rzeczywistym. Do tej pory użytkownik translatora Google wybierał dwa języki ("wejścia" i "wyjścia"), a następnie, po wciśnięciu guzika, następowało tłumaczenie symultaniczne w trakcie trwania rozmowy. W nowej wersji aplikacja sama rozpoznaje język "ze słuchu". Użytkownicy urządzeń mobilnych otrzymali także funkcję nazwaną Word Lens, która polega na natychmiastowym tłumaczeniu napisu, na który skierowana została kamera aparatu.

Google pracuje nad narzędziami tłumaczącymi w czasie rzeczywistym od dawna. Według pojawiających się w Internecie informacji, skuteczność i bezbłędność nowych, niedostępnych jeszcze publicznie rozwiązań w niektórych parach języków bliska jest już stuprocentowej.

Translator Google’a doskonalony jest nieustannie. Dzięki sztucznej inteligencji liczba błędów w tłumaczeniach ma się zmniejszyć o 80%. Rozwiązanie oparte na sztucznej inteligencji i sieciach neuronowych ma przekładać teksty na inny język z dokładnością zbliżoną do zawodowych tłumaczy. Nowy, wprowadzany od ubiegłego roku, algorytm dzieli zdanie na poszczególne słowa, tłumaczy je na podstawie słownika i próbuje dopasować do siebie w języku, w którym ma się pojawić tłumaczenie.

Moduł sztucznej inteligencji Google'a coraz lepiej radzi sobie z tłumaczeniami opartymi na pełniejszym rozumieniu słów niż np. pozycyjne, fleksyjne i składniowe. Tym samym zbliża się do żywego tłumacza, który widzi język jako pewien wielki, skomplikowany system. Google potrafi już także coraz lepiej tłumaczyć tak idiomatyczne i rozległe języki, jak chiński (dialekt mandaryński).

Przeprowadzone testy wykazały, że przygotowywana metoda tłumaczenia w wypadku przekładu z hiszpańskiego na angielski osiągnęła 5 punktów w 6-punktowej skali, gdzie maksimum punktacji oznacza perfekcyjnie wykonane zadanie. Dla porównania, obecny translator uzyskał wynik na poziomie 3,6 punktu, a doświadczony tłumacz - 5,1 punktu. Według Google takie wyniki świadczą o tym, że zapowiadany system będzie oferował przekład tekstów z podobną precyzją, jaką oferują dzisiaj profesjonaliści.

W listopadzie 2016 r. okazało się, że sztuczna inteligencja Google'a potrafi nawet tłumaczyć pary języków, których wcześniej nie znała! Badacze nie potrafili wyjaśnić, dlaczego tak się dzieje. Wiadomo na pewno, że maszyna stworzyła własny system międzyjęzykowy, dzięki któremu może reprezentować pewne frazy niezależnie od używanego języka. Dla przykładu: jeśli umie przetłumaczyć coś z angielskiego na koreański i japoński, to uczy się także tłumaczenia z koreańskiego na japoński. W Google Translate dostępne są 103 języki, co oznacza, że istnieją w nim 5253 pary językowe do tłumaczenia.

Megahonyaku - tłumaczący megafon Panasonika

 

Przez megafon i słuchawki

Oprócz wielkiej trójcy IT (Microsoft, Google i Apple) pojawiają się też w tej branży inni gracze. Przykładowo, japoński Panasonic opracował urządzenie, które jest w stanie rozpoznać słowa i przełożyć je na pożądany język. Przekłady języka japońskiego na angielski, chiński oraz koreański są już dostępne. Nowe urządzenie otrzymało nazwę Megahonyaku - złożoną z japońskich słów "megafon" oraz "translator". Zezwala ono również na wprowadzenie tekstu poprzez ekran dotykowy; słowa zostaną przetłumaczone oraz wypowiedziane.

Urządzenie jest przeznaczone dla klientów korporacyjnych. Korzystanie z wynalazku będzie kosztować 20 tys. jenów miesięcznie. Panasonic planuje wyprodukować 10 tys. takich megafonów w 2018 r.

Panasonic to wciąż wielka międzynarodowa korporacja, ale swoich sił próbują też mniejsi. Waverly Labs, startup z Nowego Jorku, stworzył inteligentne urządzenie nazwane Pilot, które w czasie rzeczywistym tłumaczy wypowiedzi z języka obcego na język ojczysty. Przypomina słuchawkę, z której korzystają kierowcy podczas jazdy samochodem. Jest niewielkie, bezprzewodowe, komunikuje się ze smartfonem i służy do prowadzenia rozmów. Obie konwersujące osoby muszą mieć słuchawki w uszach. Wówczas urządzenie rejestruje mowę, aplikacja mobilna tłumaczy ją na język ojczysty każdego z użytkowników, a chwilę później następuje odczyt już zrozumiałych wypowiedzi. Autorzy projektu wyjaśniają, że podstawą technologiczną inteligentnej słuchawki jest maszynowe uczenie i system rozpoznawania mowy.

Jak na razie Pilot jest w fazie prototypu. Andrew Ochoa, dyrektor generalny Waverly Labs, tłumaczy, że pomysł na Pilota przyszedł mu do głowy, gdy poznał dziewczynę z Francji. Najwyraźniej uświadomił sobie wówczas, że brak znajomości języków obcych stwarza poważne bariery komunikacyjne.

 

Słuchawki Pilot firmy Waverly LabsSłuchawki Pilot firmy Waverly Labs

 

Języki już nie obce

Gdy w 2006 r. pojawił się Google Translate, prognozowano, że w niedalekiej przyszłości nikt nie będzie potrzebował tłumacza z krwi i kości. Minęła dekada z hakiem i wciąż znajomość języków obcych się przydaje, a tłumacze mają zajęcie. Komputerowe tłumaczenia są wciąż niedoskonałe, a kto korzysta np. z Tłumacza Google, ten wie, jak potrafi on rozbawić swoją nieporadnością.

Jednak "niedaleka przyszłość" idealnych automatycznych tłumaczeń językowych przyjdzie nieuchronnie, bo inwestują w nią i wiele wysiłku wkładają naprawdę wielcy i poważni gracze. Może to potrwa jeszcze kolejną dekadę, może nawet dłużej, ale maszyny nauczą się niechybnie tłumaczyć mowę i pismo, najpierw w sposób wierny i stuprocentowo zrozumiały, a potem - zupełnie nieodróżnialny od tłumaczeń ludzkich.

Nową Wieżą Babel będzie sztuczna inteligencja. Początkowo pozwoli porozumieć się specjalistom, ludziom nauki i technologii, którzy posługują się językiem precyzyjnym, pełnym dobrze zdefiniowanej terminologii. Potem nauczy się niedoskonałej mowy potocznej, oddawania niuansów i emocji, gwar, dialektów slangów i wad wymowy. Już teraz wyraźnie widać, że to realne.

Kto wie, czy wówczas będzie jeszcze sens mówić o "języku obcym"?

Przeczytaj także
Magazyn