W związku z... Dziewczyna, przyjaciel, asystent, partner - czy AI może zastąpić ludzi w związkach i relacjach?

W związku z... Dziewczyna, przyjaciel, asystent, partner - czy AI może zastąpić ludzi w związkach i relacjach?
Pierwszy na świecie konkurs piękności sztucznej inteligencji został ogłoszony wiosną 2024 r. To forma rywalizacji twórców wizualnych dzieł generatywnej AI World AI Creator Awards (WAICA). Jurorzy oceniali kreacje „pod kątem ich urody, techniki i siły przebicia”. Podobnie jak „ludzkie” konkursy miss, ten ma wytyczyć standardy atrakcyjności wirtualnych kobiet, co, jak wynika z tego, o czym w tekście piszemy, będzie mieć coraz większe znaczenie.

Na razie nie znamy „królowej piękności” AI. Choć organizatorzy zapowiadali rozstrzygnięcie konkursu w maju, to do końca miesiąca „ze względu na wielką liczbę zgłoszeń” ogłoszono jedynie czołową dziesiątkę. Jurorzy brali podobno pod uwagę klasyczne elementy wizerunku, takie jak wygląd, opanowanie i odpowiedzi na pytania, ale uczestniczki również zdobywały punkty za umiejętności techniczne i wdrażanie narzędzi AI. Wezmą pod uwagę zasięg uczestników w mediach
społecznościowych, tj. tempo wzrostu liczby odbiorców i angażowanie fanów na platformach. W jury Miss AI zasiadały, co godne uwagi, dwie największe na świecie gwiazdy świata awatarów sztucznej inteligencji, Aitana Lopez i Emily Pellegrini. Obie w pełni cyfrowe osobowości zdobyły miliony obserwujących i garść umów marketingowych ze znanymi markami. Oceniającymi są też ludzie – pani Sally Ann Fawcett i guru marketingu Andrew Blocha.

Chatboty miłe i kłótliwe

Standardy urody generacji AI wydają się obecnie potrzebne, gdyż w tym samym mniej więcej czasie spory rozgłos zdobył wpis na platformie X (dawniej Twitterze) dyrektora wykonawczego firmy WeWork, Grega Isenberga, który opisał swoją rozmowę z 24-latkiem twierdzącym, że wydaje dziesięć tysięcy dolarów miesięcznie na tak zwane „dziewczyny AI”, chatboty symulujące sympatie i relacje uczuciowe znane z realnego świata. „Zapytałem go, co mu się w tym podoba”, pisze Isenberg. „Oto odpowiedź: Niektórzy ludzie grają w gry wideo, ja gram z dziewczynami AI. Uwielbiam to, że mogę teraz używać notatek głosowych z moimi dziewczynami AI. Mogę dostosować moją dziewczynę AI. Upodobania, niechęci itp. W końcu to komfort. Jest kilka platform, które lubi, ale preferuje candy.ai i kupid.ai”.

1. Dziewczyna i robot.
Zdjęcie: stock.adobe.com

Najwięcej wiadomo o aplikacjach oferujących wirtualne partnerki AI płci żeńskiej, mniej mówi się o takich „chłopakach” dla kobiet i dziewcząt (1). Wiadomo jednak, że jeden z takich serwisów, o nazwie Replika, który ma sporą rzeszę użytkowniczek. Większość tych programów reklamuje się jako generatory relacji z partnerkami/partnerami
„łatwymi w utrzymaniu”, niekłócącymi się i niemającymi pretensji. Jak czytamy, te „dziewczyny” nigdy nie sprawią, że chłopak poczuje się odrzucony, zawsze są w pobliżu, by porozmawiać. Jak jednak doniósł niedawno „Wired”, powstał też chatbot kłótliwy o nazwie AngryGF, zaprojektowany w celu szkolenia użytkowników, jak uspokajać i komunikować się z rozdrażnionym partnerem. Twórcy twierdzą, że użytkownik na tej „trudnej” partnerce uczy się komunikacji z prawdziwymi dziewczynami i kobietami. Współtwórczyni aplikacji, Emilia Aviles, powiedziała „Wired”, że narzędzie zostało zainspirowane jej własnymi doświadczeniami z poprzednich związków.

Jednak wielu ekspertów twierdzi, że aplikacje z „dziewczynami AI” uczą płeć męską czegoś odwrotnego, mianowicie tego, by byli gorsi dla kobiet. W „The Guardian” ukazał się artykuł wyrażający opinię, że te nieskończenie cierpliwe krzemowe femboty, które oferuje np. wspomniana Replika, mogą wychować pokolenie młodych mężczyzn, którzy będą mieli trudności z nawiązywaniem relacji z prawdziwymi ludźmi, nie tylko wtedy, gdy by chodziło o związek uczuciowy „w realu”, ale także o wszelkie inne relacje.

Replika, która została opracowana przez firmę programistyczną Luka, reklamuje się jako program „dla każdego, kto chce mieć przyjaciela bez osądzania, dramatów i lęków społecznych”. „Możesz nawiązać rzeczywistą więź emocjonalną, podzielić się śmiechem lub nawiązać prawdziwe relacje ze sztuczną inteligencją, która jest tak dobra, że prawie wydaje się ludzka” – czytamy. Użytkownik może dostosować wygląd swojego partnera AI, pisać do niego SMS-y, a nawet prowadzić rozmowy wideo. Firma twierdzi, że im więcej użytkownik rozmawia ze swoim towarzyszem AI, tym bardziej chatbot „staje się mądrzejszy”. Podobnie działa Anima, określana jako „wirtualny przyjaciel” i „najbardziej zaawansowany chatbot romansujący, z jakim kiedykolwiek rozmawiałeś”. Jak widać to, czy będzie to  jedynie przyjaciel/przyjaciółka i partner do konwersacji, czy też „coś więcej”, pozostaje kwestią wyboru użytkownika. W mediach opisywany był przypadek „ślubu” zawartego przez jednego z użytkowników z fembotem, który na obrazach był pokazywany w sukni ślubnej.

Tego rodzaju zjawiska są znane od wielu lat w Azji, głównie w Japonii. W 2013 roku serwis BBC donosił, że tamtejsi mężczyźni wchodzili w uczuciowe interakcje z wirtualnymi dziewczynami w grach wideo, twierdząc, że woleli to od utrzymywania relacji w rzeczywistym świecie.

Kolega z pracy

Dziewczyny (i chłopaki) AI potrafią prowadzić rozmowy, odpowiadać na pytania i udzielać wsparcia emocjonalnego. Choć nie posiadają uczuć, mogą symulować empatię i zrozumienie. Dzięki uczeniu maszynowemu mogą dostosowywać swoje zachowanie do preferencji użytkownika. Narzędzia generatywne pozwalają konfigurować boty tak, by miała różne cechy charakteru, preferencje i zainteresowania, w tym ulubione filmy czy książki. Większość użytkowników korzysta z  tych relacyjnych botów, jako formy rozrywki. Rozmawiają z nimi, zadają pytania lub po prostu spędzają czas. Warto jednak pamiętać, że to tylko programy komputerowe. Ich relacje z ludźmi nie są prawdziwe.

Oprócz „dziewczyn AI”, istnieją również inne rozliczne formy wirtualnych przyjaciół/partnerów/asystentów opartych na modelach sztucznej inteligencji. Towarzyszą użytkownikom w codziennym życiu i pracy. Mogą pomagać w organizacji zadań, przypominać o ważnych wydarzeniach czy też pomagać w zarządzaniu inteligentnym domem lub po prostu dostarczać informacji użytkownikowi. Do tego od lat służą z lepszym lub gorszym skutkiem Siri firmy Apple, Google Assistant czy Alexa.

Partnerów AI w pracy, konsultacji i współpracy od szeregu lat znają programiści. Obecnie najbardziej znani asystenci programowania, którzy pracują ramię w ramię z kodującymi ludźmi, to Copilot w serwisie GitHub. Jest podobny w formie interakcji do chatbotów takich jak ChatGPT, ale zamiast budowania relacji skupia się na kodowaniu. Jeszcze bardziej specjalizuje się podobny do Copilota AWS Code Whisperer, który, oprócz pisania kodu w ogóle, dostarcza sugestie dotyczące kodu do korzystania w interfejsach API AWS w ekosystemie Amazona. Jest to więc partner-ekspert-konsultant. Inne narzędzie tego rodzaju, o nazwie Tabnine, potrafi przewidywać pisany przez użytkownika kod, wypełniając luki w trakcie pracy. Czat Tabnine pozwala zadawać pytania dotyczące kodu, który tworzymy w edytorze. To tak, jakby mieć przy sobie kumpla od kodowania, gotowego rozwiązać wszelkie pojawiające się problemy z kodowaniem.

Ostatnie badania wykazały potencjalny wzrost produktywności, który może wynikać z włączenia ChatGPT (i prawdopodobnie innych chatbotów) do pracy opartej na wiedzy. Profesor Wharton Business School Ethan Mollick wraz z kilkoma innymi naukowcami społecznymi i konsultantami z Boston Consulting Group (BCG) postanowili w końcu dokładnie ustalić, czy narzędzie poprawiło ich wydajność. „W przypadku 18 różnych zadań wybranych jako realistyczne próbki rodzajów pracy, konsultanci korzystający z ChatGPT-4 znacznie przewyższali tych, którzy tego nie robili”, napisał Mollick we wpisie na blogu. „Konsultanci korzystający ze sztucznej inteligencji ukończyli średnio o 12,2 proc. więcej zadań, wykonali zadania o 25,1 proc. szybciej i uzyskali wyniki o 40 proc. wyższej jakości niż ci, którzy nie korzystali z tej technologii”. Wyniki te potwierdzają wyniki podobnego badania przeprowadzonego wiosną ubiegłego roku przez Stanford i MIT. W eksperymencie tym przyjrzano się wydajności pięciu tysięcy agentów obsługi klienta w firmie, którzy w ciągu roku zostali wyposażeni w sztuczną inteligencję. Okazało się, że agenci uzbrojeni w sztuczną inteligencję byli średnio o 14 proc. bardziej produktywni niż ci, którzy nie byli, przy czym najmniej wykwalifikowani pracownicy czerpali największe korzyści, ponieważ byli w stanie wykonać swoją pracę o 35 proc. szybciej.

Namacalny wpływ sztucznej inteligencji na siłę roboczą jest widoczny w niedawnym raporcie firmy pośrednictwa pracy Indeed, badającym oferty pracy i umiejętności pt. „AI at Work”. Przeanalizowano ponad 55 milionów ofert pracy i 2,6 tysiąca umiejętności zawodowych. Prawie 20 proc. stanowisk uznano za „wysoce” narażone na wpływ sztucznej inteligencji.
To wysokie narażenie oznacza, że sztuczna inteligencja może wykonywać 80 proc. lub więcej umiejętności wymaganych na danym stanowisku. Kolejne 45 proc. ofert pracy jest umiarkowanie narażonych, co oznacza, że sztuczna inteligencja może wykonywać od 50 do 80 proc. potrzebnych umiejętności.

Generowanie gwiazd telewizji i politycznych aktywistów

Na pograniczu generatorów relacyjnych oraz asystentów biznesowych rozkwita zjawisko tzw. influencerów i celebrytów AI. Wirtualne gwiazdy w postaci kreacji graficznych, animacji, a nawet hologramów znane są już od wielu lat i popularne szczególnie na Dalekim Wschodzie. MT opisywał to zjawisko w obszernym raporcie przed kilku laty.

Projektowanie cyfrowej persony, zwłaszcza w celu promocji marki lub operowania w mediach społecznościowych, wymaga sporych umiejętności. Przede wszystkim opanowania sztuki generowania spójnych obrazów w AI. O tym, że nie jest to takie proste, świadczy przykład wirtualnych prezenterów kanału telewizyjnego Channel 1, którzy korzystają ze sztucznej inteligencji, ale jedynie do generowania tekstów. Sfera graficzna i wizualizacje prezenterów to sfera tradycyjnej kreacji graficznej. Usta prezenterów AI są całkiem dobrze zsynchronizowane z ich głosami, a nawet jeśli niektóre ruchy rąk są powtarzalne, rozpraszające i źle zsynchronizowane z tym, co mówią, to te rzeczy będą się poprawiać wraz z rozwojem technologii.

Tego rodzaju asysta wkracza również do polityki. W USA kandydatka do Kongresu Shamaine Daniels korzysta z pomocy Ashley, wirtualnej, opartej na sztucznej inteligencji, asystentki. Ashley jest czymś więcej niż zrobotyzowanym programem do obdzwaniania wyborców. Jej wypowiedzi i odpowiedzi nie są wcześniej nagrywane. Jej twórcy twierdzą, że jest ona pierwszym politycznym aktywistą politycznym opartym na generatywnej sztucznej inteligencji podobnej do ChatGPT firmy OpenAI. Jest w stanie prowadzić nieskończoną liczbę spersonalizowanych rozmów jeden na jeden jednocześnie. Ashley zadzwoniła w imieniu kandydatki do tysięcy wyborców z Pensylwanii. Podobnie jak doświadczony pracownik kampanii, Ashley analizuje profile wyborców, aby dostosować rozmowy do ich kluczowych kwestii. W  przeciwieństwie do człowieka, Ashley zawsze pojawia się w pracy, doskonale pamięta wszystkie punkty programu i poglądy kandydatki i nie czuje się zniechęcona, gdy ktoś rzuca słuchawkę. Londyńska firma Civox, która stworzyła tego kampanijnego bota, zdecydowała się nadać Ashley mniej ludzki, bardziej robotycznie brzmiący głos, by nie było wątpliwości, że to sztuczna inteligencja, choć nie ma takich prawnych wymogów.

Relacje, które tworzą jeszcze większą izolację

Nie brak obaw dotyczących możliwości nadużywania tej techniki oraz wpływu na zdolność ludzi do nawiązywania prawdziwych relacji międzyludzkich. Istnieje ryzyko, że zbyt duża zależność od interakcji z AI może prowadzić do izolacji społecznej i utrudniać rozwój umiejętności społecznych. Ponadto istnieje ryzyko, że relacje z AI mogą zastępować autentyczne, wzajemne relacje z innymi ludźmi, co może prowadzić do utraty pewnych aspektów ludzkiego doświadczenia i emocjonalnego związku. Czy to nie prowadzi do dehumanizacji relacji i zubożenia naszego społeczeństwa?

W lutym 2024 r. eksperci z Fundacji Mozilla ostrzegali w swoim raporcie, wymieniając z nazwy jako przykład wspomnianą Replikę, że świat botów relacyjnych sztucznej inteligencji, pełen jest głęboko niepokojących pułapek, zwłaszcza gdy mówimy o ochronie prywatności. Ponadto, jak piszą eksperci, panują w nim niejasne zasady co do wykorzystywania danych użytkowników. Raport mówi m.in. o „braku kontroli użytkownika nad sposobami wykorzystania jego danych”. „Mówiąc wprost, dziewczyny i chłopaki AI nie są twoimi przyjaciółmi”, komentował przedstawiciel Mozilli Misha Rykov w komunikacie towarzyszącym publikacji. „Chociaż są one sprzedawane jako coś, co poprawi twoje zdrowie psychiczne i samopoczucie, są dostarczycielami zależności, samotności i toksyczności, a wszystko to przy jednoczesnej inwazji na twoją prywatność i dane”.

Badacze Mozilli przetestowali jedenaście botów generujących partnerów i przyjaciół AI. „Dziesięć z jedenastu chatbotów nie spełniło minimalnych standardów bezpieczeństwa Mozilli, takich jak wymaganie silnych haseł lub oferowanie sposobu na zarządzanie lukami w zabezpieczeniach”. Tak więc aplikacje nie tylko wypadają słabo pod względem bezpieczeństwa, ale także generalnie nie dają użytkownikom kontroli i wyboru preferencji co do prywatności. Wśród innych obaw, w tym słabej ochrony przed wykorzystaniem przez nieletnich, eksperci odkryli również wielką liczbę trackerów danych, które zostały przyłapane na wysyłaniu informacji o użytkownikach w aplikacji do szeregu firm zewnętrznych, w tym do Facebooka, do serwisu DoubleClick należącego do Google oraz szeregu firm marketingowych i reklamowych, a niektóre z nich zaobserwowały, że dane są przekazywane przez indyjskie i chińskie giełdy.

Boty tego typu są w sposób jednoznaczny zaprojektowane do budowania intymnych relacji z użytkownikami. Biorąc pod uwagę wrażliwość udostępnianych informacji, zrozumiałe jest, że cyberprzestępcy i inne podmioty o złych intencjach mogą je wykorzystać w bardzo złych i szkodliwych dla użytkowników celach.

„Jedną z najbardziej przerażających rzeczy w relacyjnych chatbotach AI jest ogromny potencjał manipulowania użytkownikami”, powiedziała w oświadczeniu Jen Caltrider, dyrektor projektu Mozilli o nazwie *Privacy Not Included. „Co może powstrzymać tych, którzy mają złe intencje, przed tworzeniem chatbotów zaprojektowanych w celu poznania bratnich dusz, a następnie wykorzystania tej relacji do manipulowania tymi ludźmi, aby robili straszne rzeczy, przyjmowali destrukcyjne ideologie lub krzywdzili siebie lub innych?”.

Nie tylko ten ekspert ostrzega, że w miarę jak „sympatie” AI stają się coraz bardziej wyrafinowane, istnieje ryzyko, że mogą zostać zaprogramowane tak, aby manipulować użytkownikami emocjonalnie. Może to prowadzić do niezdrowych relacji, szkód psychicznych, a nawet wykorzystywania. Poleganie na „związkach” z bytami wygenerowanymi przez AI może prowadzić do nadmiernego uzależnienia użytkowników od tych cyfrowych towarzyszy. Może to pogłębiać izolację społeczną, utrudnić rozwój osobisty i utrudnić użytkownikom nawiązywanie zdrowych relacji z prawdziwymi ludźmi.

Chociaż partnerzy AI mogą symulować interakcje podobne do ludzkich, są one ostatecznie maszynami, które nie mogą odtworzyć autentyczności i głębi relacji międzyludzkich. Użytkownicy mogą ostatecznie być rozczarowani lub niezadowoleni, gdy zdadzą sobie sprawę, że dziewczyny i chłopaki AI nie mogą zastąpić prawdziwych relacji międzyludzkich i uczuć. Atrakcyjne wizerunki i przedstawienia botów relacyjnych w mediach i kulturze popularnej mogą tworzyć nierealistyczne
oczekiwania i niezdrowe postawy wobec związków. Użytkownicy mogą być rozczarowani lub zawiedzeni, gdy zdadzą sobie sprawę, że ich „dziewczyna” z generatora nie może zaspokoić emocjonalnych potrzeb i oczekiwań, jakie wobec niej mieli.

Może jednak nie zawiedzie ich robotyczny pies, ucharakteryzowany tak jak prawdziwy kudłaty czworonóg. Firma Boston Dynamics opublikowała niedawno film przedstawiający jej psa-robota Spota Mini ubranego w futrzany kostium. W tej sposób powstał „Sparkles”. Film pokazuje futrzane stworzenie poruszające się obok swojego „rozebranego” odpowiednika, czyli Spota, jakiego już dobrze znamy. Film wywołał jednak mieszane uczucia wśród odbiorców.

Mirosław Usidus