O tym jak deepfake głęboko nas wkręca

O tym jak deepfake głęboko nas wkręca
Jeśli zobaczylibyśmy premiera Morawieckiego lub prezydenta Dudę na ekranie telewizora mówiących nam, że właśnie wybuchła wojna - czy pomyślelibyśmy o tym, by sprawdzić czy to prawda? Wszak głowy państwa mówią do nas, a my to widzimy, nauczeni wierzyć własnym oczom zwłaszcza, jeśli mamy przed sobą wideo - najbardziej realistyczne ze wszystkich mediów. Coś, co może zdestabilizować państwo, wywołać zamieszki, doprowadzić do ludobójstwa - dzieje się już. I zaczyna wkraczać we wszelkie dziedziny życia, od satyry, poprzez politykę, aż do pornografii.

Deepfake - co to takiego?

Nazwa "deepfake" powstała jako połączenie dwóch pojęć: "deep learning" (głębokie uczenie maszynowe) i "fake" (fałszywy). Deep learning odnosi się do możliwości, jakie posiada sztuczna inteligencja, która wykorzystuje sieci neuronowe do analizy i rozumienia danych, w tym obrazów i dźwięku. Fake natomiast odnosi się do czegoś fałszywego lub podrobionego. Deepfake to zatem nic innego, jak technika generowania fałszywych treści wideo za pomocą zaawansowanych modeli uczenia maszynowego. Tyle definicji. Czas przejść do konkretów. Generowanie wideo za pomocą technologii deepfake jest obecnie jednym z najbardziej kontrowersyjnych zagadnień związanych z manipulacją informacjami. Zgodnie z blogiem ExpressVPN ta zaawansowana technologia umożliwia tworzenie fałszywych materiałów wideo, w których znane postaci wypowiadają się na kontrowersyjne tematy w sposób, który może podburzyć opinię publiczną.

Źródło: stock.adobe.com

Jak deepfake przeniknął do naszej świadomości

Deepfake'i stały się popularne dzięki eksperymentom badawczym, w których wykorzystano twarze światowych liderów, takich jak George W. Bush, Władimir Putin i Barack Obama. Z eksperymentu ewoluowały do roli narzędzia tworzenia satyrycznych filmów politycznych. Na przykład na YouTube można znaleźć deepfake, w którym twarz argentyńskiego prezydenta Mauricio Macri została zastąpiona twarzą Adolfa Hitlera. "Prezydent Trump to kompletny, beznadziejny (i tu pada przekleństwo)" - mówi na filmie z 2018 roku Barack Obama. Właściwie nie on, a Jordan Peele, komik i zdobywca Oscara. Wykorzystanie takich deepfake'ów ma być komiczne, jednak gdy oglądamy filmy, pojawia się pytanie, co się stanie, gdy przestaniemy się z tego śmiać, a zaczniemy brać na poważnie?

Deepfakes stanowią poważne zagrożenie w wojnie informacyjnej. Są skutecznym narzędziem dezinformacji. Przeciwnik zagraniczny, dążący do wpływania na wybory, może umieścić w sieci fałszywe filmy, które oczerniają konkretne osoby lub kandydatów. Tak realistycznie przygotowane wideo może wprowadzić w błąd oficerów wojskowych lub podważyć wiarygodność dziennikarską.

Jak powstaje deepfake

Tworzenie filmów deepfake stało się możliwe dzięki postępowi w dziedzinie sztucznej inteligencji. Ta zaawansowana technologia wykorzystuje algorytmy uczenia maszynowego do tworzenia i modyfikowania wideo w sposób, który często jest trudny do odróżnienia od rzeczywistości. Jednak rozwój deepfake'ów wiąże się z poważnymi wyzwaniami i konsekwencjami dla społeczeństwa.

Dziś stworzenie fałszywego filmu jest prostsze niż kiedykolwiek wcześniej, dzięki publicznie dostępnym oprogramowaniom. Wystarczy odpowiednio duża ilość zdjęć lub nagrań, które można podłączyć do wcześniej napisanego kodu, aby stworzyć realistyczne kłamstwo na temat wybranej osoby. Deepfake'i są przy tym trudne do wykrycia, ponieważ technologia ta używa tych samych algorytmów, które służą do rozróżniania prawdziwych treści od fałszywych.

Masowa dostępność oprogramowania do tworzenia deepfake'ów stwarza poważne wyzwania w odfiltrowywaniu prawdy od kłamstw. Szybki rozwój tej technologii może prowadzić do poważnych konsekwencji. Realistyczne fałszywe filmy są często wykorzystywane w próbach szantażu, oszustwach i linkach phishingowych. Przestępcy mogą tworzyć trudne do weryfikacji nagrania wideo, podszywając się pod inne osoby, co może prowadzić do wymuszeń, wplątania niewinnych ludzi w zbrodnie i wykorzystywania fałszywych dowodów w postępowaniach sądowych.

Deepfake'i wokół nas

Interesujący przykład wykorzystania deepfake'ów w mediach znajdziemy w chińskiej państwowej telewizji Xinhua, która stworzyła komputerowo wygenerowanego prezentera prowadzącego wieczorne wiadomości. Zdaniem pomysłodawców, to przyszłość - "sztuczny" prezenter może bowiem przekazywać wiadomości na bieżąco i to we wszystkich możliwych językach.

W marcu tego roku w mediach społecznościowych pojawiły się setki reklam z sugestywnymi scenami o zabarwieniu erotycznym bądź seksualnym, których bohaterkami były m.in. Emma Watson czy Scarlett Johansson. Obrazy, oczywiście, zostały wygenerowane przy pomocy sztucznej inteligencji.

U nas, w Polsce, deepfake'i też nie są nowością. Głośno było o filmie, w którym Jarosław Kaczyński zachęca do udziału w marszach kobiet. Niedawno natomiast - tu przykład nieco mrożący krew w żyłach - w internecie o swoim zaginięciu opowiadała od lat poszukiwana Iwona Wieczorek. Można sobie wyobrazić, co czuła rodzina, widząc ten film.

Nie baw się zapałkami, bo wzniecisz pożar

Deepfake stanowi także znaczące zagrożenie dla bezpieczeństwa cybernetycznego. Przestępcy mogą wykorzystywać tę technologię do skutecznego prowadzenia ataków phishingowych, manipulacji cenami akcji, rozpowszechniania fałszywych informacji w wyborach i podsycania napięć geopolitycznych.

Znaczenie deepfake'ów jako narzędzia manipulacji informacjami jest nie do przecenienia. Aby chronić społeczeństwo przed jego negatywnymi skutkami, konieczne jest podjęcie działań mających na celu identyfikację i wykrywanie deepfake'ów oraz rozwijanie odpowiednich strategii i narzędzi do walki z manipulacją informacyjną.

Źródło: stock.adobe.com

Technologie do wykrywania Deepfake

Technologia tworzenia zmanipulowanych wideo stale się rozwija, a wykrycie fałszerstw staje się coraz trudniejsze. Jednak istnieją również postępy w dziedzinie technologii służących do wykrywania fałszywych przekazów filmowych. Zarówno w Europie jak i w USA prowadzone są badania i projekty mające na celu opracowanie narzędzi i metod wykrywania fałszywych materiałów wideo.

Jednym z takich projektów jest MediFor (Media Forensics), inicjatywa Agencji Zaawansowanych Projektów Badawczych w Obszarze Obronności USA (DARPA). Projekt ten ma na celu opracowanie technologii automatycznej oceny integralności zdjęć i filmów. Inteligentne oprogramowanie ma analizować różne aspekty wideo, takie jak ruch włosów, uszu, odbicie światła w oczach oraz puls na czole. W niedalekiej przyszłości platforma MediFor ma automatycznie wykrywać manipulacje w wideo i dostarczać szczegółowe informacje na ich temat, ułatwiając tym samym podejmowanie decyzji, czy skorzystać z podejrzanych materiałów.

Inną inicjatywę mającą na celu zwalczanie deepfake'ów podjęła firma AI Foundation, która od 2017 roku opracowuje oprogramowanie do weryfikacji autentyczności mediów. Ich produkt Reality Defender łączy moderację człowieka z uczeniem maszynowym w celu identyfikacji działań złośliwych, w tym deepfake'ów. Firma zaprasza użytkowników do przesyłania fałszywych materiałów, które są wykorzystywane do tworzenia spersonalizowanej sztucznej inteligencji. AI Foundation utworzyła również Globalną Radę ds. Sztucznej Inteligencji, która zajmuje się przewidywaniem i przeciwdziałaniem negatywnym skutkom rozwoju sztucznej inteligencji.

Technologia deepfake staje się coraz bardziej zaawansowana i dostępna, co stanowi zagrożenie dla dyskusji publicznej i bezpieczeństwa narodowego. Istnieje obawa, że tego typu działania mogą być wykorzystywane przez służby wywiadowcze innych państw do celów propagandy i politycznego szantażu. Aby temu przeciwdziałać, prowadzone są badania i rozwijane są technologie wykrywania deepfake’ów.

W miarę jak technologia ta staje się coraz bardziej powszechna, istnieje potrzeba opracowania specjalistycznego oprogramowania i narzędzi, które będą mogły skutecznie wykrywać i zwalczać fałszywe materiały wideo. Jednocześnie konieczne jest również edukowanie społeczeństwa na temat zagrożeń związanych z deepfake'ami oraz promowanie zdrowej krytycznej oceny informacji i weryfikacji źródeł.

Czy deepfake jest legalny?

No dobrze, ale czy coś komuś grozi za produkcję fałszywych filmów? Czy wykorzystanie sztucznej inteligencji do tworzenia nieprawdziwych materiałów wideo lub dźwiękowych, narusza jakieś dziedziny prawa? Tak. Wchodzi w konflikt z prawami autorskimi, prawem cywilnym, przepisami dotyczącymi ochrony danych osobowych, a nawet z prawem karnym.

Osoba rozpowszechniająca deepfake musi liczyć się z tym, że jej działanie może kolidować z przepisami prawnymi. Po pierwsze, wykorzystanie fragmentów utworów audiowizualnych w deepfake może naruszać prawa autorskie, zarówno prawa majątkowe, jak i osobiste. Istnieją jednak pewne wyjątki, takie jak prawo do używania chronionych utworów w celach satyrycznych, parodii, pastiszu czy karykatury. Ochrona praw autorskich zależy od kontekstu i zastosowania deepfake.

Po drugie, deepfake może naruszać prawa osobiste, takie jak prawo do wizerunku, które jest chronione zarówno przez kodeks cywilny, jak i prawo autorskie. Osoby publiczne, takie jak politycy czy celebryci, mogą jednak mieć ograniczoną ochronę swojego wizerunku, zwłaszcza jeśli wizerunek jest wykorzystywany w związku z pełnieniem przez nich funkcji publicznych. Naruszenie czci i godności osobistej również może mieć miejsce, szczególnie jeśli deepfake przedstawia osobę w sposób wulgarny lub niezgodny z jej przekonaniami. W takich przypadkach, oprócz odpowiedzialności cywilnej, może pojawić się również odpowiedzialność karna, np. za zniesławienie.

Warto zauważyć, że kwestia prawna deepfake jest nadal niejednoznaczna i podlega dyskusjom. Istnieje dylemat między naruszeniem godności i prywatności jednostki a wolnością słowa i swobodą twórczości satyrycznej. Obecnie nie ma jednoznacznego prawnego stanowiska wobec kontrowersyjnych deepfake'ów, dlatego sytuacja prawna osób tworzących tego rodzaju materiały jest niepewna.

Źródło: www.youtube.com, stock.adobe.com