Walcem po AI. Czy ChatGPT może zostać zniszczony na mocy wyroku sądu?

Walcem po AI. Czy ChatGPT może zostać zniszczony na mocy wyroku sądu?
Okazuje się, że myśl o całkowitej anihilacji narzędzia, którym posługują się setki milionów ludzi na całym świecie, nie jest absurdem nie do pomyślenia. W sensie prawnym nie jest to wykluczone.

27 grudnia 2023 r. „The New York Times” złożył pozew przeciwko OpenAI, twierdząc, że firma dopuściła się świadomego naruszenia praw autorskich za pomocą swojego narzędzia generatywnej sztucznej inteligencji ChatGPT. Według pozwu, ChatGPT został nielegalnie wyszkolony na ogromnych ilościach tekstu pochodzącego z artykułów NYT i że dane wyjściowe ChatGPT zawierają język bezpośrednio zaczerpnięty z tekstów opublikowanych w gazecie. „The New York Times” zażądał czegoś więcej niż tylko rekompensaty w formie pieniężnej. Zwrócił się do sądu federalnego o to, by wydał nakaz „zniszczenia” ChatGPT.

Uznaje się, że jeśli wniosek ten zostałby uwzględniony, zmusiłoby to OpenAI do zlikwidowania swoich wyszkolonych dużych modeli językowych, takich jak GPT-4, oraz danych treningowych, co uniemożliwiłoby firmie odtworzenie całości rozwiązania technicznego, które stanowi podstawę tego, co popularnie nazywamy generatorem AI. Wydaje się, że dotyczy to nie tylko stu milionów ludzi, którzy co tydzień korzystają z ChatGPT, ale również produktów Microsoftu, tworzących ekosystem od niedawna nazywany całościowo Copilotem. Bazą dla tych produktów są modele opracowane przez OpenAI.

Piracką produkcję się niszczy

Pojawiły się komentarze prawników, którzy twierdzą, że owszem, zgodnie z prawem autorskim sądy są uprawnione do wydawania nakazów zniszczenia naruszających prawo produktów. Dotyczy to nie tylko przepisów obowiązujących w USA. Jest tak w wielu krajach. Jeśli np. wytwórnia płytowa pozwie fałszerza płyt o naruszenie praw autorskich, co na fali ich nowej popularności zdarza się coraz częściej, i wygra, to dyski wzorcowe i matryce używane do masowej produkcji podróbek oraz maszyny używane do produkcji płyt a także zapasy samych płyt mogą być nakazem sądu zniszczone. Z punktu widzenia prawa nie ma legalnego użytku dla pirackiej płyty. Nie ma również żadnego uprawnionego powodu, dla którego fałszerz miałby przechowywać piracki dysk wzorcowy. Pozwolenie mu na zachowanie tych przedmiotów umożliwiłoby jedynie dalsze łamanie prawa.

Zatem w licznych przypadkach zniszczenie jest jedynym logicznym rozwiązaniem prawnym. Jeśli sąd zdecyduje, że ChatGPT jest jak taki właśnie produkt naruszający prawo lub piracki sprzęt, to może nakazać jego zniszczenie. Pozew NYT zmierza do udowodnienia, że tak właśnie jest.

Niepokojąco dla OpenAI mogą brzmieć niektóre informacje o postępowaniu organów wymiaru sprawiedliwości i administracji w USA wobec modeli i algorytmów sztucznej inteligencji. Federalna Komisja Handlu zdecydowała niedawno o wypłacie odszkodowań za algorytmy. Inna komisja, tym razem ds. komunikacji (FTC), zmusiła firmy takie jak WeightWatchers do usunięcia nie tylko nielegalnie zgromadzonych danych, ale także algorytmów i modeli AI wyszkolonych na takich danych.

Według prawników to tylko kwestia czasu, nim prawo autorskie zostanie wykorzystane do nakazania zniszczenia modeli AI i zbiorów danych. Jednak akurat w przypadku OpenAI i ChatGPT może być inaczej i jest nawet bardzo prawdopodobne, że będzie inaczej.

Możliwe, ale nie najbardziej prawdopodobne

Uznaje się, że należy spodziewać się raczej ugody, na mocy której pozywający „The New York Times” otrzyma satysfakcję w postaci rekompensaty finansowej a może jeszcze w innej formie, zaś OpenAI zachowa swoje dobra.

Innym całkiem prawdopodobnym wynikiem sprawy może być orzeczenie sądu, że ChatGPT jest chroniony znaną w prawie autorskim doktryną „dozwolonego użytku”. Jeśli OpenAI przekona sąd, że ChatGPT ma charakter „transformatora” czy też narzędzia przetwarzającego treści, to oznaczać będzie, że nie można mówić w tym przypadku o nielegalnym kopiowaniu treści z „The New York Times”. Byłaby to wygrana OpenAI.

Trzecia możliwość polega na tym, że OpenAI przegra, ale przepisy i tak uchronią ChatGPT przed zniszczeniem. Sądy bowiem mogą nakazać zniszczenie tylko wtedy, gdy spełnione są określone wymogi. Po pierwsze, zniszczenie nie może uniemożliwiać prowadzenia zgodnych z prawem działań, a po drugie, dezintegracja musi być „jedynym środkiem zaradczym”, który może zapobiec naruszeniu. Zatem wystarczy wykazać, iż ChatGPT ma zastosowania, które nie naruszają prawa lub że zniszczenie go nie jest konieczne, aby zapobiec dalszym naruszeniom praw autorskich. Wydaje się, że obie te rzeczy są możliwe a nawet wysoce prawdopodobne.

Nawet jeśli sąd uzna, że nie było przypadków legalnego użycia ChatGPT z treściami z NYT, to w pierwszym rzędzie wydaje nakaz zaprzestania naruszeń. OpenAI może, przynajmniej tak się wydaje, przystosować swoje modele sztucznej inteligencji do działania bez korzystania z artykułów tej akurat gazety lub opracować inne zabezpieczenia programowe, aby zapobiec dalszym problemom.

Ze względu na dużą liczbę innych możliwości trudno przyjmować radykalny scenariusz polegający na zniszczeniu modeli i usługi ChatGPT. Jednak, jak wynika z analiz, nie jest on całkowicie wykluczony. Pozostaje prawną opcją, która teoretycznie może być zastosowana. 

Mirosław Usidus