Prawne ujęcie korzystania z ChatGPT

Obserwujemy, jak ChatGPT przenika do codzienności uczniów, studentów, startupowców, usługodawców, pracowników korporacji i menedżerów. Dziś to narzędzie AI generuje nie tylko odpowiedzi i porady na najprostsze zagadnienia, ale też newslettery, sprawozdania, kampanie marketingowe, złożone plany ekspansji i przemówienia prezesa. Co więcej, wiele osób nadal nie wie, czy może legalnie wykorzystywać takie treści i czyją są one własnością.

opened-ai-chat-laptop.jpg

Czym właściwie jest ChatGPT?

Przypomnijmy, że ChatGPT to narzędzie przetwarzające dane wejściowe użytkownika (tzw. prompt) i generujące na ich podstawie odpowiedzi. W kontekście prawnym oznacza to, że o ile prompt może mieć postać utworów, to użytkownik nie otrzymuje finalnie „dzieła” stworzonego przez osobę fizyczną, ale tekst wygenerowany przez algorytm sztucznej inteligencji, uczony na miliardach danych tekstowych. Z perspektywy prawa autorskiego – to kluczowa różnica.

Czy AI może być autorem? Krótkie przypomnienie zasad prawa autorskiego

Zacznijmy od podstaw. Aby jakiś utwór mógł stać się przedmiotem prawa autorskiego, musi być stworzony przez człowieka. Nie przez małpę*, nie przez siły przyrody i – jeszcze – nie przez sztuczną inteligencję. W praktyce oznacza to, że:

  • Nie ma twórcy, któremu przysługiwałyby prawa osobiste i majątkowe.
  • Użytkownik może swobodnie wykorzystywać wygenerowane treści, nawet komercyjnie, o ile nie narusza to innych praw (np. znaków towarowych, tajemnic handlowych, dóbr osobistych czy prywatności osób trzecich).

* W 2011 r. indonezyjski makak (nazwany później) Naruto zrobił sobie zdjęcie aparatem fotografa Davida Slatera, co wywołało niemały spór o prawa autorskie znany powszechnie jako Monkey Selfie Case. Organizacja PETA pozwała fotografa w imieniu małpy, twierdząc, że to właśnie uroczy makak powinien być uznany za autora zdjęcia, a nie właściciel aparatu. Spór prawny rozwiązał sąd federalny w USA, oddalając powództwo i przypominając, że tylko człowiek może być podmiotem praw autorskich.

Czy oznacza to, że ze wszystkich efektów pracy ChatGPT można korzystać dowolnie? Prawie, ale jak zawsze to „prawie” robi różnicę.

Czy mogę wykorzystać tekst wygenerowany przez ChatGPT w swojej firmie?

Zgodnie z obowiązującymi Warunkami korzystania z ChatGPT w UE (Europe Terms of Use OpenAI, wersja obowiązująca od grudnia 2024 r.) użytkownik uzyskuje prawo do treści, które sam wygeneruje – tzn. może z nich korzystać, modyfikować je, publikować, sprzedawać, a także udzielać sublicencji. To znaczy:

  • Możesz wykorzystać te treści komercyjnie.
  • Możesz je opublikować.
  • Możesz je zmieniać, adaptować, sprzedawać lub łączyć z innymi materiałami.

Dotyczy to także wykorzystania efektów aplikacji w kampaniach marketingowych, wystąpieniach publicznych, procedurach wewnętrznych, a nawet prezentacjach dla zarządu.

Ale... (bo zawsze jest przecież jakieś „ale”) tu dochodzimy do istotnego zastrzeżenia. OpenAI nadal zastrzega sobie pewne prawa do treści wejściowych i wyjściowych, jeśli użytkownik korzysta z bezpłatnej wersji usługi oraz ostrzega przed wykorzystywaniem treści, które mogą być wrażliwe lub poufne – zarówno z perspektywy klienta, jak i organizacji.

Co naprawdę oznacza, że „masz prawo do treści” generowanych przez ChatGPT?

OpenAI (operator ChatGPT) w Regulaminie jasno zaznacza: to the extent permitted by applicable law, you own the Output (z ang.: W zakresie dozwolonym przez obowiązujące prawo, jesteś właścicielem wygenerowanych treści). Brzmi to znakomicie. Oczywiście, OpenAI zastrzega, że nie możesz rozgłaszać, że treści oparte na rezultatach pracy ChatGPT zostały wytworzone przez człowieka, jeśli tak nie było.

Co więcej, w Regulaminie znajdziemy również oświadczenie, że OpenAI przenosi na użytkownika wszystkie swoje prawa, tytuły prawne i udziały, jeśli takowe istnieją, do wygenerowanych treści. Nie trzeba być jednak ekspertem prawa, aby wiedzieć, że Open AI może przenosić tylko te prawa, które sam posiada1. Dlatego, też postanowienie Regulaminu zostało na tyle zgrabnie stworzone, aby podkreślić, że OpenAI przenosi tylko swoje prawa i tylko pod tym warunkiem, że w ogóle istnieją. A przecież nie wszystkie wygenerowane treści mogą stanowić przedmiot praw albo mogą stanowić przedmiot praw innych podmiotów niż OpenAI, w szczególności innych użytkowników.

Oto kilka kluczowych punktów, które mogą mieć wpływ na Twoje bezpieczeństwo prawne i zgodność z regulacjami:

a) Możliwość wykorzystania Twoich danych przez OpenAI

Jeśli korzystasz z wersji bezpłatnej lub podstawowej wersji płatnej ChatGPT, wszystkie Twoje prompty oraz wygenerowane odpowiedzi mogą być analizowane, a nawet używane do dalszego szkolenia modelu. W skrócie – to, co wprowadzasz do AI, nie pozostaje prywatne.

Dlatego:

  • Nie wolno tam wpisywać danych osobowych, danych klientów, tajemnic przedsiębiorstwa, numerów faktur, danych finansowych ani żadnych informacji poufnych.
  • W przeciwnym razie możesz naruszyć tajemnicę zawodową, RODO lub obowiązki kontraktowe albo możesz utracić kontrolę nad tymi informacjami.

b) Brak gwarancji oryginalności

OpenAI nie gwarantuje, że wygenerowane treści są:

  • wolne od błędów,
  • unikalne (mogą być podobne do treści wygenerowanych innym użytkownikom),
  • zgodne z prawem obowiązującym w Twojej jurysdykcji.

W Regulaminie znajdziemy wręcz zastrzeżenie, że: „Dane Wyjściowe mogą nie zawsze być dokładne. Nie należy polegać na Danych Wyjściowych otrzymanych w wyniku korzystania z naszych Usług jako jedynym źródle prawdy lub faktycznych informacji lub jako zamienniku profesjonalnej porady”.

Innymi słowy – korzystasz na własne ryzyko.

Ryzyka prawne i compliance – czego powinien się obawiać CFO, CCO lub CIO?

Mimo że użytkownik może swobodnie korzystać z wygenerowanych treści, nie oznacza to pełnej beztroski. Oto cztery najważniejsze zagrożenia prawne:

a) Plagiat i wtórność treści

ChatGPT nie „kopiuje” treści z internetu, ale generuje je na podstawie wzorców językowych. Może się jednak zdarzyć, że output przypomina już istniejące dzieła (np. znane cytaty, fragmenty dokumentów lub raportów). Warto zachować ostrożność przy publikacji wygenerowanych treści, szczególnie w materiałach promocyjnych lub naukowych.

b) Poufność i RODO

Wprowadzając dane do ChatGPT, należy unikać wpisywania informacji poufnych, danych osobowych lub danych finansowych. Dane wejściowe mogą być wykorzystywane przez OpenAI do dalszego szkolenia modeli (chyba że korzystasz z wersji płatnej z wyłączonym logowaniem danych).

c) Odpowiedzialność za błędy

ChatGPT nie jest źródłem prawa ani autorytatywnym doradcą. To użytkownik ponosi pełną odpowiedzialność za wykorzystanie treści, nawet jeśli zostały one błędnie wygenerowane przez AI. Przykład? Błędne interpretacje przepisów, nieaktualne dane statystyczne, a czasem nawet wymyślone orzeczenia sądów.

d) Compliance i audytowalność

W wielu organizacjach korzystanie z AI powinno być ujęte w politykach wewnętrznych (IT, compliance, bezpieczeństwo informacji). Brak takich regulacji może skutkować naruszeniem zasad ładu korporacyjnego lub wymogów audytowych, zwłaszcza w firmach podlegających regulacjom branżowym (finanse, prawo, zdrowie).

Z punktu widzenia działu prawnego i compliance oto lista ryzyk, którymi należy zarządzić:

  • Plagiat nieumyślny – choć AI nie „kopiuje” dosłownie, może wygenerować treść zbliżoną do istniejącej publikacji. Brak weryfikacji może skutkować odpowiedzialnością cywilną.
  • Naruszenie praw osób trzecich – np. danych osobowych, dóbr osobistych lub tajemnic handlowych. Zarówno w ramach promptowania, jak i wykorzystywania wygenerowanych treści.
  • Wprowadzenie błędów do dokumentów – ChatGPT może tworzyć treści przekonujące, ale nieprawdziwe.
  • Brak przejrzystości audytowej – jeśli korzystasz z AI do tworzenia treści firmowych, ale nie dokumentujesz tego procesu – i sam podpisujesz się jako autor wygenerowanej przez AI pracy, możesz mieć problem przy kontroli zewnętrznej lub wewnętrznej.
  • Ryzyko reputacyjne – „regulamin konkursu z błędem”, „poradnik z fałszywym cytatem”, „newsletter z AI zamiast autentycznego głosu firmy” – to potencjalne miny wizerunkowe.

Na uwagę zasługuje, że korzystanie z ChatGPT jest objęte typową dla systemów anglosaskich klauzulą idemnizacyjną, zgodnie z którą jeśli jesteś przedsiębiorcą lub organizacją, jesteś zobowiązany: 1. do zwolnienia OpenAI z wszelkiej odpowiedzialności; 2. zabezpieczyć przed wszelkimi kosztami, stratami, zobowiązaniami i wydatkami (w tym kosztami obsługi prawnej), wynikającymi z roszczeń osób trzecich, które powstały w związku z korzystaniem przez Ciebie z usług OpenAI lub wygenerowanych treści albo naruszenia regulaminu.

Korzystanie z ChatGPT a AI ACT

W 2024 r. uchwalono europejski akt o sztucznej inteligencji – AI Act (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji). Regulacja ta ma na celu stworzenie spójnych ram prawnych dla bezpiecznego i odpowiedzialnego wykorzystania technologii sztucznej inteligencji w Unii Europejskiej. Dotyczy podmiotów będących twórcami systemów AI bądź dostawcami wprowadzającymi systemy AI na rynek Unii Europejskiej, a także podmiotów stosujących systemy AI.

Obowiązki AI Act dotyczą głównie twórców oraz dostawców. Podmioty stosujące systemy AI, co do zasady, mają minimalne obowiązki, o ile używają system AI bez żadnych zmian. Jeżeli jednak podmiot stosujący system AI modyfikuje go bądź używa pod własną marką, może zostać zakwalifikowany jako dostawca i wówczas będzie miał obowiązek spełniania szeregu wymogów właściwych dla podmiotu dostarczającego system AI.

AI Act rozróżnia systemy AI pod kątem potencjalnego ryzyka, wskazuje na zakazane systemy, a także na systemy:

  1. wysokiego ryzyka, z którymi wiążą się rygorystyczne obowiązki;
  2. ograniczonego ryzyka, z którymi wiążą się w szczególności obowiązki informacyjne;
  3. minimalnego ryzyka, z którymi nie wiążą się zasadniczo dodatkowe obowiązki.

Podmioty używające ChatGPT w swoich procesach są klasyfikowane jako podmioty stosujące system AI. Natomiast ChatGPT zwykle klasyfikowany jest jako system o ograniczonym ryzyku. Podmioty używające ChatGPT do obsługi swoich procesów są więc zobowiązane do poinformowania o interakcji ze sztuczną inteligencją i oznaczania treści, takich jak tekst, obraz, wideo, wygenerowanych przez sztuczną inteligencję (art. 50 AI Act).

Jeżeli natomiast dany podmiot stosowałby system AI, który klasyfikowałby się jako system wysokiego ryzyka, wówczas zobowiązany byłby w szczególności do:

  1. wdrożenia środków technicznych i organizacyjnych zapewniających używanie systemu AI zgodnie z jego przeznaczeniem i instrukcjami dostawcy;
  2. zapewnienia nadzoru ludzkiego do monitorowania działania systemu AI;
  3. sprawowania kontroli nad danymi wejściowymi, podmiot powinien zapewnić, że dane wejściowe są odpowiednie i reprezentatywne;
  4. informowania pracowników i ich przedstawicieli o wdrażaniu i używaniu systemów AI w miejscu pracy.

Na gruncie AI Act natomiast zakazane jest wprowadzanie do obrotu, oddawanie do użytku bądź wykorzystywanie systemu AI, w szczególności:

  1. który wykorzystuje techniki podprogowe lub celowo manipulujące lub wprowadzające w błąd;
  2. który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną;
  3. na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób;
  4. do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną;
  5. który tworzy i rozbudowuje bazy danych służące rozpoznawaniu twarzy;
  6. do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych;
  7. kategoryzacji biometrycznej, który indywidualnie kategoryzuje osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej;
  8. identyfikacji biometrycznej w czasie rzeczywistym w publicznie dostępnych przestrzeniach do celów egzekwowania prawa.

Rekomendacje – jak bezpiecznie używać ChatGPT w firmie?

  1. Stwórzcie politykę korzystania z AI w firmie – jasno określcie zasady używania narzędzi takich jak ChatGPT, w tym zakaz wprowadzania danych osobowych i poufnych.

  2. Zadbajcie o audyt treści AI przed publikacją – każda wygenerowana treść powinna być sprawdzona przez człowieka. Zastosuj model „człowiek w pętli” – zawsze weryfikuj treści generowane przez AI przed ich wykorzystaniem zewnętrznym.
  3. Unikajcie danych wrażliwych i poufnych – to zasada kardynalna, którą warto objąć szkoleniami.
  4. Nie traktujcie AI jako doradcy prawnego – ChatGPT może wspomóc analizę, ale nie powinien zastępować konsultacji z prawnikiem.
  5. Rozważcie wersję „enterprise” – większe firmy mogą korzystać z komercyjnych wersji ChatGPT, które oferują dodatkowe zabezpieczenia (np. brak logowania danych, lepsze SLA, zgodność z RODO).

Podsumowanie: AI nie zastąpi odpowiedzialności

Sztuczna inteligencja otwiera przed biznesem nowe możliwości – od wsparcia obsługi klienta po przygotowanie materiałów szkoleniowych czy wstępnych analiz. Jednak z punktu widzenia prawa autorskiego i compliance nadal obowiązuje zasada ograniczonego zaufania. ChatGPT nie jest twórcą, ale narzędziem – to człowiek ponosi odpowiedzialność za wykorzystanie jego „dzieł”.

Warto więc używać AI mądrze, świadomie i w zgodzie z prawem. Bo choć sztuczna inteligencja nie ma osobowości prawnej, to skutki jej użycia mogą być bardzo realne.


Masz pytania dotyczące wykorzystania AI w swojej firmie? Skontaktuj się z autorami – prawnikami z Kancelarii ANSWER – doradzamy w zakresie własności intelektualnej, danych osobowych i zgodności z przepisami UE.

Przypisy / Źródła

  1. Zasada „nemo in alium plus iuris transferre potest quam ipse habet", tłumaczona jako "nikt nie może przenieść na innego więcej prawa, niż sam posiada", wywodzi się z prawa rzymskiego i od wieków stanowi fundamentalną zasadę w systemach prawa cywilnego (kontynentalnego), a także w prawie własności i zobowiązań. Choć dokładna forma tej sentencji nie występuje w zachowanych fragmentach „Corpus Iuris Civilis” Justyniana, to jej sens pojawia się w różnych miejscach, np. w naukach jurystów klasycznych takich jak Paulus, Ulpian czy Gaius. Zasada ta była znana
    i stosowana w praktyce prawniczej jako element logiki prawnej: nie można przekazać czegoś, czego się nie ma – zarówno w sensie fizycznym, jak
    i prawnym.

Kilka wariantów prenumeraty Pokaż opcje
Dwutygodniowy dostęp bez zobowiązań Wybieram

Abonament już od 100 zł miesięcznie

Dwutygodniowy dostęp bez zobowiązań

Pełen dostęp do wszystkich treści portalu
to koszt 100 zł miesięcznie
przy jednorazowej płatności za rok

WYBIERAM

Dwutygodniowy dostęp do wszystkich treści
portalu za 99 zł netto, które odliczymy od ceny
regularnej przy przedłużeniu abonamentu

WYBIERAM

Pełen dostęp do wszystkich treści portalu
to koszt 100 zł miesięcznie
przy jednorazowej płatności za rok

Dwutygodniowy dostęp do wszystkich treści
portalu za 99 zł netto, które odliczymy od ceny
regularnej przy przedłużeniu abonamentu

WYBIERAM

Polityka cookies

Dalsze aktywne korzystanie z Serwisu (przeglądanie treści, zamknięcie komunikatu, kliknięcie w odnośniki na stronie) bez zmian ustawień prywatności, wyrażasz zgodę na przetwarzanie danych osobowych przez EXPLANATOR oraz partnerów w celu realizacji usług, zgodnie z Polityką prywatności. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.

Usługa Cel użycia Włączone
Pliki cookies niezbędne do funkcjonowania strony Nie możesz wyłączyć tych plików cookies, ponieważ są one niezbędne by strona działała prawidłowo. W ramach tych plików cookies zapisywane są również zdefiniowane przez Ciebie ustawienia cookies. TAK
Pliki cookies analityczne Pliki cookies umożliwiające zbieranie informacji o sposobie korzystania przez użytkownika ze strony internetowej w celu optymalizacji jej funkcjonowania, oraz dostosowania do oczekiwań użytkownika. Informacje zebrane przez te pliki nie identyfikują żadnego konkretnego użytkownika.
Pliki cookies marketingowe Pliki cookies umożliwiające wyświetlanie użytkownikowi treści marketingowych dostosowanych do jego preferencji, oraz kierowanie do niego powiadomień o ofertach marketingowych odpowiadających jego zainteresowaniom, obejmujących informacje dotyczące produktów i usług administratora strony i podmiotów trzecich. Jeśli zdecydujesz się usunąć lub wyłączyć te pliki cookie, reklamy nadal będą wyświetlane, ale mogą one nie być odpowiednie dla Ciebie.