30 kwietnia 2026

Generatywna AI a prawa autorskie – co powinien wiedzieć każdy pracodawca

Sztuczna inteligencja wkroczyła do firm z impetem: wspiera pisanie maili i robienie notatek, tworzenie produktów, usług, a nawet projektowanie materiałów reklamowych. Korzyści operacyjne dla pracodawcy są bezsporne, lecz towarzyszą im poważne ryzyka dotyczące praw autorskich oraz innych praw własności intelektualnej. W naszej praktyce identyfikujemy ich całkiem sporo. Poniżej wskazujemy na dwa kluczowe obszary, które obrosły pewnymi mitami i błędnymi przekonaniami.

„Pracownik wygenerował to z wykorzystaniem AI, więc prawa autorskie należą do pracodawcy"

Regularnie spotykamy się z przekonaniem pracodawców, że wytwory (output) wygenerowane przez pracownika przy użyciu narzędzi AI – grafiki, teksty marketingowe, prezentacje, partie kodu – stanowią automatycznie własność intelektualną pracodawcy. Pracodawca intuicyjnie przyjmuje, że skoro wytwór powstał w godzinach pracy, w ramach obowiązków służbowych, to prawo autorskie (art. 12 prawa autorskiego) zapewnia mu automatyczne nabycie praw. Niestety, tak nie jest, ponieważ na gruncie prawa autorskiego tylko wytwór człowieka może być utworem i podlegać ochronie prawnoautorskiej. Tymczasem – w uproszczeniu – jeśli pracownik wpisuje w narzędzie AI prompt, a następnie otrzymuje gotowy rezultat, to ten rezultat powstaje w drodze algorytmicznego przetwarzania danych, a nie w drodze kreacji człowieka. Skoro output nie jest utworem, to nie powstają do niego żadne prawa autorskie. Nie ma więc praw, które mógłby nabyć pracodawca. Co ciekawe, właściciele firm często bywają zaskoczeni, kiedy wskazujemy, że powyższego nie zmienia fakt, że wykupili płatny dostęp do narzędzia AI. Taka odpłatność nie zmienia zasad prawa autorskiego.

Jakie ryzyko to tworzy? O ile wygenerowanie maila czy prostej prezentacji samo w sobie może mieć małe znaczenie dla pracodawcy, o tyle użycie AI w kluczowych produktach danego podmiotu (np. w oprogramowaniu, w grafikach na opakowaniach produktów albo w materiałach do nauki języków obcych czy do korepetycji) może pozbawić ten produkt ochrony. Wytwór wygenerowany przez AI nie jest chroniony – może być swobodnie wykorzystywany i kopiowany przez pracownika, konkurenta czy dowolną osobę trzecią. Nie wchodzi też do majątku spółki jako składnik przedsiębiorstwa, nie może być skutecznie przenoszony – co może mieć istotne znaczenie przy transakcjach inwestycyjnych (np. sprzedaży spółki) czy przy pozyskiwaniu dotacji.

To ryzyko można minimalizować. Jeśli pracownik modyfikuje wygenerowany wytwór, łączy go z innymi elementami, dodaje własną strukturę, treść, elementy graficzne, to taki wytwór lub jego element, stanowiący wyraz indywidualnej kreacji, może podlegać ochronie prawnoautorskiej. Zasada jest prosta: im więcej pracy twórczej włoży pracownik od siebie, tym większa szansa, że powstały materiał będzie – przynajmniej w jakimś zakresie – chroniony prawem autorskim.

„AI to zrobiło – wrzucimy na socjale – będą zasięgi"

AI świetnie sprawdza się przy szybkim tworzeniu grafik, filmików czy tekstów reklamowych i promocyjnych na firmowe social media. Niestety, takie materiały niekiedy naruszają prawa własności intelektualnej osób trzecich (jeśli np. grafika wygenerowana przez AI przypomina znany logotyp lub charakterystyczną postać kojarzoną z konkurentem). Co gorsza, pracodawca zwykle dowiaduje się o tym dopiero gdy otrzyma od właściciela praw wezwanie do zaniechania naruszeń – a więc wtedy, gdy materiał zdążył już „pożyć" w przestrzeni publicznej. Należy pamiętać, że za taki naruszający materiał – zgodnie z ogólnymi zasadami – odpowiada pracodawca.

Owszem, narzędzia AI coraz lepiej sobie radzą z ograniczaniem możliwości generowania outputu naruszającego cudze prawa. Wciąż jednak zdarza się, że output zawiera elementy zastrzeżone – na przykład łudząco podobne do zarejestrowanych znaków towarowych, wzorów przemysłowych czy chronionych utworów – albo jest do nich na tyle zbliżony, że rodzi realne ryzyko naruszenia. Co istotne, pracownik wcale nie musi mieć zamiaru ani nawet świadomości, że materiał, który wygenerowała AI, korzysta z treści chronionych. Dla oceny naruszenia praw własności intelektualnej zamiar czy świadomość nie mają znaczenia.

Właściciel naruszonych praw, w zależności od rodzaju naruszenia i charakteru naruszonego prawa, może nie tylko domagać się zaniechania dalszych działań (np. usunięcia materiału z social mediów), ale również zgłaszać szereg innych roszczeń: publikacji stosownego oświadczenia, usunięcia skutków naruszenia, a w poważniejszych przypadkach – odszkodowania czy wydania bezpodstawnie uzyskanych korzyści. Katalog potencjalnych konsekwencji jest więc szeroki, a koszty – przede wszystkim te wizerunkowe – mogą być dotkliwe.

Powstaje więc pytanie, czy pracodawca może następnie dochodzić roszczeń od pracownika, który wygenerował i rozpowszechnił taki materiał. Na gruncie przepisów Kodeksu pracy (art. 114–122 k.p.) odpowiedź jest co do zasady twierdząca. Jeżeli pracownikowi można przypisać jedynie winę nieumyślną, jego odpowiedzialność jest ograniczona do wysokości trzech miesięcznych wynagrodzeń. W przypadku winy umyślnej pracownik odpowiada za szkodę w pełnej wysokości. W każdym przypadku pracodawca musi jednak wykazać szkodę i związek przyczynowy z działaniem pracownika.

Odrębną kwestią jest ocena, czy użycie przez pracownika materiału naruszającego cudze prawa pozwala pracodawcy rozwiązać z nim stosunek pracy. Jeśli takie działanie było świadome (np. dokonane wbrew wewnętrznym procedurom lub mimo odbycia stosownego szkolenia), może zostać uznane za naruszenie podstawowych obowiązków pracowniczych, co uzasadnia rozwiązanie umowy bez wypowiedzenia (art. 52 § 1 pkt 1 k.p.). Gdy pracownikowi nie można przypisać winy umyślnej ani rażącego niedbalstwa, tryb dyscyplinarny będzie nieuzasadniony, lecz nie wyklucza to wypowiedzenia umowy. Wszystko zależy od okoliczności konkretnego zdarzenia.

Sposób na minimalizację ryzyk – szkolenia i procedury wewnętrzne

W związku z powyższym rekomendujemy przede wszystkim edukowanie pracowników – świadomość ryzyk to absolutna podstawa. Warto pamiętać o tym, projektując wewnętrzne procesy i procedury korzystania z AI. Nie po to, aby zakazywać pracownikom wykorzystywania AI, ale po to, aby stworzyć jasne zasady.

Przykładowo: warto określić, że kluczowe aktywa spółki – produkty, usługi czy materiały udostępniane klientom – nie mogą być tworzone wyłącznie z wykorzystaniem AI lub muszą zawierać istotny wkład twórczy pracownika. Równie istotne jest określenie zasad dokumentowania: pracownik powinien oznaczać, które elementy materiału stanowią jego autorski wkład, a które zostały wygenerowane przez AI.

Z perspektywy organizacji kluczowe jest także wdrożenie konkretnych procedur weryfikacji treści generowanych przez AI przed ich publikacją i wykorzystaniem. Taka weryfikacja – choćby w podstawowym zakresie – pozwala wychwycić potencjalne naruszenia, zanim materiał trafi do przestrzeni publicznej.

To nie biurokracja – to zabezpieczenie, które może przesądzić o tym, czy organizacja w ogóle dysponuje prawami do danego materiału albo czy doszło do naruszenia praw osób trzecich.

Podsumowanie

Wykorzystanie generatywnej AI w organizacji niesie wymierne korzyści, ale jednocześnie generuje ryzyka prawne. Dwa omówione powyżej obszary – pozorna ochrona prawnoautorska outputów AI oraz ryzyko naruszenia praw własności intelektualnej osób trzecich – to zagadnienia, z którymi w praktyce mierzy się coraz więcej firm, nierzadko dopiero wtedy, gdy problem już wystąpi. Kluczem do minimalizacji tych ryzyk nie jest rezygnacja z narzędzi AI – co byłoby oderwane od realiów rynkowych. Istotne jest świadome zarządzanie procesami, które pozwoli wykluczyć najpoważniejsze zagrożenia dla organizacji.

Artykuł powstał na kanwie prelekcji w ramach webinaru HR Law 2026. Trendy

Lena Marcinoska-Boulangé, adwokat, praktyka własności intelektualnej