AI a prawo autorskie
Na dzisiaj powyższe kwestie nie są jednoznacznie rozstrzygnięte, ani w ramach obowiązujących przepisów, ani w wyrokach sądów czy wśród prawników – i dyskusja tutaj może jeszcze długo potrwać. Obecnie w Polsce i w Unii Europejskiej przeważa stanowisko, że wyniki wygenerowane przez systemy AI co do zasady same sobie nie podlegają ochronie na gruncie prawa autorskiego, nie mają bowiem ludzkiego twórcy. Należy jednak pamiętać, że stanowisko to z czasem może ulec zmianie. Mogą też zostać wprowadzone przepisy, które uregulują te kwestie w konkretnych jurysdykcjach.
Powyższa niepewność sprowadza się do ryzyka, że korzystanie z systemów AI lub generowanych przez nie wyników może naruszać prawa osób trzecich oraz że użytkownik systemu AI nie nabędzie praw do wygenerowanych wyników i nie będzie mógł ich skutecznie chronić (np. przed kopiowaniem) czy przenieść ich na swojego kontrahenta.
W praktyce rynkowej stosowane są rozwiązania zmierzające do zminimalizowania wpływu powyższego ryzyka. Po pierwsze dostawcy systemów AI w swoich regulaminach i politykach w możliwie najszerszym zakresie przenoszą na użytkowników prawa do generowanych wyników (lub co najmniej udzielają szerokiej licencji) bez jednoznaczne rozstrzygnięcia ich statusu prawnego. Po drugie kwestie wykorzystania systemów AI (oraz generowanych przez nie wyników) w świadczeniu usług czy dostarczaniu produktów mogą zostać odpowiednio uregulowane w zawieranych umowach. Po trzecie w organizacjach wprowadzane są wewnętrzne regulacje stosowania systemów AI, co zwiększa kontrolę i bezpieczeństwo stosowania narzędzi i systemów AI.
Regulacje i rekomendacje
Obecnie regulacje prawne dotyczące AI są na świecie w początkowej fazie rozwoju, a większość z nich jest na wczesnym etapie procesu legislacyjnego. Wejścia w życie istotnych regulacji należy spodziewać się dopiero w najbliższych latach. W Unii Europejskiej podstawową regulacją odnoszącą się do systemów AI ma być wciąż procedowany Akt w sprawie sztucznej inteligencji („AI Act”) [1]. Skupia się on przede wszystkim na kategoryzacji systemów AI oraz określeniu dopuszczalności ich stosowania w zależności od poziomu ryzyka, które generuje dany system. Zakończenie prac legislacyjnych planowanej jest na rok 2023 lub 2024.AI Act to jednak nie wszystko. Przede wszystkim wciąż procedowane są projekty: dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję [2] oraz dyrektywy w sprawie odpowiedzialności za produkty wadliwe [3]. Ich celem jest m.in. uregulowanie zasad odpowiedzialności pozaumownej za działanie systemów AI, a także rozszerzenie ogólnych zasad odpowiedzialności za produkty również na produkty powiązane z systemami AI.
W Polsce próby uregulowania AI nie są na tak zaawansowanym etapie, jak ma to miejsce w UE. Wszystkie wydane dotychczas regulacje mają charakter wewnętrzny, w związku z czym nie stanowią prawa powszechnie obowiązującego.
Warto także zauważyć, że w przestrzeni publicznej zaczynają być publikowane wytyczne dotyczące wykorzystywania systemów AI. Takie wytyczne dla swoich pracowników opublikowała ostatnio m.in. Komisja Europejska [4]. Przewidziano w nich następujące obowiązki:
• zakaz udostępniania systemowi generatywnej AI poufnych danych i informacji;
• nakaz krytycznej oceny wyników generowanych przez systemy generatywnej AI;
• nakaz weryfikacji wyników generowanych przez system generatywnej AI z perspektywy naruszenia praw własności intelektualnej;
• zakaz bezpośredniego wykorzystywania wyników wygenerowanych przez system generatywnej AI w dokumentach publicznych;
• zakaz polegania na systemach generatywnej AI w przypadku procesów krytycznych.
Źródła:
[1] Akt w sprawie sztucznej inteligencji
[2] Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję
[3] Dyrektywa w sprawie odpowiedzialności za produkty wadliwe
[4] Guidelines for staff on the use of online available generative AI tools
Deepfake – prawne możliwości ochrony
Czym jest deepfake? Zgodnie z propozycją Parlamentu Europejskiego do projektu Aktu o Sztucznej Inteligencji („AI Act”) za deep fake ma być uważana każda treść w postaci obrazu, dźwięku lub filmu, która jest zmanipulowana lub syntetyczna i została wyprodukowana z wykorzystaniem technik SI (np. machine i deep learning). Treść ta ma wywoływać możliwość jej błędnego odbioru jako autentycznej lub zgodnej z prawdą. Dodatkowo deep fake musi przedstawiać osoby, które wydają się mówić lub robić rzeczy, których by nie powiedziały lub nie zrobiły[1].
Na szczęście osoby, których wizerunek został wykorzystany do stworzenia deepfake’u, nie muszą czekać na wprowadzenie powyższej definicji do porządku prawnego i już teraz mogą skutecznie chronić się przed takimi naruszeniami. Przed deepfake’iem można ochronić się, korzystając przede wszystkim z przepisów dot. ochrony dóbr osobistych. Dodatkowo zastosowanie mogą także znaleźć przepisy dotyczące prawa ochrony danych osobowych (wizerunek stanowi danę osobową), jak i przepisy prawnokarne (deepfake może być elementem znieważającym lub zniesławiającym).
Ponieważ wizerunek wykorzystywany do tworzenia deepfake’u stanowi dobro osobiste[2], to jego bezprawne wykorzystanie – choćby poprzez zaprezentowanie go w sytuacjach powodujących negatywny wydźwięk społeczny i prowadzący przez to np.: do rozwiązywania umów sponsorskich, może stanowić naruszenie prawa (do wizerunku lub dobrego imienia).
Wizerunek to nie tylko fizyczne przedstawienie osoby, ale też np. głos (wizerunek dźwiękowy)[3]. Właśnie dlatego raper może skutecznie żądać zaprzestania wykorzystywania jego głosu do tworzenia audio deep fake’ów – patrz przypadek Jay-Z, którego głos został wykorzystany przez SI do stworzenia zupełnie nowych rapowych tekstów [4]).
Co robić w przypadku naruszenia? Przede wszystkim żądać zaniechania takiego działania, a także wymagać usunięcia skutków naruszenia – np. poprzez złożenie stosownego oświadczenia. W związku z naruszeniem prawa do wizerunku można również żądać zapłaty odpowiedniej kwoty w formie zadośćuczynienia na rzecz poszkodowanego lub też w formie kwoty przekazywanej na określony cel społeczny [5]. Jeżeli deepfake wyrządziłby szkodę majątkową, to poszkodowany może żądać jej naprawienia zgodnie z przepisami dot. czynów niedozwolonych[6].
Źródła:
[1] Poprawka nr 203 w dokumencie z poprawkami Parlamentu Europejskiego z 14.06.2023 r do AI Actu
[2] art. 23 Kodeksu cywilnego
[3] M. Nowikowska [w:] Prawo własności intelektualnej, red. J. Sieńczyło-Chlabicz, Warszawa 2018, s. 351–352
[4] M. Hogan, What Does JAY-Z’s Fight Over Audio Deepfakes Mean for the Future of AI Music?, Pitchfork
[5] art. 24 § 1 Kodeksu cywilnego
[6] art. 24 § 2 Kodeksu cywilnego
Autorzy:
r.pr. Agnieszka Wachowska, r.pr. Marcin Ręgorowicz
Artykuł jest częścią Poradnika AI w social media autorstwa Grupy Roboczej Social Media IAB Polska. Publikacja dostarcza praktycznej wiedzy na temat korzyści, wyzwań i możliwości, jakie niesie ze sobą stosowanie AI w mediach społecznościowych. Kluczowymi zagadnieniami poruszonymi w poradniku są: definicja i granice sztucznej inteligencji, kwestie prawne związane z AI w social media, wykorzystanie AI w marketingu, z uwzględnieniem obrazu, wideo, audio, filtrów, efektów oraz influencer marketingu oraz praktyczne studia przypadków, które ukazują skuteczne wykorzystanie AI w mediach społecznościowych.