6 Prawa autorskie wobec sztucznej inteligencji. Czy istnieje jeszcze szansa na ich skuteczną ochronę?
Obecnie zauważyć możemy prześciganie się w prasowych przekazach o przykładach stosowania generatywnej SI. Często przemilcza się jednak niewygodny temat konsekwencji prawnych takich modyfikacji efektów cudzej pracy, których używa się do trenowania SI, a takie następstwa niewątpliwie istnieją.
Wstęp
W ostatnich latach rozwój technologiczny przybrał niespotykane wcześniej i niewyobrażalne tempo. Praktycznie każdy tydzień przynosi nam nowe doniesienia o wyjątkowym rozwiązaniu opartym na sztucznej inteligencji (SI, artificial intelligence – AI), którą definiuje się jako „dział informatyki badający reguły rządzące zachowaniami umysłowymi człowieka i tworzący programy lub systemy komputerowe symulujące ludzkie myślenie”. Przybierają one różne formy i znajdują zastosowanie w szerokim wachlarzu przedsięwzięć, od medycyny do branży rozrywkowej. Te o głównie rozrywkowym zastosowaniu są najczęściej opisywane w mediach. W ostatnim czasie promuje się takie usługi jak Luma Dream Machine 1, która zasłynęła z „ożywiania” fotografii bądź utworów plastycznych. Podobne emocje wywołuje zapowiedziane narzędzie Sora, do generowania treści audiowizualnych na podstawie komend tekstowych 2. 3
Kluczowe w przypadku takich doniesień medialnych jest rozkładanie akcentów. Materiały prasowe zwykle skupiają się na możliwościach i jakości takich rozwiązań, ale marginalizowana jest dość kluczowa kwestia konieczności użycia wcześniej stworzonych treści do wygenerowania nowych i sprawa konsekwencji prawnych z tym związanych. 4
Ten artykuł nie będzie kolejnym z takich przekazów, bowiem ma na celu przybliżenie aktualnej, prawnej pozycji twórców, których utwory mogą być przedmiotem przetwarzania przez systemy SI. 5
Wprowadzenie do problematyki SI
W dużym uproszczeniu, systemy SI są w stanie wygenerować wszelkiego rodzaju treści na podstawie odpowiedniej komendy (prompt). Taka forma komunikacji pomiędzy człowiekiem a maszyną staje się szczególnie istotna w przypadku generatywnej SI, kiedy maszyny tworzą nowe treści, powszechnie określane jako output, mogący przybierać formę tekstu, kodu, obrazu, w tym ruchomego, jak i treści audio 6. Dzieje się tak przede wszystkim z powodu dużej dostępności i przystępności tak zwanych dużych modeli językowych (large language model) oraz dużych modeli multimodalnych (large multimodal models), czyli systemów SI wytrenowanych w zakresie przetwarzania ogromnych ilości danych, w tym tekstowych, w celu pozyskania przez nie odpowiednich informacji i uzyskania możliwości generowania wypowiedzi podobnych do ludzkich 7. Modele takie cechują się przyjaznym interfejsem, co wpływa znacząco na ich atrakcyjność 8. Najpopularniejszym modelem tego rodzaju obecnie jest ChatGPT 9. 10
Istotnym aspektem całego procesu jest zjawisko uczenia maszynowego, które opiera się na znalezieniu wzorca w dostarczonych danych. Jest to swoiste przewidywanie, analiza co do żądanego rezultatu, kreowane przez pryzmat statystyki i prawdopodobieństwa. Proces opiera się na odpowiednich algorytmach, które pozwalają oprogramowaniu automatyzować pozyskiwanie i analizę danych w ramach danego systemu SI. Oparte na uczeniu maszynowym systemy SI wytrenowane wzorcami wyodrębnionymi podczas treningu są w stanie wygenerować zasady z tych wzorców, bez żadnych wyraźnych komend od kogokolwiek 11. 12
Podsumowując, głównymi wartościami kryjącymi się za SI są rozumowanie, wiedza, planowanie, uczenie się, przetwarzanie języka naturalnego (na przykład mówienie), postrzeganie i zdolność poruszania się. 13
Technologiczna euforia a interesy prawne twórców – regulacyjny tygiel
Jak w przypadku każdej nowej czy zyskującej na znaczeniu technologii aspekt prawny zmian odbierany jest jako wątek niespecjalnie wdzięczny i rozpatrywany raczej w kategorii potencjalnego hamulca dla rozwoju. Analogicznie jest w przypadku SI, w tym jej generatywnego odpowiednika. Jak już wcześniej wskazano, (generatywna) SI trenowana jest na ogromnym i często nieujawnionym zbiorze danych. To samo w sobie budzi obawy prawne co do transparentności i zgodności z literą prawa takiego działania. 14
Niewątpliwie wśród danych treningowych znajdowały się i cały czas się znajdują treści chronione szeregiem praw własności intelektualnej, w tym prawem autorskim. Jako że output wygenerowany przez SI w całości bądź w części treściowo nawiązuje do elementów składowych danych wykorzystanych do trenowania, może on stanowić wierne kopie utworów, na przykład popularnych postaci fikcyjnych. Dla przykładu poniższa grafika powstała po wpisaniu komendy: „Draw an italian plumber from a video game (narysuj włoskiego hydraulika z gry wideo)”. Obraz potencjalnie jest źródłem naruszeń. 15

il. 1. Stanowiący potencjalne źródło naruszeń obraz wygenerowany przez SI po wpisaniu prompta: „Draw an italian plumber from a video game (narysuj włoskiego hydraulika z gry wideo)”
Pytaniem pojawiającym się najczęściej, jeśli chodzi o ocenę korzystania z SI w aspekcie własności intelektualnej, są kwestie dotyczące naruszenia praw osób trzecich przy korzystaniu z SI (jej trenowaniu) i tego, kiedy do takiego naruszenia dochodzi. Pierwszym momentem, gdy następuje naruszenie, może być właśnie sam proces trenowania, co jest przedmiotem zagorzałej dyskusji wśród przedstawicieli nauki prawa na całym świecie. 16
Część obecnie obowiązujących regulacji daje pole do interpretacji, zgodnie z którą nie jest wymagana zgoda uprawnionych na zwielokrotnianie utworów na potrzeby tak zwanego text and data mining (TDM), które w dyrektywie Parlamentu Europejskiego i Rady (UE) 2019/790 z 17 kwietnia 2019 roku zostało zdefiniowane jako „zautomatyzowana technika analityczna służąca do analizowania tekstów i danych w postaci cyfrowej w celu wygenerowania informacji, obejmujących między innymi wzorce, tendencje i korelacje”. Można uznawać, że powyższa definicja obejmuje również procesy zachodzące podczas uczenia maszynowego. Biorąc pod uwagę powyższe, na gruncie prawa wspólnotowego uczenie maszynowe, a tym samym zwielokrotnianie utworów dla potrzeb trenowania modeli SI, w granicach przewidzianych dyrektywą DSM, jest co do zasady dopuszczalne 17. Potwierdzenie powyższego odnaleźć można również w treści Aktu o SI 18. 19
Treść dyrektywy DSM wprowadza jednak swoisty bufor bezpieczeństwa i zgodnie z artykułem czwartym możliwe jest zastrzeżenie praw przez uprawnionych (opt-out). Ma ono w założeniu gwarantować podmiotom uprawnionym szanse na wykluczenia ich prac z puli przeznaczonej do TDM. Główny problem w egzekwowaniu opt-out może wynikać z braku ujednoliconych zasad powoływania się na to uprawnienie. Nie istnieją obecnie standardy ani protokoły dotyczące wyrażania zastrzeżeń w formie odczytywalnej maszynowo. Może się ono zatem okazać faktycznie nieegzekwowalne.
14 sierpnia 2024 roku podpisana została ustawa nowelizującą dotychczasowe przepisy polskiej ustawy z 4 lutego 1994 roku o prawie autorskim i prawach pokrewnych (dalej PA), która stanowi wypełnienie obowiązku implementacji dyrektywy DSM i wprowadza nową formę dozwolonego użytku w postaci omawianego TDM. Ustawa przewiduje zarówno niekomercyjną eksplorację tekstów i danych – do celów badań naukowych, jak i komercyjną. W pierwszym przypadku, jeżeli czynności zwielokrotniania nie mają na celu osiągnięcia bezpośredniej lub pośredniej korzyści majątkowej, nie wymagają zgody uprawnionego 20. W drugim zaś, komercyjne użycie również jest dozwolone, o ile uprawniony nie zastrzegł inaczej. 21
Nie oznacza to jednak, że możliwość stosowania TDM z użyciem cudzych utworów nie może zostać ograniczona z powołaniem się na inne przepisy. Jak w przypadku każdego wyjątku od reguły, zgodnie z którą na korzystanie z utworu wymagana jest zgoda, również w przypadku TDM zastosowanie ma tak zwany test trójstopniowy. Ma on swoje źródło między innymi w PA i Konwencji berneńskiej o ochronie dzieł literackich i artystycznych, czy artykule 5 ustawy 5 dyrektywy 2001/29/WE 22. 23
Test ten zakłada zbadanie, czy korzystanie z utworu odbywa się w ramach wyjątku wskazanego w ustawie, czy taka eksploatacja nie prowadzi do naruszenia normalnego korzystania z utworu oraz czy nie godzi ponadnormatywnie w interesy uprawnionego (twórcy). Na gruncie orzecznictwa unijnego był on użyty na przykład w sprawie ACI Adam (C435/12). Trybunał Sprawiedliwości Unii Europejskiej wskazał, że można skutecznie powołać się na dozwolony użytek prywatny, tylko gdy kopia utworu wykonywana jest na podstawie legalnego źródła. Nie będzie natomiast dozwolone korzystanie ze źródeł nielegalnych, bo nie zostaną spełnione warunki wspomnianego wyżej testu. Można zatem podjąć próbę powołania się na cytowane wyżej orzeczenie i wskazać, że TDM spotkają analogiczne ograniczenia, choć w nauce prawa słychać głosy odrębne 24. 25
W tym miejscu wskazać należy, że w USA zarówno na poziomie federalnym, jak i stanowym korzystanie z utworów na potrzeby trenowania SI nie zostało jeszcze uregulowane i w sprawach opisanych w dalszej części artykułu problematyka ta w pierwszej kolejności może zostać bliżej zbadana przez amerykańskie sądy. Kwestią z tym powiązaną jest przede wszystkim ocena trenowania SI w ramach amerykańskiej doktryny dozwolonego użytku (fair use). 26
Unia Europejska i pionierskie prawo o SI
Wspomniany wcześniej Akt o SI wszedł w życie w momencie pisania tego artykułu i zapewne wiele założeń dziś kreślonych podlegać będzie stosownej korekcie. Dokładnie 2 sierpnia 2024 roku regulacja zaczęła obowiązywać z zastrzeżeniem, że jej poszczególne części będą konsekwentnie zyskiwały moc obowiązującą w nadchodzących miesiącach i latach.
W skrócie Akt o SI ma zastosowanie do systemów, które mają być wykorzystywane na obszarze wspólnotowym. Organizacje spoza UE będą podlegać unijnej regulacji, jeśli (i) dostarczają systemy sztucznej inteligencji do UE lub (ii) outputy wytwarzane przez ich systemy będą wykorzystywane w UE. Nie oznacza to, że tylko dostawcy systemów powinni być nim zainteresowani, bo zgodnie z artykułem 2 ma on zastosowanie także do (i) podmiotów stosujących systemy SI, które to podmioty mają siedzibę lub znajdują się w Unii i (ii) osób, na które AI ma wpływ i które znajdują się w UE.
Jak wskazuje sama Komisja Europejska w swoim komunikacie, wprowadzono przyszłościową definicję sztucznej inteligencji opartą na bezpieczeństwie produktów i analizie ryzyka w UE. Akt o SI kategoryzuje systemy, począwszy od zakazanych, cechujących się wysokim ryzykiem, skończywszy na technologiach ograniczonego i minimalnego wpływu. Dla każdej z tych kategorii wprowadzono korespondujące z poziomem ryzyka obowiązki. 27
Kategorycznie zabronione zostają wszelkie rozwiązania SI zagrażające prawom podstawowym użytkowników, w szczególności manipulujące ich zachowaniem, aby wpłynąć na ich interakcje z SI, czy wprowadzające jakikolwiek system punktowania społecznego (social scoring) lub monitorujące ludzkie emocje w miejscu pracy bądź w szkole.
Podmiotom niestosującym się do obowiązków przewidzianych Aktem o SI, grożą dotkliwe kary finansowe, które mają sięgać aż 30 mln euro lub 6% całkowitego rocznego światowego obrotu z poprzedniego roku, przy czym zastosowanie ma kwota wyższa. Jak ma to miejsce w przypadku każdego nowego prawa, a już szczególnie regulującego innowacyjne obszary życia, dopiero po kilku latach jego stosowania będzie można wyciągać bardziej wiążące wnioski.
W polskim porządku prawnym pojawił się korespondujący z Aktem o SI projekt ustawy o systemach sztucznej inteligencji. Ustawa ta ma za zadanie utworzyć ramy regulacyjne dla nadzoru nad stosowaniem SI w krajowym porządku prawnym. Do życia ma zostać powołany nowy organ – Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, który będzie między innymi rozpatrywał skargi i wnioski o zezwolenie na wprowadzenie do obrotu systemów AI wysokiego ryzyka. 28
Choć wspólnota europejska wyprzedziła USA w obszarze regulacyjnym, nie oznacza to, że pewne kroki nie zostały w tym kraju podjęte. Prezydent Joe Biden podpisał pod koniec zeszłego roku rozporządzenie wykonawcze (executive order) w przedmiocie bezpiecznej i godnej zaufania SI, które obliguje dostawców technologii do działań opartych na zasadach przejrzystości i odpowiedzialności. Z obecnie rozważanych regulacji warto wymienić również projekt No Fakes Act 29, który ma w praktyce zakazać tworzenia cyfrowych replik wizerunku bez zgody uprawnionego. 30
Dostawcy SI na sali sądowej
Na dzień sporządzania artykułu w amerykańskich sądach toczyło się 28 spraw, których przedmiotem jest używanie cudzej własności intelektualnej w ramach trenowania systemów SI. Ze względu na ramy artykułu poniżej opisano wybrane sprawy. 31
Pierwszym z postępowań, które warto szerzej omówić, jest sprawa GitHub, w której strona powodowa podnosi, że została de facto wprowadzona w błąd przez pozwanych. Powodowie udostępnili swoje oprogramowanie na platformie GitHub, mając nadzieję na faktyczne wspieranie innowacji. Kody te były dostępne na podstawie licencji open source, co wymagało od użytkowników przypisania autorstwa, dołączenia informacji o prawach autorskich oraz umowy licencyjnej za każdym razem, gdy używali tych kodów.
Zgodnie z zarzutami, pozwani trenowali usługi Codex i CoPilot na publicznie dostępnych programach, w tym kodach z GitHubu. Podczas korzystania z CoPilota nie dochodzi do podania autorstwa programistów i nie zostaje prawidłowo udzielona licencja open source, a zatem następuje naruszenie praw autorskich. Zgodnie z najnowszymi doniesieniami prasowymi, na obecnym etapie sąd badający sprawę oddalił ogromną część roszczeń powodów i badał będzie jedynie wątek naruszenia licencji oraz kontraktu 32. 33
Kolejna głośna sprawa sądowa dotyczy ochrony dzieł plastycznych przed eksploatacją w ramach systemów SI. Trzy graficzki, Sarah Andersen, Kelly McKernan i Karla Ortiz, pozwały technologiczne koncerny Stability AI, Midjourney i DeviantArt. Wskazują w swym pozwie, że narzędzie SI o nazwie Stable Diffusion zostało wytrenowane na zasobach dostępnych w internecie, w tym na ich pracach. Pozwani natomiast argumentują, że spór należy ograniczyć do utworów zarejestrowanych w U.S. Copyright Office, co skutkowałoby utraceniem przez powódki legitymacji procesowej, bo one takich rejestracji nie mają. Twierdzą również, że powódki nie wykazały, aby uzyskany output naruszał ich utwory i nie potrafiły przedstawić wiarygodnych dowodów co do wiedzy pozwanych o wykorzystywaniu ich prac w procesie trenowania. DeviantArt stara się natomiast wyłączyć swoją odpowiedzialność wskazując, że nie był zaangażowany w tworzenie modeli Stability AI i jest jedynie użytkownikiem końcowym (licencjobiorcą) tego produktu i nie może być traktowany jako dostawca usług. 34
Getty Images również pozwało Stability AI. W swym pozwie wskazuje, że ich obrazy (w liczbie milionów) zostały wykorzystane do trenowania Stable Diffusion, ponieważ niektóre z wyników generowanych zawierały (zniekształcony) znak wodny Getty Images, co widać na załącznikach do pozwu.

Il. 2. Jedne z obrazu będących przedmiotem sporu prawnoautorskiego między Gatty Images a Stable Diffusion
Getty Images stawia tym samym dwa główne zarzuty: (i) wykorzystywania ich utworów za darmo i bez uznania autorstwa oraz (ii) wykorzystywania ich znaku wodnego (towarowego) w powiązaniu z „groteskowymi” wynikami generowanymi przez AI. 35
Do grona pozywających dostawców systemów SI dołączył również „The New York Times”, który pozwał Microsoft Corporation oraz OpenAI, odpowiedzialne między innymi za modele GPT. Zdaniem słynnego czasopisma, OpenAI nieodpłatnie i nielegalnie wykorzystało „miliony artykułów” z „The Times” do trenowania swoich chatbotów. W pozwie zarzucono, że podmioty te w ten sposób unikały wydawania miliardów dolarów, które „The New York Times” zainwestował w tworzenie tekstów. Pozwani bronią się przede wszystkim amerykańską doktryną fair use. 36
Wszystkie obecnie toczące się sprawy, jak i te, które w najbliższych miesiącach niewątpliwie znajdą swój finał na sali sądowej, wyznaczą granicę dozwolonego użycia utworów na potrzeby trenowania SI w USA, jak również zakres ochrony przyznanej uprawnieniom osobistym i majątkowym twórcom.
Bezprawne korzystanie z SI a legitymacja procesowa – gdzie poszukiwać odpowiedzialnych za naruszenie?
Jak już zasygnalizowano wcześniej, poza pewnymi rozwiązaniami dotyczącymi TDM w obecnym porządku prawnym nie występują żadne specjalne wyjątki umożliwiające korzystanie z utworów w ramach systemów SI. Najogólniej rzecz ujmując, jeśli przechodzimy do etapu korzystania przez osobę trzecią z wygenerowanego przez SI rezultatu, który zawiera w sobie całość bądź elementy naszej twórczej pracy, zasadą będzie uzyskanie zgody albo wykazanie dozwolonego użytku. Korzystanie z utworu obejmuje czynności faktyczne i prawne, ujmowane też jako ogół czynności eksploatacyjnych, które zmierzają do stworzenia określonemu podmiotowi możliwości zapoznania się z utworem 38. 39
Patrząc zatem z perspektywy przeciętnego użytkownika, który w niekomercyjnych, prywatnych warunkach wygeneruje z pomocą SI podobną grafikę Myszki Miki jak wyżej i nie będzie on jej dalej w żaden sposób rozpowszechniał, z dużym prawdopodobieństwem będzie możliwe skuteczne powoływanie się na artykuł 23 ustęp 1 PA, zgodnie z którym bez zezwolenia twórcy wolno nieodpłatnie korzystać z już rozpowszechnionego utworu w zakresie własnego użytku osobistego na zasadach w tym przepisie przewidzianych.
Wykroczenie poza tę granicę sprawi, że naruszy monopol właściciela praw autorskich. Na przykładzie powyższej grafiki Myszki Miki można ewentualnie rozważyć jeszcze inny przejaw dozwolonego użytku, tym razem publicznego, a mianowicie artykuł 29 ustęp 1 PA, pozwalający na korzystanie z utworów na potrzeby parodii, pastiszu lub karykatury, w zakresie uzasadnionym prawami tych gatunków twórczości.
Pamiętać jednak należy, że każdy z przejawów dozwolonego użytku musi przejść omawiany wcześniej trójstopniowy test i wykazanie tego spoczywa na powołującym się na dozwolony użytek.
Pewną pokusą, jeśli chodzi o poszukiwanie wyłączenia odpowiedzialności za naruszenie praw autorskich, może być próba wykazania, że na działanie SI, poza sformułowaniem komendy, która może „nakierować” na przykład na użycie danych zawierających własność intelektualną osób trzecich, użytkownik nie ma specjalnie wpływu, a zatem nie można przypisać mu winy – czy też z trudem będzie mu można ją przypisać.
Argumentacja ta jednak nie będzie prawnie skuteczna, bowiem odpowiedzialność z tytułu naruszenia praw autorskich ma charakter obiektywny. Oznacza to, że jest ona niezależna od winy naruszyciela. Jak wyjaśnił SN na gruncie autorskich praw osobistych (występujących w PA obok praw majątkowych), „odpowiedzialność z tytułu naruszenia autorskich dóbr osobistych jest odpowiedzialnością obiektywną, niezależną od winy i dobrej lub złej wiary osoby, która się naruszenia dopuściła. Natomiast uznanie, że pozwany był ewentualnie w dobrej wierze, może mieć wpływ na dobór środków, które mają służyć do usunięcia skutków naruszenia”. Wina zatem bądź jej brak nie wyłącza odpowiedzialności jako takiej i nie ma tu wpływu narzędzie użyte do naruszenia, w szczególności zawierające w sobie komponent SI. 40
Jedynie zmiana prawa lub nadanie SI podmiotowości prawnej, o czym wspomina się między innymi w dyskusji akademickiej, mogłoby wpłynąć na alternatywną ocenę naruszenia praw autorskich z użyciem SI. Ramy tego artykułu nie pozwalają jednak na szersze omówienie tej kwestii. 41
Obecnie zatem główny wysiłek uprawnionego z tytułu praw autorskich powinien skupiać się na ustaleniu osoby lub osób (współ)odpowiedzialnych za naruszenie. Może to być, w zależności od stanu faktycznego, między innymi twórca oprogramowania (algorytmu), dostawca systemu SI, dysponent czy solidarnie każda z tych osób. Podkreślenia wymaga, że nie ma znaczenia, czy prawa te naruszyły równolegle także inne podmioty. Uprawniony ma prawo dokonać wyboru nie tylko między kilkoma roszczeniami przysługującymi z tytułu naruszenia jego praw, ale także pomiędzy kilkoma dłużnikami, których odpowiedzialność ma źródło w naruszeniu praw autorskich. 42
SI jako narzędzie pracy projektanta
Niezwykle istotnym zagadnieniem jest również legalne korzystanie z SI w ramach własnej pracy twórczej, szczególnie w przypadku projektów o charakterze komercyjnym. Głównym ryzykiem jest nieuzyskanie ochrony prawnoautorskiej ze względu na niewykazanie, że dany output jest cechującym się indywidualnych charakterem rezultatem twórczej pracy człowieka. Zarówno w polskiej ustawie PA, jak i innych jurysdykcjach pierwotne prawo autorskie przyznawane jest jedynie człowiekowi. Skutki powyższego mogą być dla twórców wielopoziomowe i stanowić przedmiot samodzielnego artykułu. W skrócie, skoro output nie stanowi co do zasady utworu, każdy jego odbiorca może z niego swobodnie korzystać, bo człowiek wprowadzający prompt nie ma praw wyłącznych do outputu i dochodzenie praw na drodze sądowej spotka się z niepowodzeniem. 43
Oczywiście nie oznacza to, że powyższy scenariusz zawsze będzie miał miejsce. Bardzo często bowiem SI jest używana do wyznaczenia sobie kierunków artystycznych pracy, na przykład tworzenia moodboardów czy szeroko pojętej inspiracji. W tym zakresie zastosowanie będą miały wcześniej omawianie kwestie TDM i dozwolonego użytku. Co do wygenerowanego outputu, który pierwotnie może nie być utworem – zazwyczaj są one dalekie od wersji finalnej, często wymagają dalszego opracowania i właśnie na tym etapie, jeśli takich zmian (twórczych) dokonuje człowiek (poza obszarem samego promptingu, na przykład dokonując edycji w programach do tego służących), pojawią się szanse na wykazanie, że na końcu takiego procesu powstanie utwór.
Co równie ważne, twórca w umowie z zamawiającym dzieło, które kreuje z dużym wkładem pracy wykonanej przez SI, składając oświadczenie o przysługujących mu prawach autorskich, może je złożyć niezgodnie ze stanem prawnym, bo zlecenie wykonane z użyciem SI może nie być utworem – z przyczyn wskazanych wyżej. To może generować dotkliwą odpowiedzialność kontraktową. Pozostając w obszarze kontraktowym, koniecznie należy zapoznać się z warunkami licencyjnymi narzędzi, z których korzystamy, bo może się okazać, że na przykład udzielamy ich dostawcom szerokiej licencji, a w umowie z klientem uregulujemy kwestie praw autorskich w sposób kolidujący z tak przyznaną zgodą na korzystanie.
Powyższe wskazuje, że praca projektanta z SI jest zdecydowanie dozwolona prawem, ale powinna być świadoma i poprzedzona oceną prawną kwestii wyżej omówionych.
Konkluzje
Dalszy rozwój SI jest nieunikniony i co do zasady jest to zjawisko pożądane, bo może przynieść ludzkości wiele korzyści, szczególnie w takich dziedzinach nauki jak medycyna. Nie oznacza to jednak, że twórcy i ich prace mają zostać „złożone w ofierze” SI, która bez ich wkładu nie byłaby przecież w stanie poczynić żadnego progresu.
Konieczne jest podkreślanie podczas tworzenia prawa oraz w ramach debaty publicznej, że interesy wszystkich stron zaangażowanych w funkcjonowanie SI muszą być właściwie wyważone. Nieakceptowalne jest w mojej ocenie przyjmowanie przez dostawców SI dotychczasowej pozycji, przy której wyjątki takie jak TDM czy amerykański fair use dają im legitymację do nieskrępowanego korzystania z danych dostępnych w internecie, bo zyskują „przewagę dla innowacji, rozwoju i inwestycji w zakresie sztucznej inteligencji”. 44
Czas pokaże, czy regulacje takie jak Akt o SI będą skutecznym narzędziem twórców do nadzoru nad działalnością dostawców sztucznej inteligencji, czy pozostanie im jednak poszukiwanie ochrony w sądach, co – jak wskazano wyżej – jest jak najbardziej możliwe (przy odpowiednim zastosowaniu wiekowych już regulacji), choć, z czego zdaję sobie sprawę, nie jest to rozwiązanie optymalne i podstawą powinno być przede wszystkim właściwe prawodawstwo. Proaktywna postawa twórców w tym obszarze będzie miała jednak wymierne efekty, w postaci sądowego budowania granic korzystania z ich prac i bieżącego zwalczania obiektywnych naruszeń, dokonywanych pod płaszczykiem postępu technologicznego.