Odpowiedzialność za naruszenie praw autorskich przez sztuczną inteligencję
W moim ostatnim wpisie analizowałam, czy na gruncie prawa autorskiego można uznać sztuczną inteligencję za autora. Temat ten jest niezwykle ciekawy, ale nie należy zapominać, że sztuczna inteligencja może nie tylko tworzyć dzieła, które przynajmniej teoretycznie można objąć ochroną prawa autorskiego, ale także naruszać prawo autorskie przy tworzeniu własnych wytworów. Istnieją przecież takie algorytmy, które potrafią naśladować dany styl malarski lub nawet danego autora. W obliczu rozwoju technologii, która każdemu, kto ma do niej dostęp, umożliwia wyprodukowanie własnego „obrazu znanego malarza”, warto zastanowić się, czy sztuczna inteligencja może naruszyć prawo autorskie, a jeżeli nie, to kto będzie odpowiedzialny za takie naruszenie.
Czy sztuczna inteligencja może naruszyć prawa autorskie?
Na gruncie polskiego prawa autorskiego uprawniony, którego autorskie prawa majątkowe zostały naruszone, może żądać od osoby, która naruszyła te prawa, m.in. zaniechania naruszania, usunięcia skutków naruszenia, naprawienia wyrządzonej szkody, a także wydania korzyści. Oczywiste jest, że polska ustawa pozwala żądać podjęcia tych czynności jedynie od „osoby”, a algorytm bez wątpienia nie zalicza się do tej kategorii. Mamy więc do czynienia z sytuacją, w której obraz lub powieść fizycznie zostały stworzone przez algorytm, któremu nie możemy przypisać odpowiedzialności za naruszenie autorskich praw majątkowych, ale odpowiedzialności tej nie możemy też bezpośrednio przypisać żadnej konkretnej osobie. Na postawione powyżej pytanie należy więc udzielić odpowiedzi negatywnej.
Jeżeli nie sztuczna inteligencja, to kto jest odpowiedzialny?
Przy ustalaniu odpowiedzialności za naruszenia praw autorskich przez sztuczną inteligencję (podobnie jak przy ustalaniu odpowiedzialności za inne naruszenia prawa) najlepszym rozwiązaniem byłoby badanie, kto miał wpływ na działanie algorytmu skutkujące naruszeniem prawa. Możliwy być bowiem tak, że osoba, która stworzyła algorytm, zrobiła to w taki sposób, że nie może on działać inaczej niż poprzez naruszanie praw autorskich. W takim wypadku nawet jeżeli użytkownik nie miał zamiaru naruszać praw autorskich, to i tak był niejako do tego zmuszony – korzystanie z algorytmu jest bowiem nierozerwalnie związane z naruszeniem praw autorskich innych osób. W takiej sytuacji trzeba by uznać, że osobą odpowiedzialną za naruszenie praw autorskich jest osoba, która napisała algorytm.
Konkluzja będzie inna w sytuacji, gdy algorytm jest tak zbudowany, że nie musi naruszać praw autorskich, tzn. możliwe jest posługiwanie się nim w sposób nienaruszający praw autorskich. Użytkownik może jednak wybrać takie posługiwanie się algorytmem, które naruszy prawa autorskie. W takiej sytuacji należałoby uznać, że osobą odpowiedzialną za naruszenie praw autorskich jest właśnie użytkownik.
Przedstawiona powyżej koncepcja opiera się na ocenie, która osoba ma największy związek z naruszeniem praw autorskich przez sztuczną inteligencję. O ile koncepcja ta wydaje się najbardziej logiczna, o tyle można sobie wyobrazić popłoch prawników i sędziów, którzy dla dobrego zrozumienia sprawy musieliby najpierw kompleksowo poznać metodę działania danego algorytmu i sposoby modyfikacji wytworów sztucznej inteligencji. Sytuację komplikuje coraz większy stopień autonomiczności algorytmów. Ich najwyższa, czwarta kategoria (wg klasyfikacji przedstawionej przez Erana Kahanę) to algorytmy zachowujące się w sposób praktycznie nieprzewidywalny dla ich twórcy. W ich przypadku wskazanie jakiejkolwiek osoby odpowiedzialnej w jakimkolwiek zakresie za działanie takiego algorytmu byłoby praktycznie niemożliwe.
Niezależnie od stopnia skomplikowania algorytmów każdy przypadek rozpatrywany przed sądem byłby w ogromnym zakresie determinowany zespołem faktów bardzo specyficznych dla danej sprawy, w zasadzie bez możliwości znalezienia jakiegoś wspólnego mianownika dla całej ich kategorii, co znacząco utrudniałoby orzekanie w już i tak skomplikowanych technologicznych sprawach. Nie wpłynęłoby to dobrze na pewność prawa w tym zakresie.
Dlatego też na świecie pojawiają się liczne opracowania dotyczące tego, na jakim reżimie znanym z prawa cywilnego można oprzeć odpowiedzialność za naruszenia prawa, w tym prawa autorskiego, przez sztuczną inteligencję. Wydaje się, że szczególnie w Stanach Zjednoczonych przeważa koncepcja używania w takich przypadkach reżimu odpowiedzialności za produkt niebezpieczny. O ile co do zasady ten reżim może być używany w przypadku wyrządzenia przez sztuczną inteligencję szkód np. na osobie, o tyle ciężko zgodzić się na jego zastosowanie w przypadku naruszania autorskich praw majątkowych. Postulowane jest też posługiwanie się tzw. odpowiedzialnością na zasadzie ryzyka, co pozwoliłoby na „oderwanie” działania sztucznej inteligencji od działania lub zaniechania konkretnych osób.
A może reforma prawa autorskiego?
Przedstawione powyżej koncepcje nie są doskonałe, ale nie wydaje się prawdopodobne, abyśmy przynajmniej w najbliższym czasie mogli spodziewać się zmiany ustawy o prawie autorskim w zakresie przesłanki, że prawo autorskie mogą naruszyć tylko osoby. Byłaby to zmiana o charakterze wręcz rewolucyjnym, która musiałaby być poparta szeregiem badań i konsultacji społecznych. Wydaje się, że do czasu wynalezienia autonomicznej sztucznej inteligencji wystarczy posługiwanie się tradycyjnymi rozwiązaniami prawnoautorskimi, w tym omówione powyżej obarczanie odpowiedzialnością osoby, która swoim działaniem lub zaniechaniem doprowadziła do naruszenia praw autorskich przez sztuczną inteligencję.
Katarzyna Szczudlik