Opublikowano Kategorie sztuczna inteligencja, zmiany w prawie

Projekt aktu w sprawie SI – czy UE stworzy globalny standard regulacji systemów SI?

Na całym świecie pokłada się wielkie nadzieje w rozwoju systemów sztucznej inteligencji. Sztuczna inteligencja może przynieść wiele korzyści gospodarczych i społecznych w różnych aspektach życia czy sektorach gospodarki, w tym w dziedzinie środowiska, rolnictwa, zdrowia, finansów, podatków, mobilności czy spraw wewnętrznych.

Postępujący rozwój systemów sztucznej inteligencji wymusza stworzenie odpowiednich ram prawnych, które z jednej strony pozwolą na dalszy rozwój technologii SI, a z drugiej strony zapewnią należytą ochronę osób, które z takich systemów będą korzystać, i zwiększą społeczne zaufanie do ich działania.

W kwietniu 2021 r. Komisja Europejska przedstawiła projekt unijnego rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act)1. Projekt jest efektem kilkuletnich prac zmierzających do wypracowania unijnego podejścia do sztucznej inteligencji. Jest to jednocześnie pierwsza próba kompleksowego uregulowania systemów sztucznej inteligencji i ich zastosowań na świecie.

Pod koniec listopada 2021 r. Rada przedstawiła pierwszą wersję kompromisową projektu, która odpowiada na niektóre krytyczne uwagi zgłaszane pod adresem projektu Komisji. Nie jest to jednak wersja finalna aktu, który z pewnością będzie podlegał dalszym zmianom w toku procesu legislacyjnego.

Cele projektu

Dzięki rozporządzeniu Unia Europejska ma zostać światowym liderem, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji. Rozporządzenie ma też zapewnić pewność prawa, tak by ułatwić przedsiębiorcom podejmowanie inwestycji i innowacji w dziedzinie sztucznej inteligencji.

Aby osiągnąć te cele, w projekcie przyjęto horyzontalne podejście regulacyjne do sztucznej inteligencji. Zakłada ono określenie minimalnych wymogów niezbędnych do tego, by zaradzić ryzyku i problemom związanym ze sztuczną inteligencją bez nadmiernego ograniczania lub utrudniania rozwoju technologicznego lub powodowania w inny sposób nieproporcjonalnego zwiększenia kosztów wprowadzania do obrotu rozwiązań AI.

Choć projekt z pewnością będzie podlegał zmianom w toku procesu legislacyjnego, wydaje się, że kluczowe rozwiązania leżące u jego podstaw nie ulegną zmianie. Z tego względu w serii artykułów będziemy przybliżać Państwu główne założenia i efekty prac nad projektem, jak również interakcje, jakie mogą zachodzić między projektowanymi przepisami a obowiązującymi już regulacjami.

W pierwszej kolejności warto przyjrzeć się dwóm istotnym zagadnieniom:

  • definicji systemów sztucznej inteligencji, tj. jakie systemy będą objęte nową regulacją,
  • podmiotowemu i terytorialnemu zakresowi tej definicji, tj. kto i w jakich okolicznościach będzie musiał stosować się do obowiązków w niej wskazanych.

Definicja systemu SI

Środowiska naukowe jak dotąd nie wypracowały jednej definicji sztucznej inteligencji. Pojęcie SI często używane jest jako zbiorczy termin na określenie różnorodnych aplikacji czy programów komputerowych opartych na różnych technikach, które wykazują możliwości powszechnie i obecnie kojarzone z ludzką inteligencją2. W 2018 r. rozbudowaną definicję SI przedstawiła Grupa Ekspertów Wysokiego Szczebla ds. SI (High-Level Expert Group on Artificial Intelligence)3.

Komisja przedstawiła własną definicję systemu sztucznej inteligencji4, która w założeniu ma być możliwie neutralna pod względem technologicznym i nie ulegać dezaktualizacji. Ma to szczególne znaczenie ze względu na szybki rozwój technologiczny i rozwój sytuacji rynkowej w dziedzinie SI.

Definicja zaproponowana przez Komisję była krytykowana przez wiele środowisk jako zbyt szeroka (mogła ona objąć swoim zakresem nie tylko systemy sztucznej inteligencji sensu stricto, ale prawie każde oprogramowanie komputerowe, w tym tzw. stupid AI czy fake AI5).

Z tego względu Rada zdecydowała się na zmianę tej definicji. W obecnej wersji projektu system sztucznej inteligencji (system SI) definiowany jest jako system, który:

  • otrzymuje dane lub wkład pochodzące od maszyny lub człowieka,
  • wnioskuje, jak osiągnąć dany zestaw zdefiniowanych przez człowieka celów za pomocą uczenia się, rozumowania lub modelowania wdrażanych za pomocą technik i podejść wymienionych w załączniku I, oraz
  • generuje dane wyjściowe w postaci treści (tzw. generative AI systems), prognoz, zaleceń lub decyzji, które wpływają na środowiska, z którymi wchodzi w interakcje.

Powyższa definicja odwołuje się do załącznika I, który precyzuje techniki i podejścia stanowiące podstawę do tego, by zakwalifikować dany system jako system sztucznej inteligencji. Należą do nich:

  • mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego,
  • metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne programowanie (logiczne), bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe,
  • podejścia statystyczne, estymacja bayesowska, metody wyszukiwania i optymalizacji.

Katalog wskazany w załączniku I jest zamknięty, stąd mogłoby się wydawać, że może nie nadążyć za szybko postępującym rozwojem systemów SI. Wychodząc jednak naprzeciw takim obawom, prawodawca unijny w projekcie rozporządzenia przewiduje, że Komisja będzie uprawniona do przyjmowania aktów delegowanych w celu zmiany wykazu technik i podejść wymienionych w załączniku I. Zgodnie z obecną wersją projektu Komisja ma obowiązkowo aktualizować ten wykaz co 24 miesiące. Przyznanie Komisji takiego uprawnienia pozwoli na bieżąco uaktualniać ten wykaz i dostosowywać go do rozwoju sytuacji rynkowej i postępu technologicznego (motyw 6, 85). Takie rozwiązanie może jednak również kreować niepewność prawną po stronie twórców systemów SI, którzy nie będą w stanie przewidzieć, czy projektowany przez nich system będzie podlegać unijnym przepisom.

Chociaż zawężenie definicji systemu SI należy ocenić pozytywnie, to należy się spodziewać, że nie jest to ostateczne brzmienie kluczowego pojęcia dla Aktu w sprawie SI. Warto jednak zauważyć, że objęcie określonego systemu zakresem rozporządzenia nie będzie automatycznie oznaczało, że będą one podlegać nowym obowiązkom prawnym. Nowym obowiązkom będą podlegać tylko takie systemy SI, których wykorzystanie wiąże się z określonym poziomem ryzyka (niedopuszczalne, wysokie i ograniczone ryzyko). Systemy SI, których użycie wiąże się z niskim lub minimalnym ryzykiem, nie będą podlegały obowiązkom określonym w nowej regulacji6. Niezależnie od dalszego toku prac nad projektem, ostateczne brzmienie definicji będzie miało kluczowe znaczenie dla określenia zakresu zastosowania projektowanych ram prawnych.

Kogo dotyczyć będzie nowa regulacja?

Zakres projektowanego rozporządzenia jest szeroki, ale nie odbiega on od tego przyjętego w przypadku innych regulacji unijnych w zakresie bezpieczeństwa produktów, prawa konsumenckiego czy prawa ochrony danych osobowych (RODO). Projektowane rozporządzenie znajdzie zastosowanie do:

  • dostawców wprowadzających do obrotu lub oddających do użytku systemy SI w Unii, niezależnie od tego, czy są fizycznie obecni lub mają siedzibę w UE czy w państwie trzecim,
  • użytkowników systemów SI, którzy są fizycznie obecni lub mają siedzibę w UE,
  • dostawców i użytkowników systemów sztucznej inteligencji, którzy są fizycznie obecni lub mają siedzibę w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w UE,
  • importerów i dystrybutorów systemów SI,
  • producentów produktów wprowadzających do obrotu lub oddających do użytku system SI wraz ze swoim produktem i pod własną nazwą lub znakiem towarowym,
  • upoważnionych przedstawicieli dostawców, którzy mają siedzibę w Unii.

Takie ukształtowanie zakresu zastosowania rozporządzenia ma zapobiec obchodzeniu nowych przepisów. System SI będzie bowiem podlegał unijnym regulacjom, nawet jeżeli będzie trenowany i rozwijany w państwie trzecim na zlecenie operatora7 mającego siedzibę w UE albo przez operatora mającego siedzibę w państwie trzecim, w zakresie, w jakim wyniki działania takiego systemu będą wykorzystywane w Unii. Podobnie, nawet jeżeli system SI nie będzie przedmiotem wprowadzenia do obrotu lub oddania do użytku w UE ani nie będzie w UE wykorzystywany, to będzie on mógł być objęty projektowanym rozporządzeniem. Dotyczyć to będzie sytuacji, w których operator mający siedzibę w UE zlecałby określone usługi operatorowi spoza UE w związku z operacjami, które miałyby być wykonywane przez system sztucznej inteligencji zakwalifikowany jako system wysokiego ryzyka.

Projekt rozporządzenia wyraźnie określa kluczowych uczestników w łańcuchu wartości sztucznej inteligencji.

Należą do nich:

  • dostawcy systemów sztucznej inteligencji (tj. osoby fizyczne lub prawne, organy publiczne, agencje lub inne podmioty, które opracowują system sztucznej inteligencji lub zlecają jego opracowanie i wprowadzają go do obrotu lub oddają go do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie) oraz
  • użytkownicy systemów sztucznej inteligencji (tj. osoby fizyczne lub prawne, organy publiczne, agencje lub inne podmioty, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą).

Dostawcy i użytkownicy są głównymi adresatami obowiązków wskazanych w projekcie rozporządzenia. Proporcjonalne obowiązki nałożono również na innych uczestników łańcucha wartości SI (np. importerów, dystrybutorów, upoważnionych przedstawicieli).

Projekt pomija całkowicie sytuację i uprawnienia „użytkowników końcowych” czy „klientów systemu sztucznej inteligencji”, czyli takich osób, które korzystają z systemów SI w ramach osobistej działalności pozazawodowej, albo są adresatami działania takiego systemu. Należy się spodziewać, że w toku prac w Parlamencie Europejskim i Radzie pojawią się odpowiednie uzupełnienia. Projektowane przepisy w założeniu miały być bowiem „ukierunkowane na człowieka” i zwiększać zaufanie społeczeństwa do systemów SI.

Wyłączenie dla systemów SI wykorzystywanych w celach badań i rozwoju

Znaczącą zmianą, którą zaproponowała Rada, jest szerokie wyłączenie dla działań badawczo-rozwojowych. Spod zakresu rozporządzenia wyłączone mają zostać systemy SI (w tym wyniki ich działań) specjalnie opracowane i oddane do użytku wyłącznie w celach badań naukowych i rozwoju.Zastrzeżono również, że rozporządzenie nie powinno mieć wpływu na działalność badawczo-rozwojową dotyczącą systemów SI, o ile taka działalność nie pociąga za sobą wprowadzenia systemu SI do obrotu lub oddania go do użytku.

Choć taka zmiana wydaje się co do zasady słuszna, to w praktyce stosowanie tego wyłączenia może rodzić problemy. Nietrudno bowiem wyobrazić sobie sytuację, w której system SI nakierowany pierwotnie wyłącznie na cele badawczo-rozwojowe okaże się tak skuteczny (w szczególności dlatego, że nie będzie podlegał obowiązkom z rozporządzenia), że po jakimś czasie – odpowiednio wytrenowany i rozwinięty – zacznie być wykorzystywany w innych celach.

„Efekt Brukseli” – czy akt w sprawie SI stanie się globalnym standardem?

Podobnie jak w przypadku wielu innych regulacji unijnych o zasięgu ogólnym (np. RODO), również Akt w sprawie SI będzie niósł ze sobą tzw. Efekt Brukseli8. Innymi słowy, rozporządzenie w sprawie SI ma potencjał stać się globalnym standardem w zakresie regulacji projektowania i wykorzystania systemów SI. Choć projekt z pewnością będzie podlegał zmianom w toku procesu legislacyjnego, nie ulega wątpliwości, że jego ostateczny kształt wywrze kluczowy wpływ na rozwój systemów SI nie tylko w Unii Europejskiej, ale na całym świecie. Tym bardziej warto śledzić prace nad projektem rozporządzenia, które może ukształtować praktykę w zakresie wytwarzania i wykorzystywania systemów sztucznej inteligencji na najbliższe lata.

dr Iga Małobęcka-Szwast


1 Wniosek rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii (COM/2021/206 final) (dalej „projekt rozporządzenia w sprawie SI”).

2 https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da.

3 High-Level Expert Group on Artificial Intelligence, A definition of Artificial Intelligence: main capabilities and scientific disciplines, https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_definition_of_ai_18_december_1.pdf.

4 Zdecydowano się na zdefiniowanie pojęcia „systemu sztucznej inteligencji”, a nie „sztucznej inteligencji”.

5 https://syncedreview.com/2017/09/27/fake-ai-vs-real-ai/

6 Podejście oparte na ryzyku przyjęte w projekcie rozporządzenia zostanie szerzej omówione w kolejnym artykule.

7 Operator to dostawca, użytkownik, upoważniony przedstawiciel, importer i dystrybutor.

8 https://www.ft.com/content/977159b7-ec55-4f33-9ca8-491ace81591e