Licencje sposobem na odpowiedzialną sztuczną inteligencję?
Problemem, który zajmuje zarówno programistów, polityków, jak i „zwykłych” użytkowników, jest zapewnienie, aby algorytmy sztucznej inteligencji nie były używane sprzecznie z ich pierwotnym celem. Kwestia ta była wielokrotnie poruszana w opracowaniach krajowych przygotowanych przez poszczególne państwa europejskie, także przez Polskę.
W dużym uproszczeniu chodzi o to, że część kodu służąca np. do analizy danych osób chorych na raka może być użyta także w systemach inwigilacji ludności. Po udostępnieniu algorytmu (np. w celu dalszych prac nad nim lub w formule open source) twórcy nie mają kontroli nad jego późniejszym wykorzystaniem, w tym w celach, które nie są zgodne z ich pierwotnymi założeniami i intencjami. Może to skutkować „autocenzurą” twórców algorytmów, a także ograniczeniem publikacji wyników badań i analiz dotyczących sztucznej inteligencji. Do tej pory nie było skutecznych narzędzi do przeciwdziałania temu zjawisku, a wszelkie inicjatywy sprowadzały się do tworzenia kodeksów dobrych praktyk w tym zakresie.
Responsible AI Licenses – czyli jak ograniczyć wykorzystanie algorytmu?
Rozwiązaniem tego problemu mają być RAIL, czyli Responsible AI Licenses, które umożliwiają twórcom algorytmów ograniczenie pewnych sposobów użycia ich kodu. Autorzy rozwiązania przewidują dwa rodzaje licencji – jedną dla użytkowników końcowych, drugą tzw. licencję kodu źródłowego. Pierwsza z nich ogranicza sposób użycia oprogramowania, w którym zawarty jest dany algorytm, druga natomiast, zgodnie z deklaracją twórców RAIL, ma zmniejszyć ryzyko związane z udostępnieniem kodu szerokiej publiczności. Deweloperzy mogliby więc zapobiec używaniu algorytmu w niepożądany przez nich sposób.
RAIL zawiera wstępną listę nieakceptowalnych zastosowań algorytmów stworzoną przez jego twórców, która będzie ograniczać sposób użycia algorytmu. Lista ma być rozbudowywana przez twórców RAIL z pomocą przedstawicieli branży, natomiast nie ma możliwości poszerzania listy przez autorów algorytmów korzystających z RAIL.
RAIL jako początek dyskusji nad odpowiedzialną sztuczną inteligencją
Niewątpliwie RAIL nie wystarczy, aby zapewnić odpowiedzialne korzystanie ze sztucznej inteligencji, tzn. nie uniemożliwi całkowicie wyznaczania jej celów, które mogą prowadzić do konsekwencji negatywnych dla ludzi. Niemniej jednak jest to jedno z pierwszych rozwiązań, które można zaaplikować od zaraz i realnie ograniczyć szkodliwe wykorzystywanie algorytmów sztucznej inteligencji. W sposób oczywisty jest to postęp w stosunku do toczących się obecnie debat nad koniecznością wprowadzenia kodeksów postępowania i procedur zapewniających odpowiedzialne korzystanie ze sztucznej inteligencji, za którymi nie zawsze idą rozwiązania, które można stosować od zaraz. RAIL na pewno stanie się przyczynkiem do pogłębionej dyskusji nad potrzebami dostarczenia gotowych rozwiązań dla twórców algorytmów, a także nad koniecznością rewizji dokumentacji, w tym umów i regulaminów dotyczących udostępnianych kodów, w celu ich dostosowania do pojawiających się wyzwań związanych z rozwojem sztucznej inteligencji.
Katarzyna Szczudlik