Dlaczego podpisałem się pod apelem o wstrzymanie prac nad rozwojem AI?

Niezależnie od tego, czy w najnowszych technologiach AI widzimy korzyści, czy potencjalne egzystencjalne zagrożenie, niezaprzeczalny jest ciężar gatunkowy wyzwań, które te technologie ze sobą niosą. W ciągu ostatnich kilkudziesięciu lat postęp technologiczny znacznie wyprzedził refleksję nad jego możliwymi konsekwencjami. Tak nie musi i nie powinno być. O tym, że technologie nie są wyłącznie źródłem dobra, przekonujemy się dzisiaj, kiedy zaczynamy dostrzegać destrukcyjny wpływ, jaki niektóre technologie cyfrowe wywierają na nasze demokracje, bezpieczeństwo czy komfort psychiczny. W obliczu najnowszych osiągnięć technologicznych, takich jak AI, mamy szansę uniknąć błędów i przynajmniej podjąć próbę przekierowania rozwoju tych technologii w stronę autentycznych korzyści, przy jednoczesnym ograniczeniu ryzyk. W tym kontekście zdecydowałem się podpisać apel o czasowe wstrzymanie prac nad systemami AI. Zachęcam do tego również innych, a poniżej podaję główne przesłanki, którymi się kierowałem.

Prawo do zrozumienia

Uważam, że każdy z nas ma fundamentalne i niezbywalne prawo, żeby rozumieć znaczenie poszczególnych elementów oraz procesów składających się na otaczający nas świat. Jest to warunkiem świadomego uczestniczenia w rzeczywistości, w tym dokonywania świadomych indywidualnych oraz zbiorowych wyborów. Oczywiście możemy z tego prawa dobrowolnie zrezygnować. Każda jednak zewnętrzna próba jego odebrania powinna być traktowana jako zamach na naszą wolność.

W mojej ocenie współczesne źródło zagrożenia dla naszego prawa do zrozumienia leży przede wszystkim w technologii, a w szczególności w tempie, w jakim się ona rozwija. Cykl rozwoju technologicznego rozminął się z cyklem rozwoju kulturowego. Nie nadążamy z tworzeniem ustrukturyzowanych znaczeń tych technologii, nie do końca wiemy, co one oznaczają, jak wpływają na nas, naszą kulturę, ekonomię, społeczeństwo. Owszem, podejmujemy próby zrozumienia, ale są one najczęściej realizowane już post factum, tj. po tym, jak technologia trafia już do naszej rzeczywistości. Poza tym proces społecznego budowania sensu ma swoją dynamikę, wymaga zbudowania odpowiednich narracji, przeprowadzenia publicznej debaty, przetworzenia konkluzji na konkretne działania (np. legislacyjne) itp. To jest proces rozłożony często na lata. Tymczasem cykle technologiczne, przynajmniej w pewnych obszarach technologicznych (np. usług i treści cyfrowych), są już w tej chwili znacznie krótsze.

Efekt jest taki, że prawo do zrozumienia staje się iluzją. Przestajemy intelektualnie obejmować znaczenie procesów, które w sposób fundamentalny kształtują nasze życie i które tworzą ramy, w których będą funkcjonowały przyszłe pokolenia. Odnosi się to również do technologii AI. Mamy prawo zrozumieć, czy najnowsze osiągnięcia inżynierów AI, takie jak ChatGPT, to nadal wyłącznie „kalkulator”– tyle tylko, że tym razem przetwarzający słowa, a nie liczby – czy może początek systemów, które uzyskują jakiś rodzaj autonomicznej świadomości. Nawet jeżeli to tylko nowa odmiana „kalkulatora”, to mamy prawo zastanowić się, jak może wpłynąć na nas, nasze dzieci, edukację, demokrację itp. Co szczególnie ważne, mamy prawo zrozumieć to, jeszcze zanim systemy te wejdą w tzw. fazę produkcyjną.   

Paradygmat technologicznego rozwoju

Coraz większa utrata sterowności procesu technologicznego jest wynikiem zjawiska, które określam jako paradygmat technologicznego rozwoju. Jest to jeden z najbardziej charakterystycznych elementów współczesności. Jego istotą jest dominujące przekonanie o słuszności co najmniej następujących trzech tez dotyczących technologii:

  • rozwój technologii jest niezbędny do rozwoju gospodarczego,
  • rozwój technologii jest niezbędny do zwiększenia dobrobytu ludzkości (rozumianego maksymalnie szeroko, jako dobrobyt materialny, komfort życia, komfort psychiczny itp.),
  • rozwoju technologii w zasadzie nie sposób zatrzymać.

Nie jest moim celem dogłębne weryfikowanie słuszności lub braku słuszności tych tez. Chcę jedynie zwrócić uwagę na niebezpieczeństwo wiążące się z bezkrytycznym podejściem do wskazanych przekonań. Uważam, że mamy prawo zadawać pytania, czy faktycznie określone technologie przyczyniają się do dobrobytu, jaki mogą mieć wpływ na naszą demokrację, kulturę, edukację, godność, prawa czy komfort psychiczny. Jest oczywiste, że oprócz szeregu technologii, które są źródłem znaczącej wartości dodanej, tworzymy także rozwiązania, tudzież określone aplikacje istniejących rozwiązań, które mają na nas oraz nasze społeczeństwa i kulturę wpływ destrukcyjny lub potencjalnie destrukcyjny. Zwolennicy paradygmatu technologicznego, nawet jeżeli są świadomi zagrożeń, wychodzą często z założenia, że bilans będzie zawsze pozytywny, tj. suma korzyści przewyższy sumę negatywnych implikacji technologii. Tak jednak przecież nie zawsze musi być. 

Zdajemy sobie doskonale sprawę z tego, że AI jest technologią wieloznaczną, tj. oprócz potencjalnie niezwykłych korzyści, które może wprowadzić do naszego świata, niesie ze sobą także szereg fundamentalnych zagrożeń. Mówią o tym zresztą otwarcie również sami twórcy tych rozwiązań. Dlaczego zatem mamy siedzieć z założonymi rękami i biernie obserwować dalszy ciąg zdarzeń? Skala potencjalnych zagrożeń tworzonych przez AI jest tak znacząca, że bierność byłaby wyrazem nieodpowiedzialności, nieracjonalności oraz abdykacji z chęci kształtowania świata, w którym funkcjonujemy.

Doprowadzając do wstrzymania prac nad AI, moglibyśmy udowodnić, że oderwanie technologii od szerszego kontekstu społeczno-gospodarczego nie jest nieodwracalne. Stworzenie ram, w których tworzenie i implementacja innowacji podlegałyby pewnej społecznej kontroli, nie jest w żaden sposób równoznaczne z zanegowaniem wolności i kreatywności. Przywróciłoby jedynie niezbędny dla integralnego rozwoju balans pomiędzy różnymi społeczno-gospodarczymi wektorami. Odwołując się do innego przykładu, administracyjna kontrola nad wprowadzaniem na rynek nowych produktów leczniczych lub pojazdów z jednej strony spowalnia rozwój, ale z drugiej strony gwarantuje, że w dłuższej perspektywie będzie to rozwój stabilny. Czy to ogranicza wolność kreacji? Nie sądzę, powoduje raczej, że ta wolność jest realizowana w bezpieczny i cywilizowany sposób.   

Zagrożenia

Jakie są zatem te najważniejsze zagrożenia i wyzwania, które potencjalnie przynosi AI i które powodują, że warto w tym przypadku zrewidować paradygmat technologicznego rozwoju?

Człowiek

Najważniejsze wydaje mi się zagrożenie, które systemy AI stwarzają dla pewnej wizji antropologicznej, wokół której zbudowany jest cały nasz świat. Jest to przy tym zagrożenie, którego realność jest bardzo trudna do oceny, wymaga bowiem dogłębnego zrozumienia możliwości oraz znaczenia zarówno aktualnych, jak i przyszłych rozwiązań AI. Uważam jednak, że nawet jeżeli mówimy o czymś, co jest na ten moment abstrakcyjne, to i tak warto uzmysłowić sobie omawiane wyzwanie. Niezależnie bowiem od tego, w którym miejscu znajduje się aktualnie rozwój systemów AI, istnieje pewien docelowy punkt, do którego wyraźnie zmierza część twórców tych rozwiązań. Jest to stworzenie systemów generalnej sztucznej inteligencji (tzw. AGI), których zdolności kognitywistyczne oraz intelektualne mają przewyższać zdolności człowieka. Towarzyszy temu przekonanie, że ludzkie zdolności intelektualne mają swoje ograniczenia, bez przekroczenia których nie będziemy w stanie np. dokonać kolejnych przełomowych odkryć, zwiększyć efektywności niektórych procesów czy po prostu stworzyć lepszego świata.

Ta ambitna wizja jest jednak naznaczona również potencjalnie niezwykle trudnym dylematem. Stworzenie maszyny, która przewyższa człowieka zdolnościami kognitywistycznymi oraz uczestniczy aktywnie w świecie może spowodować powstanie nowych aktorów w naszej rzeczywistości, którzy, dzięki swym ponadprzeciętnym zdolnościom, mogą szybko przejąć nad nią kontrolę. Szczególnie intrygujące, a dla wielu zapewne przerażające, jest wyobrażenie sobie rzeczywistości, w której owi nowi aktorzy autonomicznie tworzą własne cele i podejmują działania zmierzające do ich realizacji. Ktoś może powiedzieć, że najprostszym sposobem uniknięcia ryzyka z tym związanego jest taka konstrukcja tych systemów, która uniemożliwi im tworzenie własnych celów. Tyle tylko, że to właśnie potencjalnie w autonomii działania tych systemów tkwi ich największa wartość. Jeżeli bowiem cele tych systemów miałyby być nadal determinowane przez ludzi, to oznaczałoby, że byłyby one nadal obciążone ograniczeniami ludzkiego intelektu. Chodzi tymczasem o przekraczanie tych ograniczeń, co może wymagać stworzenia maszynom możliwości autonomicznego wyznaczania celów (np. badawczych).

Dalszy rozwój AI w którymś momencie może zatem postawić przed nami dylemat, który sprowadza się do tego, czy w imię postępu chcemy zrezygnować ze świata antropocentrycznego, tj. świata, w którym to człowiek ustala podstawowe zasady oraz cele. Jeżeli faktycznie warunkiem postępu jest przekroczenie ograniczeń ludzkiego umysłu, to prędzej czy później staniemy przed pokusą powierzenia tego postępu nowym, zdolniejszym od nas aktorom. Tyle tylko, że to może już wtedy nie być nasz, antropocentryczny świat. Nie wiem, jak czytelnicy, ale ja czułbym się znacznie bardziej komfortowo, gdybym mógł podjąć wolną i świadomą decyzję, co w takim przypadku wybrać.      

Cywilizacja

Jeżeli faktycznie uwierzymy w to, że technologia wyalienowała się już tak bardzo, że nie jesteśmy w stanie jej kontrolować, to jest to niestety prosta droga do cywilizacyjnej katastrofy. Cywilizacje istnieją tak długo, jak długo są w stanie zapewnić bazowe uporządkowanie rzeczywistości, przez co rozumiem przewidywalność elementarnych ram dla społeczno-gospodarczych interakcji. Warunkiem istnienia takich ram jest chociaż minimalny poziom kontroli procesów, które się wewnątrz danej cywilizacji rozgrywają. Brak jakiejkolwiek kontroli nad rozwojem technologii lub pogodzenie się z tym, że ta kontrola może odbywać się wyłącznie post factum, tworzy naturalnie ryzyko rozpadu elementarnego porządku.   

Kultura

Możemy poświęcić kilka kolejnych tekstów rozważaniom na temat tego, jak już istniejące technologie cyfrowe modyfikują naszą kulturę. Zaczynamy odkrywać, jak np. media społecznościowe zmieniają sposób naszego rozumowania, zdolności budowania narracji, sposób, w jaki wchodzimy w interakcje z innymi. Widzimy, w jakim stopniu Internet otworzył dostęp do wiedzy, ale też w jakim stopniu spowodował upublicznienie i zdominowanie przestrzeni wzajemnych interakcji przez hejt. To wszystko zmienia nas w sposób fundamentalny i na pewno nie zawsze dobry.

Nowe narzędzia oparte na rozwiązaniach AI, takie jak modele językowe pozwalające wykorzystywać AI w pracy nad tekstem (zarówno pisanym, jak i mówionym), mogą te zmiany spotęgować. Dostępność rozwiązań takich jak ChatGPT wymusza na nas np. rewizję podejścia do edukacji. Na nowo musimy zastanowić się nad tym, jakie są w ogóle cele procesu kształcenia, jakich umiejętności chcemy uczyć i po co. Zaczynamy dostrzegać obawy, że pokolenia edukowane przez ChatGPT zatracą wiele umiejętności samodzielnego, krytycznego myślenia. Modele językowe tworzą również ryzyko zintensyfikowania wielu negatywnych zjawisk obecnych już dzisiaj w świecie cyfrowym. Możliwości manipulowania treściami, tworzenia ukrytych przekazów czy też przeprowadzania oszustw wydają się dzięki tym technologiom niemal nieograniczone.

Być może, gdybyśmy mieli więcej czasu na reakcję i dostosowanie, można by uniknąć części wyzwań, z którymi musimy się dzisiaj mierzyć, lub ich negatywne skutki byłyby ograniczone. Ograniczając tempo prac nad systemami AI, stwarzamy sobie szansę na uniknięcie błędów z wcześniejszego etapu rozwoju technologii cyfrowych. Moglibyśmy odpowiednio przygotować się na zmianę.

Demokracja

Kultura jest bezpośrednio powiązana z ze sposobem, w jaki urządzamy wspólną przestrzeń naszych interakcji. W świecie szeroko rozumianego Zachodu czynimy to demokratycznie. Jak wiadomo, demokracja nie jest wyłącznie sposobem wybierania władzy. To pewien znacznie szerszy koncept, który zakłada istnienie odpowiedniego kontekstu kulturowego. Powierzenie wyboru władzy ogółowi społeczeństwa ma szansę doprowadzić do lepszych rezultatów niż alternatywne modele ustrojowe wyłącznie wtedy, kiedy tego wyboru dokonują wolne, świadome jednostki, rozumiejące znaczenie swoich wyborów oraz zdolne do prowadzenia ustrukturyzowanych debat o sprawach publicznych.  

Jeżeli nowe technologie, zamiast wzmacniać te zdolności jednostek, które są kluczowe dla funkcjonowania demokracji, będą przyczyniać się do ich uwiądu, demokracja bardzo szybko może przeistoczyć się w swoją karykaturę. Tak może się stać, jeżeli technologie spowodują, że jednostki zatracą zdolność do krytycznego i niezależnego myślenia oraz uczestniczenia w publicznej debacie. Takimi jednostkami bardzo łatwo manipulować, a ci, którzy chcieliby to robić, będą mieli dostęp do narzędzi, które umożliwią to na bezprecedensową do tej pory skalę.   

Gospodarka

Technologie AI najpewniej nie są neutralne na gospodarki. Z jednej strony są szansą na bezprecedensowy wzrost efektywności, z drugiej strony ten wzrost, zwłaszcza jeżeli dokonałby się w sposób szokowy, może potencjalnie doprowadzić do rewolucji na rynku pracy i radykalnie pogłębić rozwarstwienie społeczne.

To oczywiście prosta recepta na społeczną rewolucję. Ponownie, bardzo pożądane w tym kontekście jest zyskanie czasu, który pozwoliłby na pogłębione przeanalizowanie możliwych implikacji gospodarczych systemów AI oraz przynajmniej podjęcie próby stworzenia narzędzi, które ograniczą negatywne skutki społeczno-gospodarczych zmian.  

Innowacje

Ten wątek jest najtrudniejszy do wytłumaczenia, bowiem twierdzenie, że innowacje mogą spowolnić… innowacje, jest na pierwszy rzut oka zupełnie przeciwintuicyjne. To ryzyko stanie się nieco bardziej czytelne, kiedy uzmysłowimy sobie, że innowacje zawdzięczają swój dotychczasowy rozwój szerokiemu społeczno-kulturowo-gospodarczemu kontekstowi, w którym mogły się rozwijać. Niezbędna dla innowacji ludzka kreatywność mogła przynosić owoce tylko dlatego, że istniał model urządzenia życia społecznego, który gwarantował jej istnienie. Na ten model składają się te wszystkie elementy, o których wspominałem powyżej, m.in. demokracja, wolna i rozumiejąca świat jednostka, wolna i sprawiedliwa gospodarka zapewniająca możliwie największej grupie podmiotów szansę na realizacje kreatywności. Te wszystkie elementy są ze sobą ściśle powiązane.

Ograniczenie kreatywności jednostek poprzez outsourcowanie coraz większej ilości procesów intelektualnych do maszyn, manipulowanie debatą publiczną i w konsekwencji doprowadzenie do upadku demokracji czy bezprecedensowa akumulacja kapitału w rękach nielicznych – to tylko przykłady procesów, które potencjalnie mogą się zadziać wraz z rozwojem AI i wpłynąć na zachwianie niezbędnej społecznej równowagi. Bez kreatywnych jednostek oraz politycznej i gospodarczej wolności innowacje, owszem, zapewne będą nadal powstawać, ale niekoniecznie będą one wolne. Doprowadzając do dalszego niekontrolowanego rozwoju technologii, możemy zatem sami sobie ograniczyć warunki do ich dalszego powstawania.     

Nie chodzi o zatrzymanie rozwoju

Na koniec chciałbym przestrzec przed nieporozumieniem, o które łatwo w kontekście niniejszego tekstu. Protestując przeciwko niekontrolowanemu rozwojowi technologii AI, nie jestem przeciwko technologicznemu rozwojowi. Nie marzy mi się również powrót do świata planowanego i sterowanego centralnie. Przeciwnie, uważam, że dotarliśmy do takiego punktu, w którym bez wsparcia technologii nie będziemy w stanie utrzymać i ulepszać skomplikowanej struktury, którą stworzyliśmy. Ponadto historia dowodzi, że zmiana, którą przynoszą innowacje, może być czymś pożądanym i ożywczym oraz przyczyniać się do zwiększenia – mówiąc nieco górnolotnie – „sumy dobra w świecie”. Dlatego, co do zasady, system powinien zapewniać możliwość tworzenia innowacji i być z natury rzeczy otwarty na zmianę.

Nie można jednak z góry założyć, że takie podejście musi przekładać się na bezkrytyczny stosunek do innowacji. Jest wiele technologii, które są moralnie dwuznaczne. Nie chodzi o to, aby je z góry przekreślać. Chodzi jedynie o takie zorganizowanie procesu rozwoju innowacji, żeby móc ten rozwój w możliwie największym stopniu kierować ku społecznemu i jednostkowemu dobru oraz ograniczać negatywny wpływ tych innowacji. To wymaga elementarnej zdolności do kontroli procesu rozwoju oraz wytyczenia czerwonych linii, które będą nas ostrzegały przed wkraczaniem w obszary, w których zmiana wywołana przez innowacje może zachwiać fundamentami naszego porządku.

Nie twierdzę przy tym, że kontrola taka powinna być sprawowana wyłącznie przez scentralizowany aparat administracyjny. Przeciwnie, wydaje mi się, że aparat ten nie jest  już w tej chwili zdolny do samodzielnej realizacji tego celu. W związku z tym należy poszukiwać nowych sposobów na przywrócenie społecznej kontroli nad procesem technologicznym.

Do miejsca, w którym jesteśmy, przez wielu określanego jako najszczęśliwszy czas w dziejach ludzkości, doprowadziły nas nie tylko technologie, ale przede wszystkim pewna unikatowa wizja człowieka oraz będący wynikiem tej wizji sposób urządzenia naszych wzajemnych interakcji. Chcąc ochronić to miejsce, nie możemy koncentrować się tylko na technologii, a już na pewno musimy podnieść alarm, kiedy technologie, będące owocem tego unikatowego podejścia, zaczynają mu zagrażać.

Krzysztof Wojdyło

Poprzedni wpis
Zwodnicze interfejsy (dark patterns) pod lupą unijnych instytucji
Następny wpis
Akt o rynkach cyfrowych (DMA) – rewolucja nie tylko dla strażników dostępu