Przepisy o zakazanych praktykach w zakresie systemów AI wchodzą w życie już 2 lutego 2025 r. Wiele instytucji zakłada zapewne, że zakazy dotyczą jedynie ekstremalnych praktyk, które na pewno nie są ich udziałem. Jednak zakaz stosowania systemów AI do oceny ryzyka popełnienia przestępstwa pokazuje, że nie jest to prawidłowe podejście. Bardziej wnikliwa analiza prowadzi do wniosku, że część działań uznawanych do tej pory za rynkowy standard, szczególnie w sektorze usług finansowych, może okazać się wątpliwa w świetle wspomnianego zakazu. Dotyczy to w szczególności praktyk stosowanych przy monitorowaniu ryzyka AML oraz szeroko pojętego monitorowania ryzyka fraudów.
Blog prawa nowych technologii
Monitorowanie fraudów w świetle AI Act
Gamedev CEO simulator
W jakie pułapki prawne można wpaść, tworząc grę? Łatwo się o tym przekonać, wcielając się w postać Kreatywnej, Kierowniczki, Księgowego lub Konsultanta w grze Gamedev CEO simulator przygotowanej przez praktykę gamingową kancelarii Wardyński i Wspólnicy.
Co się liczy przy tworzeniu gier? Oczywiście pomysł. Grafika. Grywalność.
Niestety to nie wszystko. Na twórców czyha też Prawo. Tym, co je znają, pomaga. Tych, co go nie znają, zaskakuje.
Stąd seria artykułów o gamingu na portalu Codozasady.pl i stąd gra Gamedev CEO simulator (w formie interaktywnego pliku PDF) opracowana przez Monikę A. Górską i Lenę Marcinoską-Boulangé z praktyki gamingowej.
Akt o rynkach cyfrowych (DMA) – rewolucja nie tylko dla strażników dostępu
Akt o rynkach cyfrowych (Digital Markets Act, dalej: DMA), który wszedł w życie 1 listopada 2022 r., przyniesie wiele nowych obowiązków dla przedsiębiorstw świadczących usługi w sektorze cyfrowym, w szczególności dla tzw. strażników dostępu (ang. gatekeepers).
Nowe przepisy wpłyną jednak na funkcjonowanie całego ekosystemu cyfrowego, nie tylko na wspomnianych strażników dostępu, lecz również na pozostałych uczestników rynków cyfrowych, w tym użytkowników biznesowych i użytkowników końcowych korzystających z podstawowych usług platformowych, konkurencyjnych dostawców podstawowych usług platformowych oraz dostawców innych usług cyfrowych.
Wynika to z tego, że obowiązki i zakazy nałożone na strażników dostępu przyznają – bezpośrednio lub pośrednio – szerokiej grupie ww. podmiotów uprawnienia, które mogą być dochodzone przed sądami krajowymi.
Dlaczego podpisałem się pod apelem o wstrzymanie prac nad rozwojem AI?
Niezależnie od tego, czy w najnowszych technologiach AI widzimy korzyści, czy potencjalne egzystencjalne zagrożenie, niezaprzeczalny jest ciężar gatunkowy wyzwań, które te technologie ze sobą niosą. W ciągu ostatnich kilkudziesięciu lat postęp technologiczny znacznie wyprzedził refleksję nad jego możliwymi konsekwencjami. Tak nie musi i nie powinno być. O tym, że technologie nie są wyłącznie źródłem dobra, przekonujemy się dzisiaj, kiedy zaczynamy dostrzegać destrukcyjny wpływ, jaki niektóre technologie cyfrowe wywierają na nasze demokracje, bezpieczeństwo czy komfort psychiczny. W obliczu najnowszych osiągnięć technologicznych, takich jak AI, mamy szansę uniknąć błędów i przynajmniej podjąć próbę przekierowania rozwoju tych technologii w stronę autentycznych korzyści, przy jednoczesnym ograniczeniu ryzyk. W tym kontekście zdecydowałem się podpisać apel o czasowe wstrzymanie prac nad systemami AI. Zachęcam do tego również innych, a poniżej podaję główne przesłanki, którymi się kierowałem.
Zwodnicze interfejsy (dark patterns) pod lupą unijnych instytucji
O zwodniczych interfejsach (dark patterns) stosowanych w sektorze cyfrowym przez dostawców platform internetowych mówi się nie od dziś. W ostatnim czasie jest jednak o nich coraz głośniej, w szczególności za sprawą działań podejmowanych przez unijne i krajowe instytucje i organy zajmujące się ochroną danych i ochroną konsumentów[1].
Działania te mają przede wszystkim zwalczać zwodnicze interfejsy w środowisku cyfrowym, ale również edukować konsumentów i zwracać ich uwagę na najczęściej pojawiające się typy tych oszukańczych praktyk.
Szkodliwość, ale zarazem powszechność dark patterns zauważył również unijny prawodawca, który w obowiązującym już Akcie o usługach cyfrowych (Digital Services Act, DSA) wprost zakazał stosowania takich praktyk przez dostawców platform internetowych (art. 25 DSA)[2]. Stosowanie dark patterns może zatem naruszać nie tylko przepisy o ochronie danych osobowych (w szczególności RODO) i przepisy o ochronie konsumentów, ale również (od 17 lutego 2024 r.) Aktu o usługach cyfrowych.
„Bossware” z perspektywy polskiego prawa pracy i ochrony danych osobowych
Rozpowszechnienie pracy zdalnej w połączeniu z rozwojem technologii monitorowania spowodowały, że pracodawcy na całym świecie wdrażają różne, czasem technologicznie zaawansowane metody, aby sprawdzić wydajność pracowników i stopień ich zaangażowania w pracę. Coraz większą popularność w tym zakresie zdobywają rozwiązania informatyczne i programy, które potocznie nazywa się bossware (od połączenia słów „boss” oraz „software”).
Bossware może w praktyce obejmować różnorakie rozwiązania i technologie takie jak np.:
- keyloggers monitorujące korzystanie przez pracownika z klawiatury służbowego komputera,
- pobieranie i analiza zrzutów z ekranu służbowego urządzenia pracownika,
- śledzenie ruchów myszki,
- stała lub okresowa obserwacja pracownika z wykorzystaniem kamery (np. ruch gałek ocznych) lub mikrofonu urządzenia służbowego,
- śledzenie aktywności pracownika w internecie,
- monitorowanie sposobu wykorzystania poczty służbowej, kalendarza i służbowych komunikatorów,
- analiza działania uruchamianych przez pracownika aplikacji i programów.
Cechą szczególną rozwiązań typu bossware jest częste wykorzystywanie analizy automatycznej, pozwalającej bez udziału przełożonych „flagować” pracowników, których produktywność, zaangażowanie czy sposób pracy odbiega od oczekiwanej przez pracodawcę normy.
Polscy pracodawcy również sięgają po bossware. Poniżej opisujemy, co w związku z tym powinni wziąć pod uwagę w świetle polskiego prawa pracy i ochrony danych osobowych.