Kategoria: sztuczna inteligencja

Co reguluje Data Act i jakie ma znaczenie dla przedsiębiorców?

12 września 2025 r. był pierwszym dniem stosowania Data Act (czyli rozporządzenia (UE) 2023/2854 z dnia 13 grudnia 2023 r. w sprawie zharmonizowanych przepisów dotyczących sprawiedliwego dostępu do danych i ich wykorzystywania oraz w sprawie zmiany rozporządzenia (UE) 2017/2394 i dyrektywy (UE) 2020/1828). Na co powinni zwrócić uwagę przedsiębiorcy?

Charakter i cel Data Act

Data Act jest rozporządzeniem unijnym i jako takie jest bezpośrednio stosowany w Polsce i wszystkich innych państwach członkowskich UE. Na poziomie krajowym Data Act będzie wprawdzie uzupełniony przez przepisy lokalne – będą one jednak zasadniczo regulować kwestie formalne (np. dotyczące postępowań w sprawie naruszenia Data Act), a nie materialne. Innymi słowy w całej UE Data Act będzie obowiązywał w tej samej treści.

Czytaj dalej

Ślepa uliczka cyfrowych technologii

Proponuję, dla zachowania niezbędnej równowagi, spojrzeć niekiedy z boku na ogarniającą nas coraz częściej technologiczną ekstazę. Szybko zrozumiemy wtedy, że to nie inwestowanie bezprecedensowych sum w rozwój AI i innych technologii cyfrowych jest aktualnie naszą najpilniejszą potrzebą.

Od jakiegoś czasu nie daje mi spokoju tzw. paradoks Solowa. To zaobserwowana w latach 80. XX wieku zupełnie nieintuicyjna zależność pomiędzy rozwojem cyfrowych technologii a produktywnością. Dane ekonomiczne za ostatnie 40 lat pokazują, że w gospodarkach najbardziej rozwiniętych wcale nie doszło do znaczącego wzrostu produktywności, pomimo rozpowszechnienia internetu, komputerów oraz różnych cyfrowych narzędzi. Co ciekawe, wskaźniki produktywności są w tym okresie wyraźnie niższe niż w okresach poprzedzających cyfrową rewolucję.

Czytaj dalej

Nadzór człowieka nad systemami AI

Na poziomie deklaracji i intencji Akt w sprawie sztucznej inteligencji jednoznacznie postuluje zapewnienie nadzoru nad systemami AI przez człowieka. Na poziomie niższym, w szczególności przy określaniu szczegółowych obowiązków podmiotów stosujących systemy AI, przepisy Aktu nie są już tak jednoznaczne. W tekście staram się zarysować najważniejsze wyzwania, z którymi w tym kontekście będą musieli zmierzyć się dostawcy systemów AI oraz podmioty stosujące te systemy.

Czytaj dalej

Monitorowanie fraudów w świetle AI Act

Przepisy o zakazanych praktykach w zakresie systemów AI wchodzą w życie już 2 lutego 2025 r. Wiele instytucji zakłada zapewne, że zakazy dotyczą jedynie ekstremalnych praktyk, które na pewno nie są ich udziałem. Jednak zakaz stosowania systemów AI do oceny ryzyka popełnienia przestępstwa pokazuje, że nie jest to prawidłowe podejście. Bardziej wnikliwa analiza prowadzi do wniosku, że część działań uznawanych do tej pory za rynkowy standard, szczególnie w sektorze usług finansowych, może okazać się wątpliwa w świetle wspomnianego zakazu. Dotyczy to w szczególności praktyk stosowanych przy monitorowaniu ryzyka AML oraz szeroko pojętego monitorowania ryzyka fraudów.  

Czytaj dalej

Dlaczego podpisałem się pod apelem o wstrzymanie prac nad rozwojem AI?

Niezależnie od tego, czy w najnowszych technologiach AI widzimy korzyści, czy potencjalne egzystencjalne zagrożenie, niezaprzeczalny jest ciężar gatunkowy wyzwań, które te technologie ze sobą niosą. W ciągu ostatnich kilkudziesięciu lat postęp technologiczny znacznie wyprzedził refleksję nad jego możliwymi konsekwencjami. Tak nie musi i nie powinno być. O tym, że technologie nie są wyłącznie źródłem dobra, przekonujemy się dzisiaj, kiedy zaczynamy dostrzegać destrukcyjny wpływ, jaki niektóre technologie cyfrowe wywierają na nasze demokracje, bezpieczeństwo czy komfort psychiczny. W obliczu najnowszych osiągnięć technologicznych, takich jak AI, mamy szansę uniknąć błędów i przynajmniej podjąć próbę przekierowania rozwoju tych technologii w stronę autentycznych korzyści, przy jednoczesnym ograniczeniu ryzyk. W tym kontekście zdecydowałem się podpisać apel o czasowe wstrzymanie prac nad systemami AI. Zachęcam do tego również innych, a poniżej podaję główne przesłanki, którymi się kierowałem.

Czytaj dalej

Podejście oparte na ryzyku i nowe obowiązki w projekcie aktu w sprawie SI

Ostatnio przyjrzeliśmy się definicji systemów sztucznej inteligencji oraz podmiotowemu i terytorialnemu zakresowi projektowanego aktu w sprawie SI, z uwzględnieniem listopadowych propozycji zmian Rady do tego projektu. W tym artykule omówimy poziomy ryzyka, od których unijny prawodawca unijny uzależnia zakres nakładanych obowiązków i ograniczeń.

Czytaj dalej