Autor: Bartosz Troczyński

Wypatruje e-rewolucji, kibicuje rozwojowi przemysłu 4.0 i uważnie śledzi poczynania sztucznej inteligencji, analizując, co jej wolno, a czego nie, oraz jak jej to powiedzieć. Postęp cyfrowy wspiera piórem, pisząc o pozyskiwaniu, przekazywaniu i przetwarzaniu Big Data. Napisz do autora: bartosz.troczynski@wardynski.com.pl

Facebook dwa razy się zastanowi, zanim usunie treści?

W zeszłym tygodniu Ministerstwo Cyfryzacji poinformowało o zawarciu porozumienia z Facebookiem. Jego celem jest wprowadzenie mechanizmu, którzy umożliwi polskim użytkownikom serwisu kwestionowanie decyzji o usunięciu treści albo profilu.

Pierwsza instancja na Facebooku, druga – punkt kontaktowy w NASK-u

Użytkownicy na całym świecie skarżą się na arbitralne i nieuzasadnione decyzje o usunięciu ich treści albo profili zamieszczanych na Facebooku.

Dotychczas Facebook umożliwiał złożenie odwołania od takiej decyzji przez wypełnienie odpowiedniego formularza na jego stronie. Skargi takie były rozpatrywane przez Facebooka, nie zawsze jednak przekładały się na zmianę pierwotnej decyzji.

Dzięki zawartemu porozumieniu po nieskutecznym odwołaniu użytkownik serwisu będzie mógł złożyć ponowne odwołanie, tym razem za pośrednictwem specjalnie utworzonej platformy na stronie Naukowej i Akademickiej Sieci Komputerowej, tzw. punktu kontaktowego.

Czytaj dalej

Jak wyłączyć RODO

Na spotkaniu podsumowującym konsultacje społeczne w zakresie projektu ustawy wdrażającej RODO Ministerstwo Cyfryzacji potwierdziło, że w toku prac legislacyjnych zaakceptowana została poprawka wprowadzająca istotne wyłączenia spod zastosowania RODO, którą zgłosiło jeszcze w październiku zeszłego roku Ministerstwo Rozwoju. Projektowane wyłączenie jest ciekawym przykładem tego, jak trudno zaprojektować przepisy dobrze odpowiadające cyfrowej gospodarce.

Czytaj dalej

Powiadomienia na smartfonie zamiast regulaminów

Grudzień 2017 r. przyniósł dwa nowe dokumenty Grupy Roboczej Art. 29 wyjaśniające, jak rozumieć przepisy RODO dotyczące zgody, którą należy uzyskać i informacji, które należy przekazać klientom w celu przetwarzania ich danych osobowych. Są to Wytyczne w sprawie zgodyWytyczne w sprawie przejrzystości. Nowe dokumenty wskazują, że mija czas obszernych regulaminów pisanych drobnym drukiem. Administratorzy danych, którzy chcą zadbać o zgodność z RODO, lepiej zrobią, stawiając na system krótkich i łatwych do zrozumienia pytań oraz powiadomień.

Czytaj dalej

Dane nie do końca anonimowe

Ponieważ anonimizacja danych wydaje się główną metodą ucieczki spod restrykcyjnego reżimu RODO, warto mieć świadomość, co i komu grozi, jeśli nie uda się jej przeprowadzić, wystawiając objęte nią zasoby danych na ryzyko wtórnego przyporządkowania do konkretnych osób. Czy firmy, które trenują sztuczną inteligencję na zanonimizowanych danych, powinny liczyć się z odpowiedzialnością, jeśli okaże się, że dane, z których korzystają, jednak nie przeszły trwałej anonimizacji, tylko możliwą do odwrócenia pseudonimizację?

Czytaj dalej

Sztuczna inteligencja a RODO – kolejna odsłona

Z początkiem ubiegłego miesiąca Grupa Robocza ds. Art. 29 opublikowała Wytyczne w sprawie zautomatyzowanego podejmowania decyzji i profilowania w indywidualnych przypadkach. Objaśniają one znaczenie przepisów art. 21 i 22 RODO i – choć ich tytuł może na to nie wskazywać – stanowią kolejny element ram prawnych dla rozwoju i wykorzystania sztucznej inteligencji. Jednocześnie już teraz pokazują, że ramy te mogą być naprawdę ciasne.

Czytaj dalej

Duże dane małych firm

Wiele startupów oferuje usługi analizy Big Data oparte na algorytmach wykorzystujących uczenie się maszynowe. Wynikami takich analiz mogą być zainteresowane wszystkie podmioty, które profilują swoje produkty lub działania marketingowe. Aby jednak analizy były wiarygodne, konieczne są dane: im więcej, tym lepiej. Algorytmy wykorzystujące uczenie się maszynowe muszą mieć na czym się uczyć. Od zakresu dostarczonych im danych treningowych zależeć będzie celność prognoz dokonywanych później w celach biznesowych. Jeśli algorytm od początku będzie skazany na analizę okrojonej próby obserwacji, rośnie ryzyko, że nietrafnie pogrupuje dane, pominie ważne korelacje lub powiązania przyczynowo-skutkowe albo dopatrzy się ich tam, gdzie ich nie ma. Dopiero szkolenie algorytmu na dużych zestawach danych pozwala zminimalizować ryzyko uchybień w diagnozach i prognozach.

Czytaj dalej