Opublikowano Kategorie IT, telekomunikacja

Czy zasada neutralności sieci przetrwa nadejście internetu rzeczy?

Ledwie prawodawca amerykański i unijny usankcjonowali prawnie zasadę neutralności sieci, a już na sile przybierają zjawiska, które jawnie zagrażają jej utrzymaniu. Upowszechnienie internetu rzeczy wytworzy nowe kontrowersje wokół zasady neutralności. Jednakże przewidujemy, że tym razem reakcja rządów i parlamentów będzie inna. Wobec internetu rzeczy nie sposób utrzymać równego traktowania każdego transferu danych. Prawdopodobnie transfer danych przez łącza internetowe będzie biegł w trzech prędkościach. Uprzywilejowany będzie ruch kierowany z usług specjalnych, neutralny będzie przepływ dla pozostałych usług, natomiast spowalniany może być transfer danych z urządzeń internetu rzeczy.

Wstęp

Neutralność sieci (inaczej zwana otwartym internetem) to jeden z postulatów dotyczących funkcjonowania globalnej sieci. Oznacza, że wszystkie przekazy elektroniczne przechodzące przez sieć powinny być traktowane jednakowo, bez dyskryminacji (w miarę możliwości – technicznie jest to trudne do osiągnięcia, obowiązują też różne plany taryfowe), niezależnie od rodzaju przesyłanej treści, aplikacji czy usługi, za pomocą której wysłano komunikat, urządzeń, z których go wysłano, czy adresu nadawcy lub odbiorcy. W skrócie polega ona na tym, że użytkownicy sieci mogą jednocześnie korzystać z różnych serwisów internetowych, a dostawcy nie dyskryminują ruchu z lub do żadnego portalu.

Znaczenie neutralności najlepiej zobrazować na przykładzie. Wyobraźmy sobie, że poczta doręcza nam tylko niektóre listy albo, że operator sieci telekomunikacyjnej przekazuje do nas tylko wybrane połączenia telefoniczne. Równie niebezpieczna byłaby praktyka wybiórczego dostarczania wody, gazu czy prądu mieszkańcom. Podobnie jest z usługą dostępu do internetu. Dostawcy mogą spowodować, że jedne strony będą otwierały się wolniej niż inne, albo że nie będą uruchamiały się w ogóle.

Jakie są sposoby ograniczania równości ruchu?

Omawiając zasadę neutralności, należy rozpocząć od roli dostawców dostępu do internetu (ang. Internet service providers, ISP). Stosują oni zwykle trzy metody ograniczenia przepływu danych na swoich łączach: (i) dławienie, (ii) blokowanie i (iii) płatne uprzywilejowanie ruchu (w kolejności od środków najostrzejszych do najłagodniejszych).

Blokowanie może przybrać charakter ekstremalny i polegać na odmowie podłączenia do sieci. To jednak raczej się już nie zdarza. Natomiast możliwe jest, że dostawca dostępu do internetu zablokuje dostęp do poszczególnych serwisów.

Dławienie ruchu ma na celu uniknięcie zarzutu blokowania. Dostawca dostępu do internetu umożliwia technicznie korzystanie z danego serwisu internetowego, ale zwalnia transfer na tyle, że efektywne korzystanie jest niemożliwe. Dławienie może odbywać się ze względu na źródło (np. treści od konkretnego dostawcy), cel (np. do konkretnego konsumenta) czy treść (np. filmy pornograficznie). Dławienie, co do skutku jest zatem równoznaczne z blokowaniem.

Obie czynności, czyli blokowanie i dławienie, są co do zasady zakazane. Jednakże jest to zakaz względny, ograniczony przez zasadę rozsądnego zarządzania siecią, co jest uprawnieniem ISP, jako administratora infrastruktury. Ten wyjątek nie ma jednak zastosowania do trzeciego rodzaju czynności, która ma wyłącznie charakter komercyjno-techniczny, pozwalający na utrzymanie sprawności sieci.

Płatne uprzywilejowanie określa działania dostawcy dostępu szerokopasmowego polegające na bezpośrednim lub pośrednim przyspieszaniu ruchu w jednej usłudze wobec innej. ISP mogą stosować przy tym takie narzędzia jak: modelowanie ruchu, priorytetyzacja, rezerwacja zasobów i inne rodzaje zarządzania ruchem w zamian za wynagrodzenie lub na korzyść podmiotu powiązanego z dostawcą dostępu do internetu.

Zasada neutralności sieci. Kto decyduje o kształcie internetu?

Przeciwdziałać takim praktykom ISP ma zasada neutralności sieci. Została zdefiniowana w aktach prawnych dopiero w XXI w., natomiast sama idea neutralności usługodawców komunikacyjnych narodziła się już w 1860 r. w Stanach Zjednoczonych. W Pacific Telegraph Act, ustawie dotyczącej linii i połączeń telegraficznych, pojawił się przepis po raz pierwszy odnoszący się do omawianego problemu: wiadomości otrzymane od jakiejkolwiek osoby, firmy czy korporacji lub od jakiejkolwiek linii telegraficznej łączącej tę linię na którymkolwiek końcu, powinny być przesyłane bezstronnie, w kolejności ich otrzymania […].

 

W Stanach Zjednoczonych debata na temat neutralności sieci trwa już od ponad dwudziestu lat. Pierwszym aktem, w którym znalazły się przepisy dotyczące neutralności sieci, był Internet Freedom and Nondiscrimination Act z 2006 r. Zabraniał on modyfikowania przesyłanych treści i ograniczania przesyłu, z wyjątkiem wirusów czy spamu. Obecnie trwa zagorzały spór o unormowanie tego zagadnienia. Po długiej dyskusji Federal Communications Commission, agencja rządu federalnego, 26 lutego 2015 r. przyjęła zasady dotyczące promowania i ochrony otwartego internetu. Komisja zdecydowała się uznać dostawców dostępu do internetu za tzw. dostawców usług powszechnych (ang. common carrier), co przesądziło o przyjęciu zasady neutralności sieci. W ich myśl zakazane jest blokowanie, dławienie i płatne uprzywilejowanie ruchu przez dostawców dostępu do internetu. Dostawcy nie mogą też oferować „szybkich linii” (ang. fast lanes), czyli usługi polegającej na wyborze lepszego dostępu do określonych treści dla wybranych użytkowników sieci. Zasady te weszły w życie 12 czerwca 2015 r. Jednakże w związku z powołaniem nowego prezesa FCC Ajita Varadaraja Pai, rozważane jest rychłe uchylenie zasad dotyczących neutralności sieci w Stanach Zjednoczonych.

Podstawę dla wdrożenia ww. zasad stanowiły przepisy dwóch ustaw: znowelizowanego Tytułu II Communications Act z 1934 r. i Sekcja 706 z Telecommunications Act z 1996 r. Ten pierwszy dokument definiuje pojęcie dostawcy usługi powszechnej i w Sekcji 202 zakazuje jakiejkolwiek dyskryminacji użytkowników internetu[1]. Mimo odmiennego zdania operatorów i korporacji telekomunikacyjnych po wejściu w życie zasad dotyczących otwartego internetu zostały one utrzymane w mocy przez federalny Sąd Apelacyjny dla Dystryktu Kolumbii w wyroku z 14 czerwca 2016 r.

W Unii Europejskiej pierwotnie kwestie związane z usługami telekomunikacyjnymi i przesyłem danych przez operatorów regulowane były w pięciu dyrektywach z 2002 r. Z czasem zaczęto tworzyć konkretne przepisy dotyczące zasady neutralności sieci. W 2009 r. na podstawie rozporządzenia 1211/2009 powstał BEREC (ang. Body of European Regulators of Electronic Communications), zrzeszający organy nadzoru nad rynkiem łączności elektronicznej z państw członkowskich. Członkiem BEREC jest m.in. Prezes UKE.

Od niedawna kwestię neutralności sieci normuje unijne rozporządzenie 2015/2120. Artykuł 3 ust. 3 rozporządzenia ustanawia zasadę neutralności sieci w Unii Europejskiej: dostawcy usług dostępu do internetu, w czasie świadczenia usług dostępu do internetu, traktują wszystkie transmisje danych równo, bez dyskryminacji, ograniczania czy ingerencji, bez względu na nadawcę i odbiorcę, konsultowane lub rozpowszechniane treści, wykorzystywane lub udostępniane aplikacje lub usługi, lub też na wykorzystywane urządzenia końcowe. Ponieważ jednak brzmienie przepisów rozporządzenia nie jest jasne i zarówno operatorzy, jak i usługodawcy opierając się tylko na nich mogli naruszać zasadę neutralności, 30 sierpnia 2016 r. BEREC wydał wytyczne dotyczące interpretacji rozporządzenia 2015/2120.

Dlaczego wytyczne są tak istotne? W państwach członkowskich UE to przede wszystkim do krajowych organów nadzoru należy wdrożenie zasady neutralności sieci, a BEREC je skupia. Do jakich kwestii odniósł się zatem BEREC w swoich wytycznych i co wzbudzało największe kontrowersje? Przede wszystkim z rozporządzenia 2015/2120 nie wynikało, jak należy interpretować neutralność w kontekście trzech zagadnień: zarządzania ruchem, usług specjalistycznych i zero-ratingu. Wszystkie trzy działania godzą w zasadę neutralności sieci, ale mogą być uzasadnione. Zarządzanie ruchem przez ISP polega na uprzywilejowanym traktowaniu wybranych użytkowników. Usługi specjalistyczne to koncept, który promowała kanclerz Angela Merkel. Dzięki podziałowi na wolny internet i usługi specjalistyczne niektóre kluczowe branże jak telemedycyna czy autonomiczne pojazdy będą traktowane lepiej przez operatorów. Zero-rating z kolei oznacza, że wybrane usługi są oferowane za darmo, jako że nie liczą się do wykupionego transferu danych.

Jak zatem powyższe kwestie uregulował BEREC? Z wytycznych wynika, że zakazane jest naruszanie zasady neutralności sieci, jednakże z pewnymi wyjątkami. Zero-rating w pewnych sytuacjach będzie dopuszczalny, np. przy stosowaniu stawki zerowej do całej kategorii aplikacji. Zarządzanie ruchem będzie możliwe, musi tylko być przejrzyste, niedyskryminacyjne i proporcjonalne. Zgodnie z wytycznymi równoważne kategorie ruchu powinny być traktowane tak samo – dostawcy mogą różnicować prędkość ruchu, ale tylko pomiędzy obiektywnie różnymi kategoriami ruchu. Z kolei usługi specjalistyczne mogą być dostarczane z powodów optymalizacyjnych, w celu spełnienia wymagań dla określonego poziomu jakości usługi. Z wytycznych wynika, że UE będzie dążyła do bardziej restrykcyjnego unormowania zasady neutralności, a odstępstwa od niej muszą mieć solidną podstawę w konieczności i proporcjonalności takiego działania.

Co nowego wnosi internet rzeczy?

Usankcjonowany w ostatnich latach w Stanach Zjednoczonych oraz Unii Europejskiej stan prawny może się jednak zmienić za sprawą kolejnej zmiany technologicznej. Mowa o upowszechnieniu internetu rzeczy, które z dużym prawdopodobieństwem wymusi pewne zmiany w prawnym unormowaniu zasady neutralności sieci.

Internet rzeczy polega na upowszechnieniu systemów wbudowanych (ang. embedded systems), czyli rozwiązań polegających na ścisłym powiązaniu sprzętu z oprogramowaniem. Oznacza to wprowadzenie świata cyfrowego w namacalną rzeczywistość, przez co rozmyje się rozróżnienie na świat wirtualny i realny. Opisywane zjawisko oznacza pojawienie się programów komputerowych zespolonych z urządzeniami codziennego, konsumenckiego użytku, które z kolei będą wyposażone w stałe połączenie internetowe i często będą mieć własne adresy IP w wersji szóstej (IPv6). IPv6 wymaga tworzenia 128-bitowych adresów (obecne adresy IPv4 są 32-bitowe), co pozwoli na nadanie indywidualnych numerów miliardom nowych urządzeń.

Inteligentne urządzenia tworzące internet rzeczy można podzielić na dwie grupy. W pierwszej znajdą się wszystkie te, które mają zastosowanie w przemyśle. Przykładowe zastosowanie to śledzenie obiegu towarów w logistyce czy automatyczne wykrywanie awarii. Nie zawsze urządzenia z tej grupy będą stanowiły internet rzeczy, ponieważ obieg danych może być zamknięty w ramach fabryki czy urządzenia (np. generatora prądu, samolotu). Dopiero kiedy dane będą transferowane poza zamknięty obieg, za pośrednictwem internetu, będziemy mówić o internecie rzeczy.

Natomiast w drugiej grupie umieścić należy urządzenia do użytku konsumenckiego: inteligentne zegarki, ubrania z czujnikami, urządzenia medyczne do diagnostyki oraz inteligentne AGD, np. lodówki czy termostaty.  W tej grupie należałoby również umieścić autonomiczne samochody, testowane obecnie na drogach niektórych państw.

Można dodać, że upowszechnieniu internetu rzeczy sprzyjają zjawiska i technologie już obecne na rynku, takie jak eksploracja danych (ang. Big Data), inteligentne sieci (ang. smart grids) i autonomiczne maszyny.

Dane zbierane i przesyłane przez internet rzeczy

Inteligentne przedmioty będą zbierać ogromną ilość danych. Większość z tych urządzeń będzie podłączona do internetu stale lub będzie łączyć regularnie co jakiś czas lub w przypadku odnotowanych zdarzeń. Pozwoli to na automatyczną wymianę danych między urządzeniami (maszyna do maszyny) i podejmowanie decyzji co do wykorzystania danych, zebranych samodzielnie lub otrzymanych z zewnątrz, w pewnym zakresie poza kontrolą ludzi. Dlatego właśnie używa się nazwy internet rzeczy, zwielokratniając zakres zastosowań    „internetu ludzi”. Inne tożsame z pierwszym pojęcia to internet przedmiotów, internet wszystkiego (ang. Internet of Everything) czy wszechobecne przetwarzanie (ang. pervasive computing lub ubiquitous computing).

Odebrane dane będą niekiedy występować w formie surowej i tak będą przesyłane, jeżeli  urządzenia internetu rzeczy nie będą zaawansowane technicznie. Wynika to z obecnego stanu technologii miniaturyzacji oraz powszechnego i taniego dostępu do internetu. Przedsiębiorcom opłaca się zatem konstruowanie prostych urządzeń diagnostycznych i dalsze przesyłanie danych za pośrednictwem sieci. Przesyłanie danych przez internet od konsumenta do producenta lub między maszynami stanowi punkt styczny między internetem rzeczy a zasadą neutralności sieci.

Kto straci, kto zyska?

Można wyróżnić kilka grup zainteresowanych obecnie problemem neutralności sieci wobec nadejścia internetu rzeczy. Te grupy to: (i) użytkownicy, (ii) producenci urządzeń, (iii) portale społecznościowe, (iv) twórcy aplikacji korzystający z API, (v) dostawcy treści oraz (vi) dostawcy dostępu do internetu (ISP). Kto z wymienionych zyska, a kto straci na ewentualnym zniesieniu zasady neutralności sieci?

Przede wszystkim oczywiste jest, że interesy użytkowników i dostawców dostępu do internetu znajdują się na przeciwstawnych biegunach. Dla użytkowników korzystne jest utrzymanie neutralności sieci, ponieważ ta zasada pozwala na surfowanie po sieci, czyli tak naprawdę dowolne i natychmiastowe przechodzenie między usługami różnych dostawców treści. Natomiast dla ISP korzystniejsze będzie płatne uprzywilejowanie ruchu, ponieważ obecnie zarabiają oni niewiele w stosunku do dostawców treści.

W grupie beneficjentów zasady neutralności można umieścić, obok użytkowników, również producentów urządzeń i twórców aplikacji zewnętrznych. Będą to niezależni wobec dostawców treści i ISP twórcy, którzy znajdują nowe zastosowania dla przedmiotów internetu rzeczy. Proponują nowe usługi, takie jak coraz popularniejsze urządzenia monitorujące (ang. lifelogging lub quantified self) wykorzystywane dla celów medycznych czy dla budowania sprawności fizycznej. Zrozumiałe, że tworząc nową podaż, będą chcieli otwartej sieci dla swoich potencjalnych użytkowników.

Z kolei w grupie przeciwników neutralności sieci, obok dostawców dostępu do sieci, znajdą się również portale społecznościowe oraz dostawcy treści. W przypadku tych ostatnich chodzi oczywiście o usługodawców, których treści są obciążające dla przepływu danych, czyli np. o serwisy streamingowe.

Wydawałoby się, że siły są wyrównane: trzy do trzech. Jednak po jednej stronie są użytkownicy, niezależni twórcy aplikacji oraz producenci urządzeń, a po drugiej portale społecznościowe, dostawcy treści oraz dostawcy dostępu do internetu. Jasne jest, że rozkład sił jest nierówny. Asymetria ta tłumaczy interwencję amerykańskiego rządu federalnego i instytucji unijnych. Czy była to słuszna inicjatywa?

Nadchodzą problemy

W „internecie ludzi” zasada neutralności sieci nie budziła wątpliwości. Czy można ją utrzymać w internecie rzeczy? Wydaje się to mało prawdopodobne.

Wzrost popularności urządzeń internetu rzeczy sprawi, że łącza internetowe zostaną obciążone w stopniu nieporównywalnie większym niż dziś. Jednocześnie w przypadku komunikacji autonomicznej, maszyna do maszyny, wzrośnie konieczność zapewnienia niezawodności pewnych usług, opartej na stałym i nieawaryjnym dostępie do internetu. Już dziś można przywołać przykład autonomicznego samochodu, który przy zerwaniu połączenia internetowego powoduje śmiertelny wypadek. Podobnie kluczowe dla bezpieczeństwa ludzi może być przesyłanie danych z inteligentnych liczników poboru energii, które pozwolą na racjonalne zarządzanie siecią energetyczną w czasie kryzysu. Dlatego postulat Angeli Merkel, żeby wprowadzić priorytet dla usług specjalnych, nie jest tak prosty do odrzucenia w świecie internetu rzeczy.

Poza jednak usługami specjalnymi z transferu danych będą również korzystały urządzenia świadczące błahe usługi. Przykładem są choćby gadżety pozwalające na dokładne śledzenie postępów treningowych. Podobnie jest z wieloma urządzeniami inteligentnego AGD. Dane generowane przez te źródła nie są kluczowe z punktu widzenia publicznego bezpieczeństwa i porządku. Dlatego można wyobrazić sobie duszenie ruchu z tych urządzeń. To jednak wiązałoby się ze zniesieniem zasady neutralności sieci.

Wobec takiej konieczności być może rozwiązania należy szukać gdzie indziej, w dziedzinach prawa o dłuższej tradycji niż zasada neutralności sieci, np. w prawie konkurencji i prawie rynków regulowanych. Dzięki instytucjom tego pierwszego można by chronić konkurentów przed nadużyciem pozycji dominującej albo nawet rozważyć dzielenie podmiotów utrzymujących taką pozycję. To ostatnie rozwiązanie było w przeszłości stosowane nawet w ojczyźnie gospodarki wolnorynkowej, a jednocześnie prawa konkurencji. Najsłynniejszym przykładem jest podział spółki stworzonej przez Johna D. Rockefellera, Standard Oil Co. Inc., na wiele mniejszych działających do dziś. Z kolei narzędzia prawne wywodzące się z rynków regulowanych (takich jak telekomunikacja, energetyka, poczta, kolej) wskazują na możliwości nakładania publicznoprawnych obowiązków na przedsiębiorców. Może zatem należy użyć sprawdzonych narzędzi wobec nowych podmiotów wyniesionych na fali internetowej hossy pierwszej dekady wieku?

Aleksandra Lisicka, Wojciech Rzepiński

1 W wyjątkowych przypadkach dopuszczone jest blokowanie – np. stosowanie filtrów rodzicielskich (section 230 Communications Act).