Sztuczna inteligencja nie może przewidywać wyroków sędziów w Francji
O zastosowaniu sztucznej inteligencji w branży prawniczej od dawna pisze się dużo. Także my wspominaliśmy o różnego rodzaju rozwiązaniach tego rodzaju na naszym blogu. Jednym z takich rozwiązań jest tzw. analityka predykcyjna, czyli używanie algorytmów do przewidywania wyroków, które zostaną wydane przez konkretnego sędziego w danym stanie faktycznym. Takie narzędzia opierają się przede wszystkim na analizie orzeczeń wydanych w przeszłości i wyciąganiu z nich różnego rodzaju wniosków, np. w zakresie szans na wygranie sporu.
Niedawno we Francji, wraz z reformą wymiaru sprawiedliwości, wprowadzono zakaz wykorzystywania danych dotyczących tożsamości sędziów w celu oceny, analizowania, porównywania lub przewidywania ich rzeczywistych lub rzekomych praktyk zawodowych. Nieprzestrzeganie tego ograniczenia może skutkować karą do pięciu lat pozbawienia wolności.
Wydaje się, że jest to pierwszy na świecie przykład zakazania przez ustawodawstwo krajowe analityki predykcyjnej w branży prawniczej. Co więcej, nie jest wykluczone, że takie podejście zostanie przyjęte także w innych krajach prawa kontynentalnego. W krajach common law sędziowie wydają się pogodzeni z faktem, że algorytmy sztucznej inteligencji służące do analityki predykcyjnej używają nazwisk sędziów i wskazują, jak dany sędzia prawdopodobnie orzeknie w podobnej sprawie w przyszłości. Jak jednak wskazywano podczas debaty dotyczącej wprowadzenia omawianego przepisu we Francji, sędziowie prawa kontynentalnego obawiają się, że algorytmy wykryją niezgodność wydawanych przez nich orzeczeń z obowiązującymi przepisami prawnymi lub że będzie to mieć negatywny wpływ na ochronę danych osobowych sędziów.
Kluczowym pytaniem jest przede wszystkim to, jak powyższy zakaz wpłynie na podmioty z sektora legal tech. Czy zrezygnują one z wykorzystywania nazwisk sędziów w swoich algorytmach, czy będą je nadal wykorzystywać, bez względu na obowiązujący zakaz? Biorąc pod uwagę surowy wymiar kary przewidziany we francuskich przepisach, druga opcja jest mało prawdopodobna. Przypuszczalnie podmioty te wyjdą z założenia, że nawet nieużywanie nazwisk sędziów nie pozbawia przygotowywanych analiz znaczącej wartości dodanej dla użytkowników. Wprawdzie kusząca jest możliwość przewidzenia wyroku, który może zostać wydany przez konkretnego sędziego, ale nie stanowi ona o istocie działania takich narzędzi. Tym bardziej że algorytmy analityki predykcyjnej mogą ustalić inne elementy istotne dla postępowania, a użytkownik sam, korzystając z powszechnie dostępnych źródeł, może uzupełnić otrzymane wyniki o informacje dotyczące możliwych zachowań dla poszczególnych sędziów (jednak nie jest pewne, czy takie działanie także nie będzie sprzeczne z wprowadzonym zakazem).
Należy się zastanowić, czy wprowadzanie tego rodzaju przepisów jest dobrym rozwiązaniem. Argumenty dotyczące ochrony danych osobowych wydają się o tyle nietrafne, że we Francji nie obowiązuje bezwzględny nakaz usuwania nazwisk sędziów z publikowanych wyroków. Przesłanki wprowadzenia omawianych regulacji zdają się być w opozycji do wartości takich jak np. transparentność i zrozumiałość działania wymiaru sprawiedliwości. Nie uważam jednak, że takie zakazy będą mieć istotny negatywny wpływ na branżę legal tech, ale zapewne doprowadzą, przynajmniej we Francji, do ograniczenia funkcjonalności oferowanych narzędzi.
Katarzyna Szczudlik