Najsłynniejszy argument za tym, żeby stosować sztuczną inteligencję i algorytmy w sądach? To tzw. Efekt głodnego sędziego. Wg naukowej pracy izraelskiej z 2011 roku surowość orzeczeń rośnie bliżej oczekiwanej przerwy obiadowej.

Im orzekające osoby są głodniejsze, tym są surowsze. Po przerwie obiadowej orzeczenia ponownie stają się łagodne. Algorytmy nie są głodne. I nie denerwują się.
Co by było, gdyby sądy na masową skalę stosowały sztuczną inteligencję zarówno jako narzędzie wspomagające wydawanie wyroków, jak i narzędzie do monitorowania i analizowania zachowań osób oskarżonych? Czy dałoby to wyłącznie korzyści, czy są też jakieś ryzyka?
Na to pytania wspólnie poszukiwały odpowiedzi dwie brytyjskie instytucje, The Alan Turing Institute oraz Northumbria University’s Centre for Evidence and Criminal Justice Studies. Tu można przeczytać wnioski z ich wspólnej, roboczej konferencji naukowej na ten temat. Temat zainteresował mnie bardzo. W pewnej kontrze znalazłem inny tekst na ten temat: Beware the Lure of Narratives: “Hungry Judges” Should Not Motivate the Use of “Artificial Intelligence” in Law.
Oto niektóre z najciekawszych obserwacji z tych tekstów, z moim komentarzem.
- AI może przynieść pewne korzyści, takie jak przeciwdziałanie potencjalnym uprzedzeniom sędziowskim. Sztuczna inteligencja teoretycznie powinna być wolna od niektórych uprzedzeń, które ilustruje też inna, równie głośna praca, wykazująca związek między surowością wyroków lokalnych sądów amerykańskich a niespodziewanymi przegranymi lokalnej drużyny futbolowej. Irytująca przegrana rzekomo wywoływała surowsze wyroki, szczególnie dla czarnoskórych podsądnych. Choć wnioski z obydwu prac są krytycznie przyjmowane, to nikt jednak nie kwestionuje samego faktu istnienia uprzedzeń wśród personelu sędziowskiego – to też są ludzie a ludzie mają swoje uprzedzenia.
- Zastosowanie AI może wiązać się np. z niemożnością wyjaśnienia podjętych decyzji bez odpowiedniego uzasadnienia. To zjawisko nazywane jest syndromem czarnej skrzynki, gdyż w tej chwili zbyt mała jest wiedza na temat tego, dokładnie jak pracują sieci neuronowe. Brak tej wiedzy sprawia m.in, że dostawcy usług AI nie potrafią np. wyczerpująco odpowiedzieć na pytania, jak ich algorytmy przetwarzają dane osobowe. Konieczność rozwoju wiedzy w tym kierunku została wpisana do unijnych dokumentów. W kontekście wyroków to oznaczałoby ograniczenie prawa do obrony.
- AI może nie zauważyć faktu, że dokładnie takie samo przestępstwo popełnione wobec dwóch różnych ofiar będzie miało różne skutki. Zrabowanie 1000 złotych osobie biednej i osobie bogatej to mogą być dwie, odmienne sytuacje, zasługujące na dwa, odmienne wyroki. Eksperci i ekspertki obawiają się mechanicznie wydawanych wyroków.
- AI jest budowane, szkolone i weryfikowane na istniejących danych, co może stwarzać fałszywe poczucie obiektywności i w rezultacie nadmierne zaufanie do wyników. Kiepskie dane na wejściu, kiepskie dane na wyjściu. Garbage In – Garbage Out. W tym sensie sztuczna inteligencja nie naprawi wymiaru sprawiedliwości, który tworzy złą dokumentację i produkuje fałszywe dane, obarczone zniekształceniami.
- Możliwe jest zjawisko nadmiernego polegania na AI stąd potrzeba treningu personelu oraz zrozumienia ograniczeń sztucznej inteligencji. Z jednej strony mówi się, że sztuczna inteligencja może pomóc w sytuacji przeciążenia pracą. Z drugiej jednak przeciążony personel może zbytnio polegać na sztucznej inteligencji.
- AI może być szczególnie przydatne dla sądownictwa w śledzeniu i analizie ich nawyków skazywania, pomagając im ocenić własne potencjalne ukryte uprzedzenia i korygować je poprzez szkolenia. Tym bardziej, że maszynowe uczenie szczególnie dobrze sprawdza się w wychwytywaniu wzorów i zależności.
Zastosowanie algorytmów w sądownictwie już ma miejsce i choć mowa o Ameryce, gdzie system prawny jest specyficzny, to wnioski są do pewnego stopnia zbieżne z europejskimi i brytyjskimi obawami. W amerykańskich sądach stanów New York, California, Wisconsin i Florida od paru lat używane jest oprogramowanie COMPAS, które na podstawie historii osoby sądzonej ocenia ryzyko recydywy. Algorytmy podają szacowane ryzyko tego, czy dana osoba ponownie popełni przestępstwo. Znalazłem informację, że w stanie Wisconsin algorytm nie może służyć jako źródło argumentów na rzecz zaostrzenia czy złagodzenia wyroku. Wyniki analizy COMPASu w tym stanie skutkują uruchomieniem procedur sprawdzających i monitorujących sprawę lub osobę.
To ograniczenie roli programu w stanie Wisconsin jest efektem sprawy Loomis vs Wisconsin. Chodziło w niej o to, czy algorytm COMPAS, zabezpieczony tajemnicą handlową oraz działający wg nieznanych bliżej zasad ogranicza prawo do obrony. Pan Loomis został skazany na 6 lat więzienia a sędzia wydając wyrok podjął decyzję również na podstawie oceny ryzyka wystawioną przez COMPAS. Ostatecznie Loomis przegrał, bo domagał się możliwości analizy kodu źródłowego a tej możliwości sąd mu odmówił. Co ciekawe, firma produkująca ten program faktycznie nie zdradza tego, dokładnie jak działają algorytmy. Odmawiają odpowiedzi zasłaniając się tajemnicą handlową. Sąd apelacyjny odrzucił skargę Loomisa, ale też ograniczył stosowanie programu.
Głośny tekst sprzed kilku lat zarzucał programowi COMPAS działanie na podstawie uprzedzeń a w zasadzie reprodukcję uprzedzeń z danych sądowych. Opisano historię dwóch kolegów, którzy popełnili razem przestępstwo i zabrali małemu dziecku rower. Jeden z panów był Afroamerykaninem a drugi był biały. Choć Afroamerykanin nie miał tak bogatej kartoteki jak jego biały kolega, to właśnie on został oceniony przez program jako bardziej prawdopodobny recydywista. Biały tymczasem, który miał na koncie rabunek z użyciem broni palnej oraz próbę rabunku z bronią oceniony został przez algorytmy, jako lepiej rokujący. Po paru latach wiadomo, że program raczej się pomylił. Afroamerykanin nie miał ponownego kontaktu z wymiarem sprawiedliwości. Biały tymczasem odsiaduje kolejny wyrok, znacznie surowszy niż poprzednie.
W tym momencie człowiek chciałby zapytać: A w Polsce?!
Wydaje się, że w Polsce jeszcze nie korzystamy z informatyzacji w sposób bardziej podstawowy więc ciężko rozmawiać o wprowadzaniu sztucznej inteligencji czy bardziej złożonych algorytmów.
Polski wymiar sprawiedliwości się digitalizuje. Stopniowo przechodzi z papieru na dokumenty elektroniczne. Swój system cyfrowych akt ma prokuratura i nazywa się Prok-Sys. Sądy mają swoje systemy, m.in Portal Informacyjny Sądów Powszechnych i korzystają też systemu Currenda. Do tego dochodzą systemy EUKW (księgi wieczyste), system EKRK (Krajowy Rejestr Karny), KRZ (Krajowy Rejestr Zadłużonych).
Jednak te systemy nie są zintegrowane. Oprócz tego polskie sądy coraz częściej stosują system rozpoznawania mowy, który zapisuje przebieg rozpraw, ale podobno jakość pracy systemu jest nierówna – domyślam się, że akustyka sali, hałas na sali czy nawet wady wymowy mogą utrudniać zapis. Wideo-zapis rozpraw nie jest powszechnie dostępny oraz zintegrowany z systemami.
Co bardzo ważne, różne jednostki w różny sposób wykorzystują te systemy, nie wykorzystując ich pełnych możliwości. Np Sąd Warszawa-Praga jest być może jedynym sądem w Polsce, który skanuje dokumenty i wrzuca do systemu – tak przynajmniej twierdzi znajomy adwokat, który dużo podróżuje po Polsce uprawiając „turystykę procesową” .
Rozumiem więc chyba czemu mało ambitne cele stawia tekst Sztuczna inteligencja w służbie polskiego sądu – propozycje rozwiązań z kwartalnika Justitia z sierpnia 2021 roku:
„(…) dla poprawy działania sądów nie są potrzebne reformy ustrojowe ani proceduralne, a szereg drobnych udogodnień technologicznych, które po łącznym wdrożeniu zaowocują ogromną oszczędnością czasu pracowników sądownictwa.” – sędzia Michał Kotalczyk, Iustitia 2(44)/2021
Autor pisał o automatyzacji wyznaczania dat rozpraw, automatycznym powiadamianiu stron i o inteligentnych formularzach czy kalendarzach sądowych.