Przejdź do treści

GARIN AI Spółka Akcyjna

Strona główna » AI w sądzie: konsekwencja algorytmu kontra sens sprawiedliwości

AI w sądzie: konsekwencja algorytmu kontra sens sprawiedliwości

Eksperyment z udziałem sędziów federalnych i dwóch modeli AI pokazał, że „poprawność” wyroku zależy od tego, czy liczymy litery prawa, czy jego społeczną funkcję. To otwiera debatę o granicach automatyzacji w wymiarze sprawiedliwości.

Eksperyment, który podważa intuicje

W Stanach Zjednoczonych przeprowadzono test, który w prosty sposób dotknął jednego z najtrudniejszych pytań współczesnego prawa: czy sprawiedliwość to bezwzględna konsekwencja w stosowaniu reguł, czy raczej umiejętność korygowania ich skutków w wyjątkowych sytuacjach. Do badania zaproszono 61 sędziów federalnych oraz dwa najnowsze duże modele językowe. Wszyscy dostali tę samą, hipotetyczną sprawę odszkodowawczą.

Sednem zadania nie było „wzruszające” rozstrzygnięcie, lecz techniczna decyzja typu choice-of-law: które prawo stanowe należy zastosować przy wyliczaniu zadośćuczynienia za ból i cierpienie po wypadku samochodowym. W zależności od wyboru jurysdykcji, poszkodowana mogła otrzymać pełną kwotę 750 tys. dolarów albo zostać ograniczona limitem 250 tys. dolarów.

Prawo jako reguła i prawo jako korekta

Różnica między dwoma stanami była kluczowa: w jednym obowiązywał ustawowy „sufit” dla określonej kategorii świadczeń, w drugim takiego ograniczenia nie było. Badacze zmieniali konfiguracje faktów dotyczących miejsca zdarzenia i miejsca zamieszkania stron, a następnie sprawdzali, jak uczestnicy przechodzą przez ten sam zestaw dokumentów i przepisów.

To właśnie w takich sprawach widać, że prawo nie jest wyłącznie tabelą z instrukcją „jeśli–to”. System prawny bywa projektowany tak, aby pozostawić przestrzeń na interpretację, a czasem także na złagodzenie skutków zbyt ostrych reguł. Tyle że ta elastyczność jest jednocześnie siłą i słabością: pozwala reagować na realne krzywdy, ale otwiera drzwi do niekonsekwencji.

Formalizm algorytmu kontra realizm człowieka

Wynik eksperymentu okazał się dla wielu obserwatorów niewygodny. Modele AI w każdym przypadku wskazywały rozwiązanie zgodne z literalnym odczytaniem przepisów. Sędziowie federalni trzymali się tak rozumianej „litery” jedynie w około połowie rozstrzygnięć.

Skąd ta rozbieżność? Algorytm nie reaguje na drastyczny opis obrażeń ani na intuicyjne poczucie, że obcięcie świadczenia o pół miliona dolarów jest moralnie trudne do zaakceptowania. Człowiek reaguje — czasem świadomie, czasem podskórnie — i potrafi poszukiwać takiej ścieżki interpretacyjnej, która lepiej „pasuje” do odczuwanej sprawiedliwości. To klasyczne napięcie między formalizmem a realizmem prawniczym: pierwszy broni spójności systemu, drugi próbuje chronić jego sens.

Czy to znaczy, że AI „orzeka lepiej”?

Łatwo ulec pokusie prostego wniosku: skoro AI jest bardziej konsekwentna, to jest bardziej bezstronna, a więc lepsza. Problem w tym, że konsekwencja nie zawsze równa się sprawiedliwości. Jeśli prawo celowo pozostawia margines uznania, to mechaniczne domknięcie go przez algorytm może dać wynik formalnie poprawny, ale społecznie trudny do obrony.

W dodatku sam eksperyment — choć efektowny — nie rozstrzyga, jak AI zachowa się w świecie pełnym niejednoznacznych faktów, braków w aktach, sprzecznych zeznań i „szumu” dowodowego. Modele językowe świetnie radzą sobie z porządkowaniem reguł i wyszukiwaniem zależności, ale nie są magicznym substytutem procesu dowodowego ani odpowiedzialności instytucjonalnej.

Polskie realia i twarde bariery prawne

W polskiej dyskusji o „sędzim-algorytmie” szybko pojawia się argument, którego nie da się ominąć technologią: konstytucyjne i europejskie standardy prawa do sądu. W obecnym porządku prawnym wymóg niezależnego i bezstronnego sądu ustanowionego ustawą jest rozumiany jako sąd z udziałem człowieka. To oznacza, że pełna automatyzacja orzekania nie jest kwestią wdrożenia, lecz zmiany fundamentów.

Istotne jest też to, że polskie prawo w wielu obszarach operuje klauzulami generalnymi i pojęciami ocennymi, które służą właśnie korygowaniu „twardych” reguł. W takim środowisku różnica między literalnym formalizmem a praktyką orzeczniczą może wyglądać inaczej niż w amerykańskim teście — a liczba decyzji uznawanych za „odejście od reguły” nie musi być równie wysoka.

AI jako asystent, nie jako arbiter

Najbardziej realistyczny scenariusz na najbliższe lata nie dotyczy zastąpienia sędziów, lecz odciążenia ich w pracy. AI może przyspieszać analizę akt, porządkować materiał, wyszukiwać orzecznictwo, wskazywać rozbieżności, a nawet pomagać w tworzeniu projektów uzasadnień czy pism procesowych. To obszary powtarzalne, czasochłonne i podatne na ludzkie zmęczenie.

Taka rola „asystenta sędziego” ma też wymiar systemowy: jeśli technologia skróci czas postępowań, poprawi dostęp do informacji i ujednolici standardy formalne, może realnie zwiększyć przewidywalność i sprawność sądów. Ale warunek jest jeden: człowiek musi zachować kontrolę nad decyzją i jej uzasadnieniem.

Ryzyka: uprzedzenia, bezkrytyczność i utrata zaufania

W europejskim podejściu do regulacji technologii nieprzypadkowo systemy AI używane w wymiarze sprawiedliwości są klasyfikowane jako wysokiego ryzyka. Chodzi nie tylko o błędy, ale o błędy, które mogą stać się masowe i powtarzalne. Jeśli dane treningowe niosą uprzedzenia, algorytm potrafi je „zautomatyzować” i nadać im pozór obiektywności.

Drugie zagrożenie to tzw. automation bias: skłonność ludzi do przyjmowania podpowiedzi systemu jako domyślnie lepszej. W sądzie może to oznaczać mniej samodzielnej analizy i większą podatność na „autorytet” narzędzia. Trzecia stawka jest społeczna: legitymizacja wymiaru sprawiedliwości. Strony sporu chcą mieć poczucie, że ktoś je wysłuchał i zrozumiał — a nie tylko przeliczył.

Czego uczy ten spór o „ślepą sprawiedliwość”

Eksperyment z USA pokazuje, że AI może być bardziej przewidywalna niż człowiek, ale jednocześnie bardziej bezwzględna wobec skutków. To nie jest drobna różnica w stylu pracy — to różnica w filozofii prawa. Jeśli uznamy, że ideałem jest absolutna wierność regułom, algorytm wygląda jak spełnienie marzeń. Jeśli jednak uważamy, że prawo ma także łagodzić skrajności i uwzględniać kontekst, człowiek pozostaje niezastąpiony.

W praktyce najrozsądniejsza droga leży pośrodku: budować narzędzia, które wzmacniają rzetelność i tempo pracy sądów, ale nie przenoszą odpowiedzialności za wyrok na system statystyczny. Bo nawet jeśli algorytm „nie męczy się i nie głodnieje”, to wciąż nie on ponosi konsekwencje decyzji — i nie on odpowiada przed obywatelami.

Oryginalny tekst: AI kontra ludzcy sędziowie. Eksperyment z USA zaskoczył badaczy