Dwa amerykańskie werdykty uderzają w logikę działania mediów społecznościowych: nie chodzi już tylko o treści użytkowników, lecz o systemy, które je podsuwają i wzmacniają. To może zmienić reguły gry także dla rozwiązań opartych na AI.
Dwa wyroki, jeden sygnał ostrzegawczy
W końcówce marca amerykańskie sądy wydały dwa rozstrzygnięcia, które wielu obserwatorów traktuje jak przełom w sporze o realną odpowiedzialność platform internetowych. W jednym postępowaniu ława przysięgłych uznała, że serwis społecznościowy ponosi winę za umożliwienie poważnych szkód na platformie – w tym związanych z wykorzystywaniem seksualnym dzieci – oraz za wprowadzanie użytkowników w błąd co do poziomu bezpieczeństwa.
W drugim procesie, dotyczącym uzależniającego charakteru produktów cyfrowych, zasądzono odszkodowanie na rzecz młodej osoby, która przekonywała, że mechanizmy projektowe i algorytmiczne „wciągały” ją od dzieciństwa, prowadząc do dotkliwych konsekwencji zdrowotnych i życiowych. W tym wątku odpowiedzialność dotknęła nie tylko jedną platformę, ale też serwis wideo, który – według argumentacji – korzysta z podobnej logiki podbijania zaangażowania.
Od „to tylko treści” do „to wasz system”
Najważniejsze w tych sprawach nie jest sama wysokość zasądzonych kwot, lecz kierunek myślenia sądów. Przez lata dominowała narracja, że platformy są jedynie „pośrednikiem”, a więc nie powinny odpowiadać za to, co publikują użytkownicy. W USA tę filozofię wzmacniały przepisy z lat 90., często opisywane jako tarcza chroniąca serwisy przed pozwami dotyczącymi treści.
Tym razem ciężar sporu przesunął się z pojedynczych postów czy filmów na mechanikę rekomendacji: na to, jak działa „silnik” decydujący, co widzimy, w jakiej kolejności i jak często. To różnica fundamentalna. Treści tworzą użytkownicy, ale system rekomendacji – autoodtwarzanie, nieskończony feed, powiadomienia w nocy, podbijanie emocji – to projekt i decyzje po stronie platformy.
Projektowanie uzależnienia jako model biznesowy
W tle obu spraw wraca pytanie, czy uzależniający charakter mediów społecznościowych jest skutkiem ubocznym, czy świadomą strategią. Z ujawnianych w ostatnich latach materiałów – w tym relacji sygnalistów i dokumentów wewnętrznych – wyłania się obraz organizacji, które potrafią bardzo precyzyjnie mierzyć reakcje użytkowników i monetyzować ich wrażliwości.
Szczególnie kontrowersyjny jest wątek nastolatków: analiza zachowań młodych osób, wyłapywanie momentów spadku samooceny i dopasowywanie przekazów reklamowych do chwil największej podatności. Jeśli system potrafi rozpoznać, że ktoś usuwa selfie, bo źle ocenia swój wygląd, a następnie „podsuwa” mu reklamę obiecującą szybką poprawę – to nie jest neutralna technologia. To precyzyjnie skalibrowany mechanizm wpływu.
Gdzie kończy się innowacja, a zaczyna zaniedbanie
Obrońcy platform często odpowiadają, że ograniczenia byłyby „paternalistyczne” i uderzałyby w wolność użytkowników. Problem w tym, że wolność w środowisku zaprojektowanym do maksymalizacji czasu spędzanego w aplikacji bywa iluzją. Jeśli każda zmiana, która realnie zmniejsza ryzyko szkód, przegrywa w wewnętrznych kalkulacjach z nawet minimalnym spadkiem zaangażowania, to priorytety są jasne.
To właśnie ten konflikt – bezpieczeństwo kontra metryki – staje się osią odpowiedzialności. Sądowe rozstrzygnięcia sugerują, że nie wystarczy już mówić: „to użytkownicy publikują”. Jeśli firma świadomie buduje środowisko, które wzmacnia kompulsywne korzystanie, a przy okazji ułatwia krzywdę, może zostać rozliczona za własne decyzje projektowe.
Dlaczego apelacje nie kończą tematu
Oczywiście, te wyroki nie zamykają sporu. Można spodziewać się odwołań i wieloletniej batalii, a w amerykańskim systemie prawnym ostateczne słowo może należeć do Sądu Najwyższego. To daje platformom czas – i pieniądze – by kontynuować dotychczasowy model.
Jednocześnie pojawia się efekt domina: jeśli w kolejce czekają tysiące podobnych spraw, nawet niewielki odsetek skutecznych pozwów może przełożyć się na gigantyczne ryzyko finansowe. W dyskusji publicznej padają wyliczenia sugerujące, że masowe roszczenia – zwłaszcza w formule pozwów zbiorowych – mogłyby doprowadzić do rachunków idących w setki miliardów, a nawet w okolice biliona dolarów.
Europa i „cyfrowa suwerenność” w praktyce
Werdykty z USA są też testem dla reszty świata: czy inne jurysdykcje pójdą podobnym tropem, czy pozostaną przy deklaracjach. Unia Europejska i część państw europejskich dysponują dziś ostrzejszymi ramami regulacyjnymi niż Stany Zjednoczone, ale problemem bywa egzekucja – szczególnie wobec globalnych gigantów.
W ostatnich miesiącach widać jednak rosnącą gotowość do twardszej polityki, opisywanej jako „cyfrowa suwerenność”. Równolegle niektóre kraje sięgają po rozwiązania radykalne, jak ograniczenia wiekowe w dostępie do mediów społecznościowych. To kierunek kontrowersyjny, ale pokazuje, że cierpliwość wobec kosztów społecznych technologii się kończy.
Nowy front: AI i odpowiedzialność za system
Najciekawsze konsekwencje mogą dotyczyć nie „starych” platform, lecz tego, co szybko rośnie obok nich: narzędzi generatywnych i agentów AI. Jeśli sądy uznają, że firma odpowiada za działanie systemu rekomendacji, to analogiczna logika może zostać zastosowana do systemów AI – bo one również są projektowane, trenowane i wdrażane przez ludzi.
Gdy chatbot generuje przemocowe treści, tworzy fałszywe intymne materiały z wizerunkiem realnych osób albo ułatwia nękanie, pojawia się pytanie: czy to „wina użytkownika”, czy przewidywalny skutek decyzji o danych treningowych, filtrach bezpieczeństwa, ustawieniach domyślnych i sposobie dystrybucji? Spory już trafiają do sądów, a argument „to tylko narzędzie” może okazać się równie kruchy jak dawny argument „to tylko platforma”.
Co dalej: mniej bezkarności, więcej standardów
Te amerykańskie rozstrzygnięcia nie są magiczną różdżką. Nie naprawią automatycznie internetu ani nie sprawią, że modele biznesowe oparte na uwadze nagle staną się etyczne. Mogą jednak wymusić zmianę języka i praktyki: od PR-owych deklaracji o „dbaniu o społeczność” do twardych standardów projektowania, audytów ryzyka i realnych kosztów zaniedbań.
Jeśli platformy mają dalej kształtować to, co wiemy o świecie, jak rozmawiamy i jak postrzegamy siebie, to muszą liczyć się z tym, że prawo zaczyna interesować się nie tylko tym, co ludzie publikują, ale też tym, co systemy podpowiadają. A to oznacza, że era bezpiecznego schowania się za „neutralną technologią” może dobiegać końca.
Oryginalny tekst: At last, David has landed a double punch on the tech Goliaths. Now to hit them even harder | Jonathan Freedland