Przejdź do treści

GARIN AI Spółka Akcyjna

Strona główna » AI w wyszukiwarce a zdrowie psychiczne: wygoda, która może szkodzić

AI w wyszukiwarce a zdrowie psychiczne: wygoda, która może szkodzić

Automatyczne podsumowania nad wynikami wyszukiwania mają oszczędzać czas, ale w tematach zdrowia psychicznego potrafią zamieniać złożone kwestie w pozornie pewne „odpowiedzi”. Eksperci ostrzegają, że ta pewność bywa złudna i ryzykowna.

Gdy odpowiedź pojawia się zanim klikniesz

Wyszukiwarki przez lata uczyły użytkowników prostego nawyku: wpisz pytanie, przejrzyj wyniki, wybierz wiarygodne źródło i dopiero wtedy wyrób sobie zdanie. Ten model nie był idealny, ale premiował różnorodność perspektyw i pozwalał dotrzeć do instytucji, poradników czy materiałów przygotowanych przez specjalistów.

Nowy etap to automatyczne „overviews” generowane przez AI, wyświetlane nad linkami. Brzmią rzeczowo, często mają spokojny, „kliniczny” ton i sprawiają wrażenie ostatecznej konkluzji. Problem w tym, że w obszarach wrażliwych – zwłaszcza dotyczących zdrowia psychicznego – taka forma może skracać drogę do informacji w sposób niebezpieczny: użytkownik kończy poszukiwania na półodpowiedzi.

Test, który trwał krócej niż dwie minuty

Organizacja charytatywna zajmująca się zdrowiem psychicznym w Anglii i Walii uruchomiła roczną komisję badającą wpływ AI na ten obszar po dziennikarskim śledztwie dotyczącym podsumowań AI w wyszukiwarce Google. Skala jest ogromna: tego typu moduły mają trafiać do około 2 miliardów osób miesięcznie.

Wewnętrzny test przeprowadzony przez zespół ekspertów ds. informacji zdrowotnej miał trwać 20 minut i opierał się na zapytaniach typowych dla osób w kryzysie lub zmagających się z objawami. W praktyce wystarczyły około dwie minuty, by pojawiły się treści jawnie fałszywe: sugestie, że głodzenie jest zdrowe, że problemy psychiczne wynikają po prostu z „nierównowagi chemicznej” w mózgu, że urojenia prześladowcze są realnym zagrożeniem, czy że większość wniosków o świadczenia z tytułu zaburzeń psychicznych to symulacja. W każdym z tych przypadków przekaz był podany jak neutralny fakt.

Spłaszczanie niuansów i efekt „brzmi wiarygodnie”

Najpoważniejszy zarzut nie dotyczy wyłącznie pojedynczych błędów, ale mechanizmu: AI potrafi „spłaszczać” złożone, delikatne tematy do zgrabnych zdań. Gdy znika kontekst, zastrzeżenia i warunki brzegowe, niemal każda teza może wyglądać na sensowną – zwłaszcza jeśli jest napisana pewnym, spokojnym językiem.

To szczególnie groźne dla osób w stresie, lęku czy obniżonym nastroju. W takim stanie człowiek częściej szuka szybkiego potwierdzenia, prostego wyjaśnienia albo natychmiastowej ulgi. Podsumowanie AI, które brzmi jak autorytatywna porada, może wzmocnić błędne przekonania, utrwalić szkodliwe zachowania lub zniechęcić do kontaktu z profesjonalną pomocą.

Kryzysowe zapytania i chaos zamiast drogowskazów

W obszarze informacji kryzysowej liczy się precyzja: jasne rozróżnienie między objawem a diagnozą, między myślą a planem działania, między wsparciem doraźnym a terapią. Tymczasem w opisywanych przypadkach podsumowania AI potrafiły składać „kolaże” z wielu źródeł, doklejając do siebie sprzeczne wskazówki i długie listy odsyłaczy bez hierarchii.

W praktyce oznacza to, że użytkownik dostaje dużo tekstu, ale mało prowadzenia. A w kryzysie poznawczym – gdy trudno selekcjonować informacje – nadmiar i niespójność mogą działać jak kolejna przeszkoda, nie jak pomoc.

Odpowiedzialność większa niż „naprawianie po zgłoszeniu”

Krytyka uderza też w model reagowania: usuwanie lub „douczenie” systemu dopiero wtedy, gdy błąd zostanie nagłośniony przez organizacje, dziennikarzy czy pojedynczych użytkowników. Taki tryb przypomina grę w „whack-a-mole” – gaszenie pożarów, które wybuchają wciąż w nowych miejscach.

Jeśli narzędzie jest masowo eksponowane i generuje zyski, oczekiwanie jest proste: zasoby na jakość i bezpieczeństwo muszą być proporcjonalne do skali. W zdrowiu psychicznym stawka jest wyższa niż w pytaniach o pogodę czy definicje – błąd może realnie pogorszyć stan osoby szukającej pomocy.

Co działało w klasycznej wyszukiwarce i co można odzyskać

W tradycyjnym modelu wyszukiwania z czasem wprowadzano ograniczenia dla najbardziej szkodliwych treści, np. dotyczących metod samobójczych. To nie rozwiązało problemu w całości, ale budowało barierę ochronną i kierowało użytkownika ku bardziej odpowiedzialnym źródłom.

Podsumowania AI zmieniają jednak punkt ciężkości: zamiast prowadzić do treści, same stają się treścią. Jeśli w tym miejscu pojawia się półprawda, uproszczenie albo fałsz, użytkownik może nawet nie dotrzeć do linków, które by to skorygowały.

Potencjał AI jest realny, ale potrzebuje hamulców

Sztuczna inteligencja może wspierać ludzi: porządkować wiedzę, tłumaczyć trudne pojęcia, podpowiadać pytania do lekarza czy terapeuty, a także ułatwiać dostęp do rzetelnych instytucji pomocowych. Warunek jest jeden: priorytetem musi być bezpieczeństwo, a nie tylko wygoda.

W praktyce oznacza to stałą, a nie doraźną kontrolę jakości, lepsze wykrywanie tematów wysokiego ryzyka, wyraźne sygnalizowanie niepewności oraz projektowanie tak, by użytkownik nie kończył ścieżki na automatycznej „odpowiedzi”. W zdrowiu psychicznym ludzie potrzebują informacji empatycznej, ostrożnej i pełnej niuansów – nie tylko wtedy, gdy system uzna, że są w „ostrym” kryzysie, ale zawsze.

Oryginalny tekst: ‘Very dangerous’: a Mind mental health expert on Google’s AI Overviews