Coraz więcej osób nawiązuje bliskie relacje z chatbotami i wirtualnymi asystentami, co budzi pytania o granice intymności i ryzyka związane z emocjonalnym zaangażowaniem w sztuczną inteligencję.
Emocjonalny chatbot
Sztuczna inteligencja coraz częściej wkracza w sferę naszych emocji, nie tylko jako narzędzie, ale jako partner do rozmów, przyjaciel czy nawet terapeuta. James Muldoon, socjolog z Oxford Internet Institute, w swojej książce „Love Machines” analizuje, jak ludzie nawiązują głębokie więzi z AI i jakie konsekwencje niesie za sobą ta nowa forma relacji.
Boty nie tylko jako pomocnicy
Wielu użytkowników traktuje chatboty nie jako prostych asystentów, lecz jako istoty oferujące bezwarunkową akceptację i wsparcie. Przykłady takie jak Lily, która odnajduje wirtualnego chłopaka, czy Sophia, korzystająca z AI, by radzić sobie z presją rodziny, pokazują, że te relacje pełnią różnorodne funkcje – od emocjonalnego wsparcia po eksplorację tożsamości.
Fenomen ten można częściowo wyjaśnić koncepcją „alief”, czyli sprzeczności między racjonalnym poznaniem a głębokim, automatycznym odczuciem. Ludzie potrafią odczuwać bliskość i miłość do AI, mimo świadomości, że to jedynie programy. W kontekście rosnącej samotności i kryzysu kosztów życia, popularność takich relacji nie dziwi.
Uczucia w maszynie
Krytyczna perspektywa Muldoona skupia się na moralnych i etycznych wyzwaniach, jakie niesie ze sobą komercjalizacja emocji w świecie AI. Firmy technologiczne mogą wykorzystywać emocjonalne zaangażowanie użytkowników do własnych celów, co rodzi pytania o prywatność i uczciwość w komunikacji.
Szczególnie kontrowersyjny jest rynek terapii AI. Chatboty takie jak Wysa czy Limbic są już integrowane z systemami opieki zdrowotnej, a nieuregulowane platformy oferują usługi psychologiczne bez odpowiednich zabezpieczeń. Brak zdolności AI do rozpoznawania niuansów ludzkich emocji czy sygnałów niewerbalnych może prowadzić do alienacji lub nawet szkodliwych interakcji.
Uzależnienie od chatbotów
Dodatkowo, towarzysze AI potrafią być niezwykle wciągający i uzależniający. Użytkownicy spędzają z nimi godziny dziennie, co może osłabiać umiejętności społeczne i pogłębiać izolację. Mechanizmy zwiększające zaangażowanie, stosowane przez firmy, przypominają te znane z mediów społecznościowych, co budzi obawy o zdrowie psychiczne.
Regulacje prawne, takie jak unijna Artificial Intelligence Act, traktują AI towarzyszy jako technologie o niskim ryzyku. Zdaniem Muldoona jest to niewystarczające. W miarę jak AI coraz bardziej wnika w nasze życie emocjonalne, konieczne staje się poważne zastanowienie nad ich wpływem i wprowadzenie skutecznych mechanizmów kontroli.
Podsumowanie
Relacje z AI otwierają nowe możliwości wsparcia emocjonalnego i samopoznania, ale niosą ze sobą także poważne wyzwania etyczne i społeczneŚwiadomość tych zagrożeń i odpowiedzialne podejście do rozwoju technologii są kluczowe, by nie dopuścić do pogłębienia kryzysu samotności i manipulacji emocjami.
Oryginalny tekst: Love Machines by James Muldoon review – inside the uncanny world of AI relationships | Books | The Guardian