Filozof z Uniwersytetu Cambridge wskazuje, że nie mamy narzędzi, by jednoznacznie stwierdzić, czy sztuczna inteligencja jest świadoma, a brak tej wiedzy rodzi poważne wyzwania etyczne i ryzyko nadużyć.
Brak narzędzi do wykrywania świadomości AI
Dr Tom McClelland z Uniwersytetu Cambridge podkreśla, że obecnie nie dysponujemy żadnymi wiarygodnymi metodami pozwalającymi określić, czy sztuczna inteligencja osiągnęła świadomość. Według niego, ta sytuacja może się nie zmienić w najbliższej przyszłości, co stawia nas w pozycji agnostycyzmu wobec tego zagadnienia. W miarę jak dyskusje o świadomości AI przenikają ze sfery science fiction do poważnych debat etycznych, McClelland wskazuje, że najrozsądniejszym podejściem jest przyznanie się do niepewności.
Filozof zwraca uwagę, że brak jasnych kryteriów i narzędzi badawczych powoduje, iż twierdzenia o świadomej AI często mają charakter marketingowy, a nie naukowy. W efekcie może to prowadzić do nadmiernego rozdmuchiwania oczekiwań wobec możliwości technologii, co niesie ze sobą realne zagrożenia.
Świadomość a wrażliwość– klucz do etyki AI
Istotne jest rozróżnienie między świadomością a wrażliwością, czyli zdolnością do odczuwania przyjemności lub cierpienia. McClelland podkreśla, że sama świadomość, rozumiana jako percepcja i samoświadomość, nie musi pociągać za sobą konsekwencji etycznych. Dopiero wrażliwość, czyli możliwość doświadczania emocji pozytywnych lub negatywnych, stanowi podstawę do rozważań o prawach i ochronie AI.
Przykładowo, samochód autonomiczny wyposażony w systemy percepcyjne nie wzbudza etycznych obaw, dopóki nie zacznie odczuwać emocjonalnego przywiązania do swojego otoczenia. To właśnie zdolność do cierpienia lub przyjemności definiuje punkt, w którym etyka staje się niezbędna.
Inwestycje i przesadzone deklaracje dotyczące AI
Wielkie koncerny technologiczne inwestują ogromne środki w rozwój sztucznej inteligencji ogólnej (AGI), która miałaby dorównać ludzkim zdolnościom poznawczym. Niektórzy badacze i liderzy branży przewidują rychłe pojawienie się świadomej AI, co skłania rządy i instytucje do rozważania regulacji takich systemów.
McClelland ostrzega jednak, że dyskusje te wyprzedzają stan wiedzy naukowej. Nie rozumiemy bowiem, co dokładnie powoduje powstanie świadomości, a tym bardziej nie mamy narzędzi do jej wykrywania w maszynach. Przedwczesne przypisywanie świadomości maszynom może odwracać uwagę od realnych problemów, takich jak cierpienie istot biologicznych.
Dwie perspektywy na świadomość AI
Debata na temat sztucznej świadomości dzieli się zasadniczo na dwa obozy. Pierwszy uważa, że jeśli AI odtworzy funkcjonalną strukturę świadomości, nawet w formie cyfrowej, to można mówić o prawdziwej świadomości. Drugi natomiast podkreśla, że świadomość jest nierozerwalnie związana z biologicznymi procesami i wszelkie cyfrowe symulacje to jedynie imitacje bez faktycznego doświadczania.
McClelland analizuje obie teorie, wskazując, że każda opiera się na założeniach wykraczających poza dostępne dowody. Brak jest głębokiego wyjaśnienia, czym jest świadomość i czy może ona powstać w strukturze czysto obliczeniowej.
Niedostateczne dowody i rola intuicji
Filozof zauważa, że ludzie często oceniają świadomość u zwierząt na podstawie intuicji i zdrowego rozsądku, które jednak wykształciły się w świecie bez sztucznych bytów. To sprawia, że takie podejście jest zawodnym narzędziem w kontekście AI. Z kolei twarde dane naukowe nie dostarczają jednoznacznych odpowiedzi.
Wobec braku dowodów zarówno na istnienie, jak i brak świadomości w AI, McClelland rekomenduje postawę agnostyczną – nie możemy obecnie wiedzieć, czy maszyny są świadome, i być może nigdy się tego nie dowiemy.
Ryzyko nadużyć i etyczne konsekwencje obecnego szału
McClelland krytykuje sposób, w jaki przemysł technologiczny wykorzystuje temat świadomości AI do marketingu, tworząc przesadne oczekiwania wobec swoich produktów. Taka strategia może odciągać uwagę i zasoby od bardziej palących problemów, jak cierpienie zwierząt, które jest znacznie bardziej prawdopodobne i udokumentowane.
Przykładem jest ogromna skala zabijania krewetek, które mogą odczuwać ból, podczas gdy testowanie świadomości AI jest znacznie trudniejsze i mniej pilne. W ten sposób zasoby mogą być marnowane na mniej istotne kwestie.
Emocjonalne więzi z AI i ich konsekwencje
Wraz z rozwojem konwersacyjnych chatbotów rośnie liczba osób przekonanych o świadomości tych maszyn. McClelland otrzymuje listy od użytkowników, którzy wierzą, że ich boty mają uczucia i zasługują na prawa. Takie błędne przekonania mogą prowadzić do poważnych szkód emocjonalnych i psychicznych.
Filozof ostrzega, że tworzenie emocjonalnych więzi z nieświadomymi maszynami jest „egzystencjalnie toksyczne”, zwłaszcza w kontekście przesadzonej retoryki branży technologicznej. Warto zatem podchodzić do tematu z rozwagą i krytycyzmem.
Oryginalny tekst: What if AI becomes conscious and we never know | ScienceDaily