Przejdź do treści

GARIN AI Spółka Akcyjna

Strona główna » Pracownicy AI ostrzegają: technologia szybka, ale zawodna i nieetyczna

Pracownicy AI ostrzegają: technologia szybka, ale zawodna i nieetyczna

Osoby pracujące przy sztucznej inteligencji coraz częściej odradzają korzystanie z niej bliskim, wskazując na błędy, brak transparentności i presję na szybkie wdrażanie kosztem jakości i bezpieczeństwa.

Wątpliwości pracowników przy tworzeniu sztucznej inteligencji

Krista Pawloski, zatrudniona na platformie Amazon Mechanical Turk, zajmuje się oceną jakości i moderowaniem treści generowanych przez AI. Jej doświadczenia, takie jak błędne oznaczanie rasistowskich wypowiedzi, uświadomiły jej skalę problemów w działaniu tych systemów. Zdecydowała się nie korzystać z generatywnej AI osobiście i odradza jej używanie najbliższym, podkreślając, jak łatwo można przeoczyć lub zaakceptować szkodliwe treści.

Podobne obawy wyrażają inni pracownicy oceniający modele AI, którzy zauważają, że presja na szybkie dostarczanie produktów często przeważa nad dbałością o ich jakość i bezpieczeństwo. W efekcie powstają systemy, które potrafią przekazywać nieprawdziwe lub nieetyczne informacje, co budzi poważne zastrzeżenia co do ich zastosowań, zwłaszcza w obszarach wrażliwych, takich jak zdrowie.

Problemy z jakością i etyką w AI

Pracownicy Google’a i innych firm przyznają, że często brakuje im odpowiedniego wsparcia i szkoleń, a zadania wykonywane są pod presją czasu i z niedostatecznymi instrukcjami. Taka sytuacja prowadzi do niskiej jakości danych treningowych, co z kolei przekłada się na błędne działanie modeli. Zjawisko to opisuje zasada „garbage in, garbage out” – złe dane wejściowe skutkują wadliwymi wynikami.

Audyt przeprowadzony przez organizację NewsGuard wykazał, że w ciągu roku od sierpnia 2024 do sierpnia 2025 r. spadł odsetek sytuacji, gdy chatboty nie udzielały odpowiedzi, ale jednocześnie niemal podwoiła się liczba przypadków powielania przez nie fałszywych informacji. To potwierdza obawy, że AI coraz częściej „kłamie” z przekonaniem, zamiast przyznać się do braku wiedzy.

Brak zaufania do firm i systemów AI

Dla wielu pracowników AI problemem jest nie tyle sama technologia, co podejście firm do jej rozwoju. Priorytetem wydaje się szybkie wprowadzanie produktów na rynek i zysk, a nie odpowiedzialność i rzetelność. Brak transparentności, niedostateczne wsparcie dla osób oceniających modele oraz ignorowanie zgłaszanych błędów pogłębiają kryzys zaufania.

Pracownicy ostrzegają swoich bliskich przed korzystaniem z AI, zwłaszcza dzieci, którym zalecają najpierw rozwijanie umiejętności krytycznego myślenia. Wielu z nich unika używania generatywnej AI i odradza zakup urządzeń z wbudowanymi funkcjami AI, obawiając się naruszenia prywatności i bezpieczeństwa danych.

Spojrzenie na AI jako na technologię kruchą, nie futurystyczną

Eksperci i pracownicy AI podkreślają, że technologia ta nie jest magiczna ani idealna. Zamiast tego to systemy złożone z wielu kompromisów, błędów i niedoskonałości, które często są ukryte przed użytkownikami. Świadomość tego, jak powstają modele AI i jak wygląda ich trening, zmienia postrzeganie AI z obiektu zachwytu na coś kruchego i wymagającego krytycznego podejścia.

Edukacja i transparentność jako droga do zmiany

Pracownicy AI, tacy jak Pawloski i Hansen, angażują się w edukowanie społeczności, organizując prezentacje i rozmowy na temat etycznych i środowiskowych aspektów sztucznej inteligencji. Podobnie jak w przypadku przemysłu odzieżowego, gdzie ujawnienie warunków produkcji zmieniło świadomość konsumentów, tak i w przypadku AI ważne jest zadawanie pytań o źródła danych, prawa autorskie i warunki pracy osób zaangażowanych w rozwój tych technologii.

Dopiero dzięki rosnącej presji społecznej i transparentności możliwe będzie wprowadzenie realnych zmian, które uczynią AI bezpieczniejszą, bardziej etyczną i wiarygodną technologią dla użytkowników na całym świecie.

Oryginalny tekst: Meet the AI workers who tell their friends and family to stay away from AI | AI (artificial intelligence) | The Guardian