Systemy rozpoznawania obrazów potrafią być imponująco skuteczne, a jednocześnie mylić się w sposób, który dla człowieka wydaje się absurdalny. Źródłem problemu bywa nie „słaba jakość”, lecz inny sposób porządkowania informacji wizualnej.
Gdy oczywistość przestaje być oczywista
Dla człowieka zdjęcie bezwłosego kota pozostaje zdjęciem kota – nawet jeśli futro, czyli jeden z typowych „znaków rozpoznawczych”, w ogóle nie występuje. Tymczasem część systemów komputerowego widzenia potrafi w podobnej sytuacji wskazać zupełnie inny gatunek, a nawet zwierzę o skrajnie odmiennej budowie. To nie jest anegdota o „głupiej maszynie”, tylko sygnał, że algorytm opiera się na innych wskazówkach niż my.
W praktyce wiele modeli uczy się rozpoznawania obiektów poprzez wychwytywanie powtarzalnych cech w pikselach: tekstur, drobnych wzorów, kontrastów czy lokalnych układów. Takie skróty działają świetnie na danych treningowych, ale bywają kruche. Niewielka zmiana, która dla człowieka nie ma znaczenia, może dla modelu oznaczać, że obraz „przestaje pasować” do kategorii.
Ataki na percepcję maszyn
Konsekwencje tej różnicy widać szczególnie wyraźnie w sytuacjach, w których obraz może zostać celowo lub przypadkowo „zanieczyszczony”. Wystarczy wyobrazić sobie znak drogowy oklejony naklejkami albo zamalowany graffiti. Człowiek nadal rozpoznaje go po kształcie i kontekście – wie, gdzie zwykle stoją znaki i jaką pełnią funkcję.
Model, który mocno polega na powierzchniowych wzorcach pikseli, może natomiast uznać, że to już nie znak, tylko inny obiekt przydrożny: reklama, tablica informacyjna czy element infrastruktury. Tego typu podatność przypomina „adversarial attacks” – sytuacje, w których drobne modyfikacje obrazu wywołują nieproporcjonalnie duży błąd klasyfikacji. W zastosowaniach wysokiego ryzyka to nie ciekawostka, lecz realny problem bezpieczeństwa.
Człowiek widzi obiekty, nie zestaw cech
W potocznym myśleniu wzrok działa jak kamera: rejestruje świat, a my go „odczytujemy”. Psychologia percepcji pokazuje jednak coś innego: mózg błyskawicznie zamienia strumień bodźców w obiekty i znaczenia. Nie widzimy osobno krzywizn, krawędzi i połysków – widzimy kubek, telefon, drzwi. To porządkowanie jest aktywne i oparte na doświadczeniu.
Co więcej, nasze kategorie są powiązane relacjami. Kubek bywa „bardziej podobny” do szklanki niż do miski nie dlatego, że zawsze wygląda podobnie, ale dlatego, że podobnie go używamy i podobnie funkcjonuje w codziennych czynnościach. Takie sądy o podobieństwie odsłaniają, jak w głowie zorganizowane są pojęcia: nie tylko wizualnie, lecz także znaczeniowo.
Kontekst zmienia to, co uznajemy za ważne
Ludzka percepcja jest elastyczna. Ten sam przedmiot może „należeć” do różnych grup w zależności od celu. Podczas pakowania do przeprowadzki kluczowe stają się gabaryty i to, czy coś się zmieści do pudełka. Podczas odkładania do szafki liczy się raczej funkcja: naczynia do picia trafiają obok siebie, nawet jeśli różnią się kształtem.
To ważna wskazówka: człowiek nie trzyma się jednej, sztywnej listy cech. Raczej przełącza się między różnymi sposobami organizacji świata, a znaczenie i użyteczność obiektu potrafią przeważyć nad samym wyglądem.
Skąd bierze się rozjazd między człowiekiem a AI
Wiele systemów AI jest trenowanych w wąski sposób: mają przypisać etykietę do obrazu i zostać ocenione z trafności. W takim układzie model nie musi rozumieć, czym „jest” kot ani jak kot ma się do innych zwierząt. Wystarczy, że znajdzie statystyczne wskazówki, które w danych treningowych najczęściej prowadzą do poprawnej odpowiedzi.
To tworzy zachętę do korzystania ze skrótów. Jeśli w zbiorze treningowym koty zwykle pojawiają się na określonym tle, przy określonym oświetleniu albo z charakterystyczną fakturą sierści, model może nieświadomie „nauczyć się” tła, szumu aparatu czy tekstury zamiast stabilnych cech obiektu. Na testach laboratoryjnych nadal wyjdzie świetnie, ale w realnym świecie – gdzie warunki są inne – zacznie się gubić.
Reprezentacyjna zgodność to nie to samo co „alignment” wartości
W dyskusjach o bezpieczeństwie AI często pojawia się słowo „alignment”, rozumiane jako zgodność celów systemu z intencjami człowieka. Tutaj chodzi o inny wymiar: o to, czy sposób reprezentowania świata przez model przypomina ludzki. To można nazwać zgodnością reprezentacji.
Różnica jest praktyczna. System może nie mieć „złych intencji”, a mimo to podejmować błędne decyzje, bo inaczej segmentuje rzeczywistość. Jeśli człowiek widzi „znak stop” jako obiekt o określonej funkcji w ruchu drogowym, a model widzi przede wszystkim układ pikseli, to nawet przy wysokiej średniej skuteczności pojawią się sytuacje, w których maszyna zawiedzie dokładnie tam, gdzie nie powinna.
Jak zbliżać modele do ludzkiego sposobu kategoryzacji
Jedna z obiecujących dróg polega na tym, by uczyć modele nie tylko etykiet, ale też relacji między obiektami – na przykład na podstawie ludzkich ocen podobieństwa. W badaniach psychologicznych uczestnikom pokazuje się zestawy obrazów i pyta, które dwa są bardziej do siebie podobne. Takie dane nie mówią wyłącznie „co to jest”, ale „do czego to jest podobne” i w jakiej strukturze pojęć to się mieści.
Włączenie tego typu informacji do treningu może skłaniać AI do budowania bardziej „sensownych” map pojęć, mniej podatnych na przypadkowe tekstury czy artefakty. Nie chodzi o to, by maszyna myślała identycznie jak człowiek, lecz by unikała najbardziej ryzykownych skrótów i lepiej generalizowała poza laboratorium.
Stawka rośnie w medycynie i innych decyzjach wysokiego ryzyka
Problem nie kończy się na obrazkach w internecie. W medycynie, gdzie algorytmy analizują zdjęcia diagnostyczne, szczególnie groźna jest sytuacja, w której model „uczy się” sygnałów pobocznych: źródła obrazu, powtarzalnych artefaktów, parametrów urządzenia czy znaczników technicznych, zamiast rzeczywistych oznak choroby. Taki system może wyglądać na skuteczny, dopóki działa w tych samych warunkach, w których był trenowany.
Dlatego coraz częściej mówi się o potrzebie projektowania AI z inspiracją zaczerpniętą z ludzkiej percepcji i poznania: uwzględniania kontekstu, relacji, znaczenia i elastyczności kategoryzacji. To nie gwarantuje nieomylności, ale może przesunąć modele z poziomu „sprytnych klasyfikatorów” w stronę narzędzi, które popełniają błędy rzadziej i – co równie ważne – w mniej niebezpieczny sposób.
Oryginalny tekst: AI doesn’t ‘see’ the way that you do, and that could be a problem when it categorizes objects and scenes