Śledztwo ujawnia, że generowane przez Google AI podsumowania zdrowotne mogą zawierać nieprecyzyjne i niebezpieczne porady, które zagrażają zdrowiu użytkowników, podkreślając potrzebę większej kontroli nad jakością informacji w sztucznej inteligencji.
Problemy z wiarygodnością informacji zdrowotnych w AI Google
Google wprowadziło podsumowanie AI – narzędzie wykorzystujące sztuczną inteligencję do generowania podsumowań na temat zdrowia, które pojawiają się na szczycie wyników wyszukiwania. Firma zapewnia, że są one pomocne i wiarygodne, jednak śledztwo The Guardian wykazało, że niektóre z tych podsumowań zawierają błędne i potencjalnie szkodliwe informacje, które mogą narażać użytkowników na poważne zagrożenia zdrowotne.
Wśród najbardziej niebezpiecznych przykładów znalazła się błędna porada dla osób z rakiem trzustki, które miały unikać tłustych potraw – dokładne przeciwieństwo tego, co powinno się zalecać, co może prowadzić do pogorszenia stanu zdrowia i utrudnić skuteczne leczenie.
Takie niedoprecyzowania podkreślają ryzyko niekontrolowanego stosowania AI w obszarze medycyny.
Konsekwencje błędnych danych na temat badań i diagnoz
Inne przypadki dotyczą nieprawidłowych informacji o testach funkcji wątroby, które mogą wprowadzać w błąd osoby z poważnymi schorzeniami, sugerując, że ich wyniki są prawidłowe. Brak uwzględnienia czynników takich jak wiek, płeć czy pochodzenie etniczne dodatkowo obniża wartość tych podsumowań.
Podobnie nieprawidłowe informacje na temat badań przesiewowych w kierunku nowotworów kobiecych, np. błędne przypisywanie testu Pap do wykrywania raka pochwy, mogą skutkować zignorowaniem objawów i opóźnieniem diagnozy.
Taka zmienność odpowiedzi AI, w zależności od czasu wyszukiwania, podważa zaufanie do tych narzędzi.
Wyzwania związane z AI w obszarze zdrowia psychicznego
Problemy dotyczą także zdrowia psychicznego – AI generuje niekiedy szkodliwe lub błędne porady dotyczące poważnych zaburzeń, takich jak psychozy czy zaburzenia odżywiania. Brak odpowiedniego kontekstu i niuanse są pomijane, co może zniechęcać osoby potrzebujące pomocy do jej szukania.
Eksperci podkreślają, że takie podsumowania mogą odzwierciedlać istniejące uprzedzenia i stereotypy, co dodatkowo utrudnia rzetelną i empatyczną komunikację na temat zdrowia psychicznego.
Reakcje i stanowisko Google
Google przyznaje, że większość posdumowań AI jest poprawna i stale pracuje nad ich jakością, zwłaszcza w obszarze zdrowia. Firma twierdzi, że gdy AI błędnie interpretuje treści lub pomija kontekst, podejmuje odpowiednie działania zgodnie z polityką.
Jednak krytycy wskazują, że obecne mechanizmy kontroli są niewystarczające, a błędy w tak wrażliwych tematach jak zdrowie mogą mieć poważne konsekwencje dla użytkowników.
Znaczenie rzetelnej informacji zdrowotnej w dobie AI
Organizacje pacjentów i eksperci zdrowotni alarmują, że nieprecyzyjne informacje w wynikach wyszukiwania mogą zagrażać życiu i zdrowiu. Internet jest często pierwszym miejscem, do którego zwracają się osoby z problemami zdrowotnymi, a błędne dane mogą prowadzić do złych decyzji i opóźnień w leczeniu.
W dobie rosnącej roli sztucznej inteligencji w dostępie do wiedzy medycznej konieczne jest wprowadzenie surowszych standardów weryfikacji i transparentności, aby chronić użytkowników przed dezinformacją i jej negatywnymi skutkami.
Perspektywy i wyzwania regulacyjne
W świetle ujawnionych problemów rośnie potrzeba skuteczniejszej regulacji i nadzoru nad wykorzystaniem AI w sektorze zdrowia. Wprowadzenie norm jakościowych oraz współpraca z ekspertami medycznymi mogą poprawić wiarygodność generowanych treści.
Jednocześnie ważne jest edukowanie użytkowników o ograniczeniach AI i konieczności konsultacji z profesjonalistami, co może zmniejszyć ryzyko szkodliwych skutków wynikających z błędnych informacji.
Podsumowując, choć AI oferuje ogromne możliwości w ułatwianiu dostępu do wiedzy, obecne niedoskonałości w generowaniu treści zdrowotnych przez Google stanowią poważne wyzwanie, które wymaga pilnej uwagi i działań na rzecz bezpieczeństwa użytkowników.
Oryginalny tekst: Google AI Overviews put people at risk of harm with misleading health advice | Google | The Guardian