Przejdź do treści

GARIN AI Spółka Akcyjna

Strona główna » AI kontra dezinformacja: technologia, prawo i zaufanie w jednym układzie

AI kontra dezinformacja: technologia, prawo i zaufanie w jednym układzie

Dezinformacja rośnie w siłę, bo treści można dziś produkować i targetować szybciej niż kiedykolwiek. Paradoksalnie te same narzędzia AI mogą pomóc ją wykrywać — pod warunkiem, że będą działać w ramach przejrzystych reguł i z udziałem człowieka.

Nowa skala problemu

Europejska debata o dezinformacji coraz rzadziej dotyczy pojedynczych kłamstw, a coraz częściej całej infrastruktury, która pozwala im rosnąć. Generatywna sztuczna inteligencja przyspieszyła produkcję treści: tekstów, obrazów, nagrań audio i wideo. To, co kiedyś wymagało czasu, umiejętności i budżetu, dziś bywa kwestią minut — a potem może zostać precyzyjnie dopasowane do odbiorcy i wypchnięte algorytmami na masową skalę.

W efekcie internet zalewają materiały syntetyczne, które nie muszą być tworzone „ręcznie” przez człowieka, by skutecznie wprowadzać w błąd. Do tego dochodzą formy wpływu trudniejsze do klasycznego fact-checkingu: przekazy budujące nastrój, emocję i tożsamość polityczną, a nie konkretne, weryfikowalne twierdzenia. To przesuwa ciężar dyskusji z pytania „czy to prawda?” na pytanie „co ta treść robi z odbiorcą i dlaczego tak dobrze się niesie?”.

AI jako miecz obosieczny

Sztuczna inteligencja w tej układance jest jednocześnie katalizatorem ryzyka i potencjalnym narzędziem obrony. Z jednej strony ułatwia tworzenie deepfake’ów i wiarygodnych fałszywek, a użytkownicy coraz częściej traktują modele językowe jak doradców — mimo że te potrafią się mylić, konfabulować lub gubić kontekst. Z drugiej strony algorytmy mogą wspierać wykrywanie manipulacji, analizę skoordynowanych kampanii oraz identyfikację mowy nienawiści czy innych szkodliwych wzorców.

Kluczowe jest jednak to, by nie traktować AI jako magicznej „maszynki do prawdy”. W praktyce najlepsze efekty daje podejście hybrydowe: automatyczne systemy wyłapują sygnały i anomalie, a człowiek podejmuje decyzję, interpretuje i bierze odpowiedzialność. To nie tylko kwestia jakości, ale też zaufania — odbiorcy muszą rozumieć, dlaczego narzędzie uznało coś za podejrzane.

Platformy monitorujące w czasie zbliżonym do rzeczywistego

W europejskich projektach badawczo-wdrożeniowych testuje się rozwiązania, które mają działać jak radar dla przestrzeni informacyjnej. Przykładem jest inicjatywa rozwijana przez międzynarodowe konsorcjum w ramach programu „Horyzont Europa”, gdzie powstał pilotaż platformy monitorującej źródła informacji w czasie zbliżonym do rzeczywistego. Tego typu systemy analizują jednocześnie tekst, dźwięk i wideo oraz potrafią pracować wielojęzycznie — co w Europie jest warunkiem sensownej skuteczności.

Taki „monitoring” nie zastępuje dziennikarzy ani weryfikatorów faktów, ale może radykalnie skrócić drogę od pojawienia się fałszywej narracji do jej wykrycia. W praktyce chodzi o dwie funkcje: po pierwsze szybkie przeszukiwanie ogromnej liczby kanałów i wskazywanie treści wartych sprawdzenia, po drugie wsparcie stricte techniczne — na przykład wykrywanie subtelnych niespójności w obrazie wideo czy śladów montażu w ścieżce dźwiękowej.

Prawo jako kręgosłup, nie plaster

W europejskim podejściu punktem wyjścia pozostaje legislacja: akt o usługach cyfrowych (DSA), akt o sztucznej inteligencji (AI Act) oraz Europejski Akt o Wolności Mediów. Coraz częściej podnosi się też rolę prawa autorskiego jako narzędzia ochrony ofiar deepfake’ów — zwłaszcza gdy chodzi o wykorzystanie czyjegoś wizerunku lub głosu. To ważne przesunięcie: nie tylko ściganie „fałszu”, ale ochrona praw jednostki i ograniczanie szkody.

Jednocześnie prawo ma ograniczenia czasowe i operacyjne. Nawet sprawne postępowanie i dotkliwa kara finansowa mogą przyjść po fakcie — a w kontekście wyborów „po fakcie” często znaczy „za późno”. Dlatego regulacje muszą być kręgosłupem systemu, ale nie mogą być jedynym narzędziem. Potrzebne są mechanizmy reagowania w czasie rzeczywistym, współpraca z organizacjami społecznymi oraz praktyczne standardy działania platform.

Dlaczego sama weryfikacja faktów nie wystarcza

Fact-checking pozostaje fundamentem, ale w erze treści generowanych masowo staje się niewystarczający jako jedyna linia obrony. Problem przestaje być sumą pojedynczych kłamstw, a staje się systemem dystrybucji: algorytmy premiują zaangażowanie, a to często oznacza emocje, polaryzację i sensację. Szkoda nie musi wynikać z samego stworzenia mema czy filmiku, lecz z tego, że platforma potrafi nadać mu ogromny zasięg.

To prowadzi do myślenia „ekosystemowego”: gdzie powstaje ryzyko, kto je wzmacnia, jakie są punkty interwencji. W tym ujęciu AI może pomagać nie tylko w ocenie pojedynczej treści, ale w mapowaniu dynamiki kampanii, wykrywaniu skoordynowanych zachowań i mierzeniu skali zjawiska — co jest istotne także dla egzekwowania obowiązków wynikających z DSA.

Przejrzystość i koncentracja władzy informacyjnej

W tle sporu o dezinformację rośnie temat koncentracji rynkowej: dominacja kilku globalnych graczy w obszarze chmury, mediów społecznościowych i reklamy przekłada się na przewagę w rozwoju i wdrażaniu AI. To nie jest wyłącznie problem gospodarczy. Jeśli niewielka liczba podmiotów kontroluje kanały dystrybucji informacji i narzędzia personalizacji przekazu, to wpływa to na pluralizm, widoczność mediów oraz odporność demokracji.

Dlatego tak mocno wybrzmiewa postulat przejrzystości: wiedzy o tym, jakie treści krążą na platformach, jak często pojawia się dezinformacja i jak się rozchodzi. Bez danych i dostępu badaczy oraz instytucji publicznych do sensownych informacji o działaniu systemów, walka z manipulacją przypomina gaszenie pożaru z zasłoniętymi oczami.

Edukacja medialna zaczyna się od podstaw

Technologia i prawo nie zadziałają, jeśli odbiorcy nie mają kompetencji, by rozumieć przekaz i oceniać źródła. W dyskusji o edukacji medialnej coraz częściej wraca zaskakująco podstawowy wątek: umiejętność czytania ze zrozumieniem i spadek poziomu alfabetyzmu. To brzmi jak temat szkolny, ale w praktyce decyduje o tym, czy ktoś potrafi odróżnić informację od sugestii, ironię od „dowodu”, a opinię od faktu.

Edukacja medialna musi też iść tam, gdzie są ludzie: do formatów krótkich, memicznych, influencerskich, do platform wideo. Jeśli większość odbiorców konsumuje wiadomości poza klasycznymi mediami, to odporność społeczna nie może być budowana wyłącznie w tradycyjnych kanałach.

Trzy grupy narzędzi i jeden warunek powodzenia

Coraz wyraźniej widać, że potrzebne są trzy klasy rozwiązań: narzędzia dla prawodawców i instytucji (do analizy ryzyk i gromadzenia dowodów), narzędzia dla profesjonalistów (dziennikarzy i fact-checkerów) oraz proste aplikacje dla obywateli, które dają szybki sygnał ostrzegawczy i uczą dobrych nawyków. Te warstwy nie konkurują ze sobą — mają się uzupełniać.

Warunek powodzenia jest jednak prozaiczny: wdrożenie. Europa może wyprodukować dziesiątki świetnych prototypów, ale bez integracji z codzienną pracą redakcji, organizacji społecznych i instytucji publicznych pozostaną one demonstratorami. Skuteczna walka z dezinformacją wymaga więc jednego, spójnego systemu: regulacji, technologii, współpracy międzysektorowej i edukacji — oraz konsekwentnego trzymania się zasady „human in the loop”, bo zaufania nie da się zautomatyzować.

Oryginalny tekst: Jak sztuczna inteligencja może pomóc w zwalczaniu fake newsów? – EURACTIV.pl