Wikipedia zaostrza zasady: treści generowane lub przepisywane przez modele językowe nie mogą trafiać do haseł. Dopuszczono tylko dwa wąskie zastosowania, a w tle rośnie presja na wiarygodność wiedzy w sieci.
Nowa linia obrony przed automatyzacją
Wikipedia wprowadziła zakaz używania modeli językowych do tworzenia nowych treści oraz do przepisywania istniejących fragmentów haseł. To wyraźny sygnał, że encyklopedia – oparta na pracy wolontariuszy i rygorze źródeł – nie chce, by „agenty AI” przejęły rolę autora lub redaktora merytorycznego.
Decyzja dotyczy przede wszystkim anglojęzycznej wersji serwisu, która przekroczyła już 7,1 mln artykułów. Skala projektu sprawia, że nawet niewielki odsetek błędów wprowadzanych automatycznie mógłby szybko rozlać się po całym ekosystemie linków i cytowań.
Dlaczego modele językowe zderzają się z zasadami Wikipedii
W uzasadnieniu zmian podkreślono, że użycie dużych modeli językowych „często narusza” podstawowe reguły encyklopedii. W praktyce chodzi o konflikt między probabilistycznym generowaniem zdań a wymogiem weryfikowalności: na Wikipedii liczy się nie to, co brzmi przekonująco, lecz to, co da się podeprzeć wiarygodnym źródłem.
Modele językowe potrafią też niepostrzeżenie przesuwać sens wypowiedzi. Nawet gdy użytkownik prosi o „ulepszenie stylu”, system może dopowiedzieć szczegół, uogólnić wniosek albo zmienić akcent – a potem trudno ustalić, czy nowa wersja nadal wynika z cytowanych publikacji. To ryzyko jest szczególnie groźne w tematach spornych, gdzie każde słowo bywa przedmiotem edycyjnych konfliktów.
Dwa wyjątki i twardy warunek: kontrola człowieka
Zakaz nie jest absolutny. Wikipedia pozostawiła dwie furtki: użycie AI do tłumaczeń oraz do drobnych korekt językowych. Kluczowe ograniczenie brzmi jednak jasno: model nie może wnosić nowej treści, a proponowane poprawki mają dotyczyć tekstu własnego edytora i muszą przejść ludzką weryfikację.
W praktyce oznacza to dopuszczenie AI jako narzędzia pomocniczego – podobnego do zaawansowanego sprawdzania pisowni – ale nie jako współautora. To rozróżnienie jest ważne, bo w świecie modeli językowych granica między „korektą” a „przeredagowaniem z dodatkami” bywa płynna, a polityka encyklopedii próbuje ją możliwie ostro wyznaczyć.
Głos społeczności i napięcie wokół jakości
Spór o AI narastał wśród wikipedystów od miesięcy, a nowa polityka została poparta w głosowaniu społeczności edytorów. To istotne, bo Wikipedia działa jak organizm samoregulujący: normy nie są wyłącznie decyzją administracyjną, lecz wynikiem negocjacji między tysiącami osób, które pilnują standardów na co dzień.
W tle jest też rosnąca presja na jakość informacji w internecie. Modele językowe potrafią generować odpowiedzi szybko i gładko, ale nadal zdarzają im się „halucynacje” – czyli przekonujące, lecz fałszywe twierdzenia. Dla encyklopedii, która buduje zaufanie na transparentnym cytowaniu źródeł, to ryzyko reputacyjne jest nie do przyjęcia.
Konsekwencje dla internetu: wiarygodność kontra wygoda
Zmiana na Wikipedii wpisuje się w szerszy trend: AI jest coraz mocniej wbudowywana w wyszukiwarki, podpowiedzi w poczcie czy narzędzia do pisania. Równolegle rośnie liczba użytkowników, którzy zamiast przeglądać źródła, wolą gotową odpowiedź w jednym oknie – co w ostatnim czasie przełożyło się na skok popularności chatbotów kosztem klasycznych serwisów wiedzy.
Zakaz nie rozwiązuje jednak wszystkich problemów. Po pierwsze, trudna będzie egzekucja: tekst wygenerowany przez model można „wygładzić” ręcznie i wprowadzić jako własny. Po drugie, polityka może spowolnić pracę edytorów w obszarach, gdzie AI realnie pomaga (np. w tłumaczeniach), choć tu akurat pozostawiono wyjątek. Najważniejszy efekt jest symboliczny i praktyczny zarazem: Wikipedia przypomina, że weryfikowalność i odpowiedzialność autora są ważniejsze niż tempo produkcji treści.
Oryginalny tekst: Wikipedia bans AI-generated content in its online encyclopedia