Prawda i Dobro
Krytyka Cię niszczy? Poznaj sekret „mózgoodporności”
08 marca 2026

Wikipedia zmaga się z problemem, którego wielu się obawiało. Część tłumaczy zaczęła kopiować artykuły do modeli AI i publikować przekłady bez sprawdzenia. Efekt? Błędy, zmyślone fragmenty i spadek wiarygodności jednej z najważniejszych baz wiedzy w internecie.
Miało być prosto, szybko i efektywnie. Skończyło się odwrotnie: wiarygodność artykułów Wikipedii spadła. Wszystko przez modele AI wykorzystywane do tłumaczenia serwisu. Narzędzia, które miały pomóc, w praktyce poważnie zaszkodziły.
W części tłumaczonych tekstów wykryto rażące błędy sztucznej inteligencji. Model dodawał własne zdania bez żadnych przypisów. Co więcej, dopisywał nawet całe akapity, których nie było w oryginale i które pochodziły z zupełnie innych miejsc. A to nie był koniec problemów.
Kiedy rozpoczęto weryfikację przetłumaczonych treści, ujawniono kolejną poważną pomyłkę. W artykule poświęconym francuskiej rodzinie królewskiej pojawiło się odwołanie do konkretnej książki o pochodzeniu arystokracji z podaniem dokładnego numeru strony. Problem polegał na tym, że po sprawdzeniu bibliografii okazało się, iż we wskazanym miejscu nie ma żadnej wzmianki o historii Francuzów. Zamiast tego znajdowały się tam informacje dotyczące zupełnie innej tematyki.
Jak podaje Wikipedia, wielu redaktorów zajmujących się przekładami słabo zna język angielski. Nie dodają linków, nie wychwytują błędów w swojej pracy, a czasem w ogóle nie sprawdzają przygotowanego tłumaczenia. Osoby te są bezpośrednio powiązane z organizacją charytatywną Open Knowledge Association (OKA).
Jak piszą na swojej stronie internetowej, wykorzystują modele językowe do tłumaczeń, aby zautomatyzować znaczną część pracy. Problem polega jednak na tym, że działalność tej instytucji w dużej mierze opiera się na kontraktorach z tzw. Globalnego Południa. Poinstruowano ich, aby kopiowali i wklejali teksty do popularnych modeli sztucznej inteligencji, takich jak ChatGPT czy Gemini. W ten sposób powstawały szybkie i tanie tłumaczenia.
Aby zwiększyć wiarygodność i poziom treści publikowanych na Wikipedii, zablokowano dostęp części pracowników. Chodzi o osoby, które tłumaczyły artykuły za pomocą AI i w ciągu pół roku otrzymały cztery ostrzeżenia dotyczące jakości swoich przekładów. Praca pozostałych tłumaczy jest obecnie regularnie sprawdzana.
Tłumacze muszą uruchomić ukończony szkic w osobnym modelu, używając specjalnego promptu porównawczego. Ma on wykrywać potencjalne rozbieżności, braki lub nieścisłości względem tekstu źródłowego. Wstępne wyniki wskazują, że metoda ta jest bardzo skuteczna w wychwytywaniu możliwych problemów.
– napisał Jonathan Zimmermann, założyciel i prezes organizacji Open Knowledge Association, w mailu do redakcji 404media.co
Błędy sztucznej inteligencji pokazują, że modele językowe wciąż potrzebują człowieka, który będzie kontrolował jakość ich pracy. Tylko w ten sposób można zachować wiarygodność publikowanych treści i uniknąć szkód dla osób lub instytucji.
Warto przeczytać: 600 dolarów i jesteś naukowcem. Fabryki artykułów pracują non stop
Życzymy udanych zakupów!
Redakcja
Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę: