Prawda i Dobro
Autor „Czarnego złota”: tam liczył się zysk, nie ludzkie życie
06 kwietnia 2026

Jeszcze niedawno nagranie wideo było niemal niepodważalnym dowodem. Teraz nawet autentyczne nagranie można z łatwością podważyć. Jak rozpoznać deepfake, gdy sama wiedza o tej technologii zaczyna niszczyć zaufanie?
Jeszcze do niedawna nagranie wideo było traktowane niemal jak niezaprzeczalny dowód. Jeśli coś widziałeś na filmie, to się wydarzyło. Ale co się dzieje, gdy każdy film może być „sfałszowany”? Na to pytanie odpowiedział zespół badawczy z Uniwersytetu w Würzburgu. Lara Grohmann, Franziska Halle i prof. Markus Appel przeprowadzili eksperyment, którego wyniki opublikowano w magazynie Psychology of Popular Media.
Ponad 180 uczestnikom pokazano autentyczne filmy z politykami, których wymowa była lekko bełkotliwa, co sugerowało, że mogli być pod wpływem alkoholu. W jednej grupie polityk przepraszał za incydent. W drugiej – zaprzeczał i twierdził, że nagranie to deepfake. Wyniki okazały się zaskakujące. Politycy, którzy zaprzeczyli autentyczności nagrania, zostali ocenieni wyżej pod względem kompetencji, umiejętności przywódczych i wiarygodności. Co więcej, osoby, które zobaczyły zaprzeczenie, częściej wierzyły, że wideo zostało zmanipulowane — mimo że było prawdziwe.
Badacze opisali ten mechanizm jako „dywidendę kłamcy” (ang. liar’s dividend) — zjawisko, w którym sama świadomość istnienia deepfake’ów pozwala osobom publicznym odrzucać autentyczne nagrania jako sfabrykowane. Wystarczy zasiać wątpliwości, by prawdziwe wideo straciło wiarygodność. Dzieje się tak, gdyż w obliczu powszechnej wiedzy o deepfake’ach mózg sięga po skróty myślowe. Zamiast analizować nagranie, wierzymy autorytetowi, który kwestionuje dowód. W efekcie autentyczne wideo traci moc dowodową.
Ciekawe jest to, czego badanie z Würzburga nie wykazało bezpośrednio — i co wykazało pośrednio. Twierdzenie polityka o deepfake’u nie obniżyło zaufania do mediów wprost. Jednak osoby, które uwierzyły w manipulację nagraniem, wykazywały jednocześnie niższy poziom ogólnego zaufania do mediów. To nie sama dezinformacja niszczy zaufanie — niszczy je niepewność.
Te ustalenia idealnie korelują z tezami Niny Schick zawartymi w książce „Deepfakes: The Coming Infocalypse”. Schick już sześć lat temu ostrzegała przed „infokalipsą” – momentem, w którym nie będziemy w stanie odróżnić prawdy od sfabrykowanych dowodów. Zwracała przy tym uwagę na kluczowy paradoks: im więcej wiemy o tym, jak rozpoznać deepfake, tym bardziej zaczynamy podejrzewać materiały autentyczne.
Schick podkreślała, że technologia deepfake nie jest problemem samym w sobie. Problemem jest ludzka skłonność do manipulacji, teraz wsparta potęgą sztucznej inteligencji. W konsekwencji deepfake’i stały się poważnym zagrożeniem dla demokracji, praw człowieka i samej idei wspólnoty. Utrata zaufania do nagrań wideo realnie osłabia społeczeństwo, prowadząc do polaryzacji, apatii i łatwiejszego manipulowania emocjami.
Ludzie zaczynają kwestionować autentyczność i prawdziwość autentycznych mediów, co jest dość dewastujące w świecie, w którym zaufanie do mediów cyfrowych jest absolutnie niezbędne dla funkcjonowania społeczeństwa i polityki.
– ostrzegała Schick w wywiadzie dla podcastu 80,000 Hours.
Utrata zaufania do dowodów wizualnych to nie tylko problem technologiczny. To problem głęboko ludzki. Społeczeństwo, które nie potrafi odróżnić prawdy od fałszu, traci zdolność do wspólnego działania. Demokracja wymaga wspólnej bazy faktów — a ta baza właśnie pęka.
Pytanie „jak rozpoznać deepfake” pozostaje ważne, ale dziś już nie wystarczy. Równie istotne jest pytanie: „co zrobić z faktem, że każde nagranie — prawdziwe czy fałszywe — może zostać zakwestionowane”? Jeśli autentyczne wideo można odrzucić jako deepfake, a sfabrykowane — przyjąć jako prawdę, to na czym oprzeć zaufanie?
Edukacja medialna, krytyczne myślenie i narzędzia weryfikacji treści są dziś niezbędne. Ale równie istotne jest budowanie kultury zaufania opartej na ludzkiej uczciwości, transparentności źródeł i gotowości do przyjmowania niewygodnych prawd. Bo w świecie, w którym wszystko można podrobić, najcenniejszym zasobem staje się prawda — i odwaga, by jej bronić.
Przeczytaj również: Mało korzyści, dużo zagrożeń. Tak ludzie widzą świat AI za 10 lat
Życzymy udanych zakupów!
Redakcja
Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę: