Deepfake w polityce. Jak fałszywy Joe Biden dzwonił do wyborców z New Hampshire

21 stycznia 2024 roku pewien wyborca ze stanu New Hampshire odebrał telefon od osoby podającej się za prezydenta USA Joe Bidena. Nie on jeden. W nagraniu fałszywy polityk apelował o to, by powstrzymać się od uczestnictwa w prawyborach stanowych.

Nagranie zawierało informacje o tym, że członkowie Partii Demokratycznej co prawda mogą głosować w prawyborach Republikanów, ale że udział w nich uniemożliwi głosowanie w wyborach ogólnokrajowych w listopadzie. Tymczasem prawo stanu New Hampshire pozwala niezarejestrowanym wyborcom w sposób wolny brać udział w prawyborach obu partii.

Zobacz też:

Deepfake w polityce zagrożeniem dla demokracji?

Wszystko wskazuje na to, że nagranie zostało stworzone przy użyciu sztucznej inteligencji i miało na celu zniechęcenie do głosowania. Takie fałszywe rozmowy telefoniczne nie są nowością w okresie wyborczym i, co więcej, nie są nielegalne. Dziś trudno już odróżnić, co jest prawdziwe, a co nie.

Ostatnio pojawiło się wiele firm oferujących usługi umożliwiające podszywanie się pod znane osobistości. Stworzenie takiego nagrania jest bardzo proste. Wystarczy wybrać osobę publiczną z listy i wpisać treść komunikatu. Strona internetowa automatycznie generuje fałszywe nagranie, które może brzmieć niezwykle wiarygodnie.

Kluczowy jest kontekst

W 2019 roku naukowcy z Uniwersytetu Rutgensa w stanie New Jersey badali, jak sztuczna inteligencja może zmieniać sposób, w jaki instytucje oceniają manipulacje audiowizualne. Naukowcy zauważyli, że żaden pojedynczy przekaz medialny nie jest wiarygodny sam w sobie. Wiarygodność deepfake’ów zależy od kontekstu ich zaprezentowania i źródła udostępnienia. 

Midjourney

Fałszywe treści są szczególnie szkodliwe, gdy są wykorzystywane do manipulowania opinią publiczną w kontrowersyjnych kwestiach. Zwalczanie kampanii dezinformacyjnych wspomaganych przez sztuczną inteligencję jest coraz poważniejszym wyzwaniem, ponieważ zdemaskowanie źródła wymaga analizy danych dotyczących danego przekazu. Metodyka ta różni się w zależności od kanałów dystrybucji, jakimi mogą być YouTube, Facebook czy e-mail. Badania nad manipulacjami audiowizualnymi są utrudnione, gdyż wiele dużych firm technologicznych ograniczyło dostęp do swoich API, co utrudnia zbieranie informacji z mediów społecznościowych.

Przyszłość deepfake’ów i demokracji

Dezinformacja wspomagana przez sztuczną inteligencję stwarza podobne problemy jak tak zwane fake newsy. Osoby wykorzystujące narzędzia AI do zakłócania procesów wyborczych z pewnością będą starały się ukryć swoje ślady. Dlatego publiczność powinna pozostać sceptyczna wobec informacji, które nie pochodzą ze zweryfikowanych źródeł, takich jak lokalne stacje telewizyjne lub renomowane portale informacyjne.

Nadchodzący rok wyborczy będzie kluczowy dla wielu regionów świata, więc można oczekiwać wzrostu liczby fałszywych treści. W tym kontekście istotne jest, aby społeczeństwo było świadome możliwości w zakresie manipulacji dźwiękiem i obrazem.

Równie ważne jest utrudnianie przestępcom korzystania z technologii do tworzenia manipulacji. Złośliwe ich wykorzystanie, na przykład do obniżania frekwencji wyborczej, powinno być energicznie ścigane przez organy federalne i stanowe. Fałszywe wiadomości i podszywanie się pod osoby publiczne mogą wprowadzać w błąd całe społeczności, dlatego tym bardziej powinniśmy zachować sceptycyzm wobec mediów, które nie są przez nas uznawane za zaufane źródła.

To może cię zainteresować:

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.