Nauka
Topnienie lodowców na Antarktydzie. Wulkany mogą się obudzić
29 grudnia 2024
21 stycznia 2024 roku pewien wyborca ze stanu New Hampshire odebrał telefon od osoby podającej się za prezydenta USA Joe Bidena. Nie on jeden. W nagraniu fałszywy polityk apelował o to, by powstrzymać się od uczestnictwa w prawyborach stanowych.
Nagranie zawierało informacje o tym, że członkowie Partii Demokratycznej co prawda mogą głosować w prawyborach Republikanów, ale że udział w nich uniemożliwi głosowanie w wyborach ogólnokrajowych w listopadzie. Tymczasem prawo stanu New Hampshire pozwala niezarejestrowanym wyborcom w sposób wolny brać udział w prawyborach obu partii.
Zobacz też:
Wszystko wskazuje na to, że nagranie zostało stworzone przy użyciu sztucznej inteligencji i miało na celu zniechęcenie do głosowania. Takie fałszywe rozmowy telefoniczne nie są nowością w okresie wyborczym i, co więcej, nie są nielegalne. Dziś trudno już odróżnić, co jest prawdziwe, a co nie.
Ostatnio pojawiło się wiele firm oferujących usługi umożliwiające podszywanie się pod znane osobistości. Stworzenie takiego nagrania jest bardzo proste. Wystarczy wybrać osobę publiczną z listy i wpisać treść komunikatu. Strona internetowa automatycznie generuje fałszywe nagranie, które może brzmieć niezwykle wiarygodnie.
W 2019 roku naukowcy z Uniwersytetu Rutgensa w stanie New Jersey badali, jak sztuczna inteligencja może zmieniać sposób, w jaki instytucje oceniają manipulacje audiowizualne. Naukowcy zauważyli, że żaden pojedynczy przekaz medialny nie jest wiarygodny sam w sobie. Wiarygodność deepfake’ów zależy od kontekstu ich zaprezentowania i źródła udostępnienia.
Fałszywe treści są szczególnie szkodliwe, gdy są wykorzystywane do manipulowania opinią publiczną w kontrowersyjnych kwestiach. Zwalczanie kampanii dezinformacyjnych wspomaganych przez sztuczną inteligencję jest coraz poważniejszym wyzwaniem, ponieważ zdemaskowanie źródła wymaga analizy danych dotyczących danego przekazu. Metodyka ta różni się w zależności od kanałów dystrybucji, jakimi mogą być YouTube, Facebook czy e-mail. Badania nad manipulacjami audiowizualnymi są utrudnione, gdyż wiele dużych firm technologicznych ograniczyło dostęp do swoich API, co utrudnia zbieranie informacji z mediów społecznościowych.
Polecamy: Zmutowane wilki z Czarnobyla wykształciły odporność na raka
Dezinformacja wspomagana przez sztuczną inteligencję stwarza podobne problemy jak tak zwane fake newsy. Osoby wykorzystujące narzędzia AI do zakłócania procesów wyborczych z pewnością będą starały się ukryć swoje ślady. Dlatego publiczność powinna pozostać sceptyczna wobec informacji, które nie pochodzą ze zweryfikowanych źródeł, takich jak lokalne stacje telewizyjne lub renomowane portale informacyjne.
Nadchodzący rok wyborczy będzie kluczowy dla wielu regionów świata, więc można oczekiwać wzrostu liczby fałszywych treści. W tym kontekście istotne jest, aby społeczeństwo było świadome możliwości w zakresie manipulacji dźwiękiem i obrazem.
Równie ważne jest utrudnianie przestępcom korzystania z technologii do tworzenia manipulacji. Złośliwe ich wykorzystanie, na przykład do obniżania frekwencji wyborczej, powinno być energicznie ścigane przez organy federalne i stanowe. Fałszywe wiadomości i podszywanie się pod osoby publiczne mogą wprowadzać w błąd całe społeczności, dlatego tym bardziej powinniśmy zachować sceptycyzm wobec mediów, które nie są przez nas uznawane za zaufane źródła.
To może cię zainteresować: