Fałszywe wideo, które stworzysz w osiem minut. A to dopiero początek

Profesor Ethan Mollick z Uniwersytetu Pensylwanii zamieścił w sieci film, w którym mówi na temat przedsiębiorczości. Materiał nie wyróżnia się niczym szczególnym. Jeśli przyjrzeć się bliżej, to okaże się, że wypowiedź jest nieco sztywna, a usta poruszają się nieco nienaturalnie. To efekt zastosowania „deepfake’a”, za pomocą której wykładowca opracował fałszywe wideo przedstawiające jego samego.

Na umieszczonym na portalu LinkedIn filmiku, Mollick wygląda na typowego wykładowcę. Jest ubrany w koszulę w kratę, jego wypowiedź jest składna. Niewiele szczegółów zdradza, że postać na filmie powstała dzięki uczeniu maszynowemu (ang. machine learning). Profesorowi Uniwersytetu Pensylwanii wystarczyło osiem minut, żeby wygenerować fałszywe wideo, w którym obraz i głos jest sztuczny. Tworzenie nieprawdziwych wiadomości nigdy nie było takie łatwe. Niesie to ze sobą poważne konsekwencje.

Co to jest deepfake?

Jest to metoda obróbki obrazu, która polega na łączeniu obrazów za pomocą sztucznej inteligencji. AI może również wygenerować głos do nagrania, który w połączeniu z obrazem tworzy film bardzo trudny do weryfikacji.

Nazwę tę  zaproponował użytkownik, który w 2017 roku w serwisie Reddit opublikował fałszywy film pornograficzny przedstawiający aktorkę Gal Gadot. Jakość nagrania była niska, ale tysiące użytkowników wzięło materiał za autentyczny. W tamtym momencie ujawniło się całe niebezpieczeństwo, jakie niesie ze sobą deepfake.

Nie trzeba było długo czekać na wzrost popularności tej techniki. Serwis CNBC informował, że na początku 2019 opublikowano 7964 filmy deepfake, a zaledwie dziesięć miesięcy później było ich już 14 678.

Fałszywe wideo, które stworzysz w osiem minut. A to dopiero początek
Midjourney

Co zrobił profesor Mollick?

Wykładowca z Uniwersytetu Pensylwanii nie zrobił niczego odkrywczego. Użył swojego zdjęcia i głosu, żeby wygenerować za pomocą AI swój cyfrowy odpowiednik. Wszystko zajęło mu osiem minut i kosztowało kilka dolarów.

Chciałem sprawdzić, czy uda mi się samodzielnie przygotować  fałszywe wideo. Okazało się, że to nie tylko proste, ale zajmuje tylko kilka minut

powiedział Mollick w wywiadzie dla portalu NPR

Profesor uświadomił sobie szybko jak poważne konsekwencje niesie ze sobą deepfake. Za jego sprawą autorzy fałszywych wiadomości wkraczają na niedostępny dotąd grunt, którym są materiały filmowe. Nasuwa się zatem pytanie, jakie konsekwencje niesie sobą powstanie tej metody?

Przeczytaj też:

Kto używa deepfake’ów?

Możliwość podłożenia pod dowolne wideo praktycznie każdej postaci daje idealną okazję do wpływania na publikę. Deepfake’i można wykorzystać bowiem do skompromitowania kogoś. Ofiarą może stać się właściwie każdy, kto umieścił  w sieci swoje zdjęcia i filmy. Najbardziej narażone są osoby rozpoznawalne – celebryci, aktorzy, dziennikarze i politycy. W przypadku tych ostatnich jest to szczególnie niebezpieczne, ponieważ może wywołać daleko idące implikacje.

Przy obecnej technice nic nie stoi na przeszkodzie, żeby wygenerować fałszywy film z Joe Bidenem, w którym grozi Rosji użyciem broni nuklearnej. Można się spodziewać, że administracja prezydenta USA szybko zdementowałaby takie wideo, ale informacja zostałaby puszczona w obieg i krążyłaby po sieci, wprowadzając w błąd. Pomysłów na zastosowanie deepfake’ów jest zapewne tyle, ilu ludzi mieszka na Ziemi.

Jednym z głośniejszych przykładów na zastosowanie tej techniki było podrobienie głosu. W 2019 roku złodzieje podszyli się pod głos jednego z dyrektorów brytyjskiej firmy energetycznej i zadzwonili do szefa jej niemieckiej filii. W czasie rozmowy nakłonili go do przelania 220 tys. euro. Ofiara twierdziła później, że głos jego przełożonego „miał tę samą melodię” oraz niemiecki akcent. Sprawcy tej zuchwałej kradzieży, póki co nie zostali złapani.

Pozytywne przykłady

Deepfake może być użyty w dobrej wierze, bo narzędzie to – jak większość technologii – nie jest złe samo w sobie. Studia filmowe stosują go do „odmładzania” niektórych aktorów. Tak było w przypadku Luke’a Skywalkera granego przez Marka Hamilla. Dzięki uczeniu maszynowemu aktor został odmłodzony i trudno było uwierzyć, że jest to sztucznie wygenerowana postać. Podobnie było z komandorem Tarkinem w filmie „Łotr 1”. Peter Cushing, który wcielał się w jego rolę w „Nowej Nadziei”, zmarł w 1994 roku. Z pomocą sztucznej inteligencji filmowcy nałożyli jego twarz na aktora, który służył jako baza do odtworzenia postaci z oryginalnego filmu. 

Deepfake jest często stosowany do celów czysto satyrycznych. Przykładem mogą być filmiki z Joe Bidenem grającym w grę „Minecraft” razem z Barrackiem Obamą i Donaldem Trumpem.  Nie zmienia to faktu, że w rękach nieodpowiednich osób narzędzie to niesie ze sobą poważne zagrożenie. W 2022 roku rosyjscy propagandziści opublikowali na Facebooku wideo, na którym Ppezydent Ukrainy, Wołodymir Zełeński ogłasza kapitulację swojego kraju. Film szybko został usunięty z serwerów, ale zanim do tego doszło, tysiące osób mogło uwierzyć w poddanie się państwa.

@shrekswampfun

Replying to @unfunny_person23 Episode 3: Biden Griefs Trump’s House #trump #biden #obama #deepfake #meme #minecraft #fake

♬ Minecraft – C418

Jak walczyć z deepfake’ami?

Walka może odbywać się na dwóch płaszczyznach. Pierwszą jest oprogramowanie, które ma rozpoznać fałszywe wideo. Z fałszywymi treściami wideo chcą walczyć Microsoft i Facebook. W 2019 powołały inicjatywę o nazwie Deepfake Detection Challenge. Firma Marka Zuckerberga przeznaczyła na ten cel 10 mln dolarów.

Drugim sposobem jest samodzielna weryfikacja treści, które do nas docierają. Będzie to jednak coraz trudniejsze, ponieważ postęp w tej dziedzinie przyspiesza. W niedalekiej przyszłości będą pojawiać się coraz lepsze narzędzia, które wygenerują obraz jeszcze lepszej jakości niż obecnie. Powstaje zatem pytanie, czy samodzielna weryfikacja treści jest w ogóle możliwa?

Źrodła:

  1. Shannon Bond, „NPR”, „It takes a few dollars and 8 minutes to create a deepfake. And that’s only the start”, 2023
  2. Ana Diaz, „TikTok videos are using AI tools to turn Biden, Trump, and Obama into Discord goblins”, 2023
  3. Ethan Mollick, „One useful thing”, „A quick and sobering guide to cloning yourself”, 2023
  4. Grace Shao, „CNBC”, „What ‘deepfakes’ are and how they may be dangerous”, 2019

Przeczytaj również:

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.