Tak AI wykorzystuje nasze emocje. Obrazy nie są przypadkowe

Smutne dziecko przy urodzinowym torcie – przykład jak manipulacja emocjami AI wykorzystuje empatię użytkowników

Wystarczy jedno zdjęcie: smutne dziecko, para seniorów, samotna osoba przy stole. Reagujemy natychmiast — zanim pomyślimy. Naukowiec z Budapesztu sprawdził, dlaczego treści tworzone przez AI tak skutecznie przejmują nasze emocje.

Fałszywe posty w sieci wykorzystują naszą empatię

Sztuczna inteligencja pojawia się prawie wszędzie: w nauce, rozrywce czy w mediach społecznościowych. Powstały nawet swoiste „fabryki treści”. To ogromna liczba, często średniej jakości fałszywych postów w sieci, które są w 100 proc. stworzone przez modele językowe. Te zaś mają jeden cel – sterować użytkownikiem. 

Márk Miskolczi z Uniwersytetu Korwina w Budapeszcie sprawdził, jakie treści generowane przez AI mają największy wpływ na internautów. Przeanalizował fałszywe posty opublikowane w sieci i zestawił je z komentarzami prawdziwych użytkowników.

Okazało się, że istnieją dwa typy obrazów, które szczególnie wpływają na ludzi.

Emocje działają najsilniej. Szczególnie wzruszenie i współczucie

Dominującym motywem jest „Emocja i Nostalgia”. Obrazy z tej kategorii zwykle przedstawiały parę seniorów, którzy świętowali kolejną rocznicę ślubu, z podpisem twierdzącym, że są razem od dziesięcioleci. Właśnie to działa na ludzi jak magnes.

Inną kategorią materiałów, które działały na użytkowników jest „Wywoływanie empatii”. Grafiki tego rodzaju przedstawiały zwykle osoby w trudnej sytuacji – biedne lub samotne. Tym obrazkom często towarzyszyło pytanie, czy odbiorcy posta podzieliliby się z nimi kawą.

Prosty mechanizm manipulacji

Użytkownicy chętnie kierowali wyrazy wsparcia, słowa modlitwy czy błogosławieństwa pod adresem osób, które tak naprawdę nie istniały. Co ciekawe, często te posty nie były wysokiej jakości. To właśnie zwykłe, niedopracowane obrazy generowane przez AI wywoływały największe zaangażowanie. Taka manipulacja emocjami w mediach społecznościowych okazuje się wyjątkowo skuteczna.

Jak działa manipulowanie emocjami przez AI

Istnieje kilka mechanizmów psychologicznych, które odpowiadają za wywieranie wpływu na użytkowników:

  • Szybkość ponad fakty – nasze umysły dążą do podjęcia szybkiej decyzji, nawet kosztem prawdy. Im bardziej obraz przemawia do naszych przekonań, tym łatwiej ignorujemy sygnały, że jest on niezgodny z faktami.
  • Pułapka kotwicy – pierwsze wrażenie po obejrzeniu zdjęcia jest tak silne, że odciąga uwagę od wadliwych szczegółów. Emocje dominują nad analizą prawdziwych szczegółów.
  • Efekt znajomości – jeśli widzimy znane i miłe nam motywy, czujemy się bezpiecznie. Oszuści wykorzystują to, tworząc iluzję prawdy i jednocześnie nami manipulując.
  • Myślenie grupowe – jeśli tysiące użytkowników, nawet tych nieistniejących, zatwierdzi post, kolejni prawdziwi użytkownicy są skłonni zrobić to samo.
  • Efekt powielania treści – im częściej widzimy podobne wpisy, tym nasz system obronny słabiej reaguje.

Wielu użytkowników komentowało nie tylko by zareagować na obraz, lecz aby się połączyć, poczuć mniej samotnie, otrzymać odpowiedź lub uczestniczyć w wspólnym emocjonalnym doświadczeniu. To sugeruje, że siła perswazji nie jest wyłącznie wizualna; jest społeczna i relacyjna

– powiedział dr Miskolczi, autor badania, w rozmowie z portalem PsyPost.

Nikt nie jest bezpieczny

Wyniki badań opublikowanych w czasopiśmie Science Direct, jednoznacznie pokazują, że wszyscy jesteśmy narażeni na manipulację AI na Facebooku – nie tylko seniorzy lub osoby słabo wykształcone –co często podpowiadają nam stereotypy.

Właśnie dlatego musimy wiedzieć, jak się przed nią bronić.

Jak się ustrzec przed fałszywymi postami?

Márk Miskolczi zaproponował dwa mechanizmy, które mogą pomóc w identyfikacji treści generowanych przez AI:

  • ESMA – 8-stopniowa skala kontroli obrazu. Pomoże wychwycić najczęstsze oznaki generowanych treści przez AI: tło, tekst, ręce, twarze, a nawet oświetlenie;
  • TSMA – 10-stopniowy przewodnik. Pomaga wykrywać boty i fałszywe wzorce komentarzy.

Ludzka empatia i potrzeba kontaktu z drugim człowiekiem sprawiają, że treści generowane przez AI skutecznie działają na człowieka. Nasze emocje umożliwiają manipulację, bo przegapiamy drobne niuanse, skupiając się na głównym przekazie. Właśnie dlatego powinniśmy przeciwdziałać szkodliwemu mechanizmowi. 

Wobec rosnącej skali i skuteczności manipulacji jedyną realną ochroną są działania kompleksowe. Powinny one przy tym łączyć trzy elementy: zaawansowane systemy weryfikacji treści, konsekwentną edukację cyfrową użytkowników oraz pełną przejrzystość samych platform społecznościowych.

Warto przeczytać: Co odkrył Project Mercury? Ujawniono wyniki badań Facebooka


Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę:

Postaw mi kawę na buycoffee.to

Opublikowano przez

Patrycja Krzeszowska

Dziennikarz


Absolwentka dziennikarstwa i komunikacji społecznej Uniwersytetu Rzeszowskiego. W mediach pracuje od 2019 roku. Współpracowała z redakcjami newsowymi oraz agencjami copywriterskimi. Ma ugruntowaną wiedzę psychologiczną, zwłaszcza z psychologii poznawczej. Interesuje się także tematami społecznymi. Specjalizuje się w odkryciach i badaniach naukowych, które mają bezpośredni wpływ na życie człowieka.

Nasze filmy na YouTube:

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.