Media społecznościowe wypaczają rzeczywistość. Alarmujące wyniki badań

Codzienne interakcje ludzi z algorytmami mają negatywne konsekwencje: prowadzą do konfliktów społecznych, ułatwiają szerzenie się fake newsów oraz kłamstw. Nowe badania przynoszą niepokojące informacje na temat mediów społecznościowych i ich wpływu na otaczający nas świat.

Nad dyfuzją treści w social mediach władzę sprawuje sztuczna inteligencja. To programy decydują kto i co zobaczy na ekranie komputera lub telefonu. Podstawowym zadaniem algorytmów na podobnych platformach jest podtrzymanie zaangażowania użytkowników i zachęcenie ich do powrotu na stronę.

W efekcie polityki prowadzonej przez media społecznościowe do odbiorców najczęściej trafiają treści, w które są skłonni uwierzyć. Wzmacnia to ich światopogląd (tzw. bańka informacyjna) i utrudnia obiektywną ocenę rzeczywistości. W psychologii społecznej określa się podobne wiadomości jako PRIME, co jest skrótem od słów: prestiżowe, wewnątrzgrupowe, umoralniające i emocjonalne (prestigious, in-group, moral, emotional information). Tego typu informacje mogą wpływać nie tylko na jednostki, ale kreować powstawanie całych grup wyznających określone (promowane) idee.

Dlaczego ufamy wiadomościom?

Zaufanie do treści „PRIME” nie wzięło się znikąd. Od setek lat w przekazywaniu informacji brały udział „wiarygodne” (w rozumieniu ówcześnie żyjących) osoby i instytucje. Stąd na przykład tak duży wpływ Kościoła na historię. Ale nie chodzi tylko o kler. Ludzie odnoszący sukcesy, celebryci i naukowcy często stawali się mentorami dla mas. To zjawisko nie zniknęło i współcześnie podsycane jest przez media społecznościowe.

Algorytmy mogą wzmocnić przekaz i wypromować udostępnioną treść. Nie mamy nad tym zjawiskiem kontroli. Czasem można odnieść wrażenie, że efekty działań sztucznej inteligencji na portalach społecznościowych zaskakują samych właścicieli stron. 

Niestety, przykłady dezinformacji można mnożyć. W sieci ogromną popularność zyskała teoria, że szczepienia przeciwko odrze, śwince i różyczce powodują autyzm u dzieci. Żadne badania nie potwierdziły związku między tymi sprawami (choć w większości finansowały je koncerny farmaceutyczne), jednak wiele osób uwierzyło w podawane informacje i wskaźnik szczepień spadł. Z kolei przed wyborami w Stanach Zjednoczonych i większości krajów Europy (w tym w Polsce) pojawiały się sfałszowane grafiki, a nawet nagrania wideo (tzw. deep fake), które miały wpłynąć na decyzje obywateli przy urnach.

Polecamy:

To tylko nieliczne dowody, które pokazują, że media społecznościowe są doskonałym miejscem do szerzenia fake newsów, które w realny sposób wpływają na społeczeństwo. Stąd pojawiające się coraz częściej postulaty, aby w szkołach uczyć przede wszystkim krytycznego myślenia oraz uświadamiać, że należy weryfikować źródła wiadomości. Choć sprawa wydaje się oczywista, to w edukacji wciąż nie nastąpił w tej kwestii przełom.

Problemy z mediami społecznościowymi

Problem wydaje się jeszcze głębszy. Osoby znające zasady działania mediów społecznościowych i postępowanie odbiorców potrafią budować „zaufane” profile, a następnie sprzedawać je z zyskiem. W psychologii społecznej mówi się wręcz o zjawisku „udawania prestiżu” w sieci. Wszystko to nie prowadzi do współpracy, ale raczej zaostrza konflikty między różnymi grupami społecznymi, które wyznają odmienne wartości. Nie wszyscy zdają sobie też sprawę, że „obserwujących” oraz „lajki” można… kupić.

Na świecie wciąż pokutuje też teza o „społecznym potwierdzeniu słuszności”. Często kierujemy się opiniami innych, aby ocenić, czy nasze działania i przekonania są właściwe. Inne osoby nas kształtują, a media społecznościowe są idealnym środowiskiem do oceny własnego postępowania na podstawie komentarzy pozostałych odbiorców.

Dysfunkcje mediów społecznościowych

Interakcja między ludzką psychiką i amplifikacja algorytmów prowadzą do dysfunkcji, bo nie można pogodzić rozwijania umiejętności społecznych (współpracy, rozmowy, rozwiązywania konfliktów) z prostym zwiększeniem zaangażowania w prezentowane materiały (zyskiem ekonomicznym).

Skutkuje to nieprawidłowym postrzeganiem świata. Niedawne badania sugerują, że algorytmy selektywnie wzmacniają skrajne poglądy polityczne. Zaczynamy przez to myśleć, że „nasza” grupa różni się od „innych” znacznie bardziej, niż jest w rzeczywistości. Taka „fałszywa polaryzacja” prowadzi do konfliktu.

Zobacz więcej:

W mediach społecznościowych chętnie dzielimy się wiadomościami o zabarwieniu emocjonalnym (na przykład postami wywołującymi moralne oburzenie), aby skłonić innych do udostępniania ich częściej. Warto pamiętać, że algorytmy chętnie „promują” podobne treści, co może wpływać na szerzenie się dezinformacji.

Medioznawcy i psychologowie spierają się, czy wzmocnienie dyfuzji treści PRIME prowadzi do polaryzacji społecznej także poza siecią. Prowadzono na ten temat badania, ale nie dały one jednoznacznej odpowiedzi (duża część z nich była finansowana przez firmę Meta, właściciela Facebooka; niestety podobnie jest z innymi ekspertyzami, za które zazwyczaj płacą koncerny oczekujące konkretnych, pozytywnych wyników).

Środowisko naukowe jest zgodne, że Meta oraz właściciele innych mediów społecznościowych, powinni udostępnić dane na temat opracowywanych przez siebie algorytmów oraz ich wpływu na odbiorców. Jak na razie jest to jednak sfera marzeń.

Zobacz też:

Fot.: JÉSHOOTS / Pexels

Źródło: The Conversation

Opublikowano przez

Rafał Cieniek

Author


Idealista wierzący w miłość, prawdę i dobro, których szuka na świecie i wokół siebie. Mimo to starający się racjonalnie patrzeć na człowieka i rzeczywistość. Od kilkunastu lat związany z mediami elektronicznymi, gdzie był autorem, redaktorem i wydawcą. Lubi być zaskakiwany nowymi odkryciami naukowców, czytać i pisać o rozwoju technologii, historii, społeczeństwie, etyce i filozofii. Ma doktorat z nauk o mediach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.