Prawda i Dobro
Molestowanie własnego życia. Przestańmy popychać wskazówki zegara
19 marca 2026

Badania pokazują, że tydzień z odpowiednim algorytmem mediów społecznościowych zmienia poglądy polityczne tak skutecznie, jak trzy lata życia offline. Co gorsza – wyłączenie mechanizmu nie cofa tych zmian. Czy nasze przekonania są jeszcze nasze?
Scrollujesz, czytasz, reagujesz. Wydaje ci się, że to ty decydujesz, co przykuwa twoją uwagę – tymczasem ktoś już podjął tę decyzję za ciebie. Niewidoczny, matematyczny pośrednik stoi między tobą a rzeczywistością i pilnuje, żebyś widział dokładnie to, co ma sprawić, że zostaniesz na platformie jak najdłużej. W tym procesie nie liczy się to, co prawdziwe i ważne. Liczy się to, co angażuje. Po to zostały stworzone dzisiejsze algorytmy mediów społecznościowych.
Stąd już tylko krok do pytania czy twoje poglądy – także te polityczne – są rzeczywiście twoje? Czy może zostały ci podsunięte przez mechanizm platformy, której jedynym interesem jest twój czas i uwaga?
Zakładamy, że jesteśmy istotami rozumnymi – zdolnymi do samodzielnej oceny, wolnego wyboru, świadomej decyzji. To fundament humanizmu i w gruncie rzeczy tego, jak sami siebie postrzegamy. Tymczasem badania mówią coś niewygodnego: algorytmy mediów społecznościowych nie tylko filtrują to, co widzimy – one aktywnie przebudowują sposób, w jaki myślimy. Wzmacniają nasze uprzedzenia, zostawiają ślady w psychice i robią to na tyle skutecznie, że przestajemy to zauważać.
Analiza opublikowana w czasopiśmie Nature, przeprowadzona na prawie 5000 ochotnikach, nie pozostawia złudzeń: algorytmy mediów społecznościowych realnie wpływają na poglądy polityczne. U uczestników, którym włączono spersonalizowany algorytm, przekonania przesunęły się w prawo. Chętniej krytykowali śledztwa wobec Donalda Trumpa, częściej prezentowali stanowisko zbieżne z narracją Kremla w sprawie Ukrainy, a w centrum ich uwagi coraz mocniej pojawiały się inflacja, imigracja i przestępczość.
Spodziewaliśmy się, że algorytm będzie miał pewien wpływ na postawy polityczne, ale nie oczekiwaliśmy, że efekty będą tak wyraźnie jednokierunkowe: włączenie algorytmu zmieniało poglądy, ale jego wyłączenie ich nie odwracało. Ta asymetria nie była wcześniej udokumentowana
– czytamy w badaniu.
Kant nazwałby to heteronomią: stan, w którym nasza wola przestaje kierować się własnym rozumem, a zaczyna tańczyć tak, jak jej zagrają zewnętrzne siły. Mechanizm jest prosty. Algorytmy wynoszą na powierzchnię treści konserwatywne i politycznych aktywistów, spychając w cień tradycyjne media.
Co więcej – nawet po wyłączeniu algorytmu użytkownicy nadal otrzymywali stronnicze treści. To nie błąd systemu, ale jego logika. Platforma działa jak klasyczne warunkowanie sprawcze opisane przez psychologa B.F. Skinnera: lajk, komentarz, udostępnienie – każda z tych reakcji uwalnia dopaminę i zakorzenia nawyk. Do tego dochodzi efekt potwierdzenia – mechanizm, przez który chętniej przyswajamy informacje zgodne z tym, w co już wierzymy, a niewygodne fakty po prostu filtrujemy.
Badanie odsłania przy tym coś szczególnie niepokojącego: włączenie algorytmu zmienia sposób myślenia, ale jego wyłączenie już go nie przywraca. Ślad pozostaje. Pojawia się więc pytanie, które warto zadać sobie serio – czy to wciąż jest nasz wybór, czy już tylko poruszamy się w środowisku, które ktoś zaprojektował za nas?
Sytuacja nie jest jednostkowa. Już w 2025 roku opublikowano badanie w czasopiśmie Science, które wykazało, że przetasowanie postów w mediach społecznościowych użytkowników znacznie wpłynęło na ich preferencje polityczne. Zaledwie w ciągu tygodnia ich postawa zmieniła się o dwa punkty. Niby niewiele, lecz w świecie offline taka zmiana postawy zajmuje ok. trzech lat. Zwiększenie ekspozycji na treści wyrażające wrogość partyjną oraz antydemokratyczne postawy ochładzało uczucia do „ulubionej” partii, zmniejszenie zaś ocieplało. Był to efekt symetryczny dla obu stron.
Profesor Andrzej Zybertowicz podczas wystąpienia na naszej corocznej konferencji Holistic Talk w 2025 roku powiedział:
Żyjemy w czasach nadmiaru, a nasze organizmy ewolucyjne – jak mówi profesor Lembke z Uniwersytetu Stanforda – nie są przyzwyczajone do nadmiaru bodźców.
Socjolog podkreślił, że nasze organizmy są przestymulowane i są coraz mniej zdolne do odczuwania przyjemności, a częściej doświadczają przykrości:
Okazało się, że wytworzona została pewna maszyneria zarządzania ludźmi, żeby nas kontrolować, nie trzeba nam ani nakazywać, ani zakazywać. Wystarczy nas przebodźcować z użyciem cyfrowych technologii uzależniających, żebyśmy zgubili potrzebę życia wewnętrznego, żebyśmy się bali tego życia.
Prawda stała się produktem, dobro mierzy się kliknięciami, a człowiek – istota zdolna do refleksji i wolnego wyboru – zostaje sprowadzony do roli użytkownika, którym można sterować. Nasze wybory polityczne przestały być w pełni nasze. Zostały po cichu ukierunkowane na to, co algorytm uznał za wystarczająco angażujące, żeby zatrzymać nas przed ekranem jeszcze chwilę dłużej.
Nie jesteśmy bezradni. Możemy świadomie wybierać feed chronologiczny zamiast spersonalizowanego, szukać źródeł spoza własnej bańki i zatrzymywać się przed kolejnym scrollowaniem z pytaniem – skąd pochodzi ta informacja i dlaczego akurat ona trafiła do mnie teraz.
Algorytm to narzędzie, które działa tak długo, jak długo mu na to pozwalamy. Pytanie nie brzmi, czy platformy będą próbowały kształtować nasze myślenie – bo będą. Pytanie brzmi, czy im na to pozwolimy. Scrollowanie z automatu albo świadome, krytyczne czytanie – to wybór, który każdy z nas podejmuje codziennie. I który, jak pokazują badania, ma znaczenie większe, niż mogłoby się wydawać.
Warto przeczytać: Z globalnej wioski do plemion. Jak nas dzielą ekrany i algorytmy
Życzymy udanych zakupów!
Redakcja
Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę: