Nauka
Niepokojące dane z USA: 70 proc. mniej publikacji kobiet w nauce
19 października 2025
Instagram obiecywał rodzicom bezpieczeństwo, a dzieciom ochronę przed szkodliwymi treściami. Najnowszy raport pokazuje jednak coś zupełnie innego – algorytm Instagrama nie tylko nie chroni młodych użytkowników, ale wręcz promuje treści zagrażające ich zdrowiu psychicznemu. Skala problemu jest większa, niż Meta chce przyznać.
Raport przygotowany przez organizacje Fairplay, Molly Rose Foundation i ekspertów z Cybersecurity for Democracy nie pozostawia złudzeń. Badacze przetestowali 47 z 53 funkcji bezpieczeństwa ogłoszonych przez Meta dla młodych użytkowników Instagrama w 2024 roku. Wynik? 64 proc. narzędzi otrzymało ocenę „czerwoną” – oznaczającą, że zostały usunięte lub są całkowicie nieskuteczne.
„Meta wielokrotnie udowodniła, że po prostu nie można jej ufać” – piszą w raporcie Ian Russell i Maurine Molak. Rodzice nastolatków, którzy odebrali sobie życie po zetknięciu się z toksycznymi treściami na Instagramie, mówią wprost: to nie były pojedyncze tragedie, lecz efekt działania algorytmów bez kontroli. Minęło prawie dziesięć lat od śmierci ich dzieci, a problem nie tylko nie zniknął – algorytmy wciąż podsuwają dzieciom treści o samookaleczeniu, zaburzeniach odżywiania i seksualizacji.
Badacze stworzyli dziesiątki testowych profili nastolatków. Te konta zachowywały się jak prawdziwi młodzi użytkownicy – lajkowały, przeglądały i obserwowały. Efekt? Algorytm Ignstagrama przebił wszystkie najgorsze przewidywania – mimo włączonych zabezpieczeń system promował przemoc, treści seksualne i materiały zachęcające do samookaleczeń.
Co gorsza, badacze natrafili na zjawisko naprawdę alarmujące. Algorytm Instagrama premiował konta wyglądające na prowadzone przez bardzo młode dziewczynki, podbijając zasięgi materiałów o charakterze wywołującym niebezpieczną uwagę dorosłych użytkowników. Filmy z pozornie niewinnymi pytaniami typu „jestem ładna?” zdobywały ponad milion wyświetleń i tysiące komentarzy, często w wulgarnej formie. Zwykłe nagrania tych samych profili nie osiągały nawet ułamka takich wyników.
Jak rozmawiać z młodymi ludźmi o ich problemach? Dowiedz się na naszym kanale na YouTube:
Lista zepsutych funkcji jest długa. Narzędzie „Take a Break”, które miało przypominać nastolatkom o przerwach, najwyraźniej zostało usunięte – mimo że Meta nigdy tego nie ogłosiła. „Hidden Words”, mające filtrować obraźliwe komentarze, nie zatrzymało agresywnych wiadomości. Multi-block, zapobiegający nękaniu przez nowe konta tej samej osoby, po prostu nie działał.
Gdy badacze sparowali konta nastolatków z kontami rodzicielskimi, odkryli kolejny problem: rodzice nie otrzymywali informacji o tym, jakie treści faktycznie oglądają ich dzieci. Panel nadzorczy pokazywał jedynie wybrane przez nastolatka tematy zainteresowań – nie ujawniając, że algorytm polecał im nieodpowiednie materiały.
„Nie możemy marnować więcej czasu ani pozwolić, by więcej dzieci ucierpiało przez samoregulację Meta” – konkludują autorzy raportu. W USA apelują o uchwalenie ustawy Kids Online Safety Act, w Wielkiej Brytanii o wzmocnienie Online Safety Act.
Badacze wzywają też do niezależnych audytów funkcji bezpieczeństwa – podobnych do tych, jakim poddawane są systemy bezpieczeństwa w samochodach. Czy branża technologiczna w końcu potraktuje ochronę dzieci poważnie? Czy może, jak dotąd, będzie liczyć na to, że kolejne zapowiedzi bez pokrycia wystarczą, by uciszyć krytykę?
Czasami źródłem zagrożeń dla dzieci w internecie są… sami rodzice. Sprawdź artykuł: Nie przestaną nagrywać dzieci. Fundacja chce normalizować sharenting
Do 31 października możesz skorzystać z darmowej dostawy paczkomatem.
Wpisz kod HNEWS0 finalizując zakupy w Księgarni Holistic News
Prawda i Dobro
19 października 2025
Zmień tryb na ciemny