Jak czyścić brudy całego świata i nie zwariować

Share on facebook
Share on twitter
Share on linkedin
Share on email
Trauma, conceptual computer artwork.
Ikon Images/East News
Przeczytanie artykułu zajmie około 3 minut

Od 8 do 10 sekund. Tyle czasu moderator Facebooka ma średnio na ocenę treści zgłoszonych jako nieodpowiednie. 15 tys. pracowników zatrudnionych przez firmy zewnętrzne codziennie ogląda setki egzekucji, samobójstw i filmów pornograficznych z udziałem dzieci

Mark Zuckerberg wielokrotnie wyrażał nadzieję, że drogą do rozwiązania problemów współczesnego świata jest jednoczenie ludzi przez łączenie ich w jedną globalną społeczność. Obecnie z Facebooka korzysta 2,3 mld osób – więcej niż populacja jakiegokolwiek państwa. W liczebności tkwi jednocześnie siła i słabość portalu.

Siłą jest to, co widzi Zuckerberg: możliwość kontaktowania się ludzi z różnych krajów i kultur. Słabością – możliwość wykorzystywania platformy do szerzenia nienawiści i promowania treści o drastycznym charakterze. A z uwagi na dużą liczbę użytkowników kontrolowanie ich poczynań jest niezwykle trudne.

Tak łatwo popełnić poważny błąd

W maju 2018 r. na ekrany trafił niemiecki dokument The Cleaners (Czyściciele internetu) traktujący o moderatorach treści zatrudnianych przez wielkie przedsiębiorstwa z Doliny Krzemowej. Jedna z bohaterek filmu Hansa Blocka i Moritza Riesewicka mówi:

„Mama powtarzała mi, że jeśli nie będę dobrze się uczyła, skończę jako zbieraczka śmieci. (…) Bałam się, że wyląduję na wysypisku, żyjąc z grzebania w odpadach. To była jedna z moich motywacji do nauki”. Teraz dziewczyna grzebie w śmieciach wrzucanych do internetu. Dzienny target dla moderatora pracującego w centrum w Manili na Filipinach to 25 tys. zdjęć dziennie. „Widziałam setki dekapitacji w swojej karierze – nie tylko fotografii, ale też filmów” – wyznaje inna informatorka. Bez trudu potrafi określić, jakim narzędziem dokonano egzekucji na zdjęciu, które właśnie przegląda.

Z prostego wyliczenia wynika, że moderator w Manili – zakładając, że pracuje osiem godzin dziennie – ma sekundę na ocenę każdego zdjęcia (na ocenę filmu, siłą rzeczy, musi mieć więcej czasu).

Nicole Wong, prawniczka i specjalistka od cenzury internetowej, która w przeszłości współpracowała z Google’em i Twitterem, podkreśla, że moderatorzy często zmuszeni są do weryfikowania treści pochodzących z obcych im kultur. Muszą więc ściśle polegać na materiałach dostarczonych przez pracodawcę. Zazwyczaj są to setki slajdów zrobionych w PowerPoincie, plansze z logotypami organizacji uznanych za niebezpieczne i przykłady niedozwolonych treści. Jeśli moderatorzy mają do czynienia z materiałami w języku, którego nie znają, używają automatycznego translatora, ale zdarza się też, że z automatu akceptują dany materiał.

To słynne zdjęcie po bombardowaniu napalmem w Wietnamie moderatorzy Facebooka uznali za pornografię dziecięcą” (Nick Ut / AP / East News)

W takim systemie pracy łatwo popełnić błąd. Zdarza się, że prace młodych niepokornych artystów są blokowane ze względu na kontekst seksualny. Zdjęcia przedstawiające ludzkie tragedie są usuwane jako zbyt drastyczne – taki los spotkał m.in. historyczne zdjęcie Nicka Uta, czyli Napalm Girl, które stało się jednym z symboli wojny w Wietnamie. Widać na nim nagą dziewczynkę, zostało więc zaklasyfikowane jako pornografia dziecięca. Moderatorzy nieraz nie mają ani kompetencji, ani czasu, by odróżnić dzieło sztuki lub ważny dokument od wulgarnego filmiku.

Zespół stresu pourazowego w pracy

W praktyce zdjęcia pokazujące dramat cywilów w czasie działań wojennych są często blokowane jako naruszające regulamin Facebooka, na równi z materiałami organizacji terrorystycznych, zawierającymi np. nagrania z egzekucji zakładników. Facebook musi także stosować się do prawa obowiązującego w krajach, w których świadczy usługi. Podczas dochodzenia w sprawie rosyjskiego wpływu na wyniki wyborów w 2016 r. w USA Colin Stretch, ówczesny wiceprezes Facebooka, przyznał, że platforma usuwała treści na prośbę władz, jeśli te uznawały je za nielegalne. Warto mieć na uwadze także to, że w takich wypadkach często za nielegalny może być uznany materiał, który po prostu jest niewygodny dla rządzących.

Na moderatorach treści spoczywa ogromna odpowiedzialność – odpowiedzialność za to, o czym dowie się świat. Część z nich za swoją pracę płaci uszczerbkiem na zdrowiu psychicznym. Długotrwałe przeglądanie dużej liczby drastycznych obrazów może wywołać zespół stresu pourazowego – zupełnie tak, jakby moderatorzy byli uczestnikami wydarzeń, jakie przyszło im oglądać np. na nadesłanych zdjęciach.

Pod koniec ubiegłego roku Facebook postanowił podwoić liczbę osób zatrudnionych na stanowiskach content reviewers. Pojawiają się pomysły, by kontrolę nad treściami sprawowano w porozumieniu z władzami konkretnych państw, choć proponowane rozwiązanie budzi liczne wątpliwości, choćby z uwagi na cenzurę. Rodzi się też pytanie, na ile społeczna odpowiedzialność biznesu powinna polegać na ingerencji w publikowane materiały. Gdzie kończy się wolność słowa, a zaczyna mowa nienawiści?

Źródła: Quartz/The Guardian/The New York Times

Share on facebook
Facebook
Share on twitter
Twitter
Share on whatsapp
WhatsApp
Share on linkedin
LinkedIn
Dominika Kardaś

Dominika Kardaś

Specjalistka od literatury i kultury. Najchętniej pisze o sprawach bliskich człowiekowi. Jak każdy typowy milenials zaliczyła epizod w korpo. Ulubiony sport: chodzenie.