Nauka
Roboty sprzątające AI i ChatGPT. Sztuczna inteligencja na co dzień
20 listopada 2024
Największy portal społecznościowy na świecie zmienia swoją politykę, by chronić zdrowie i życie użytkowników. Zastosowana metoda będzie podobna do tej, której użyto do walki z clickbaitami
Masowo pojawiające się na portalu treści medyczne stają się coraz większym problemem, ponieważ wielu użytkowników nie potrafi ocenić ich rzetelności. W rezultacie władze firmy zdecydowały o zaostrzeniu polityki, co – według oficjalnych deklaracji – ma znacznie zmniejszyć liczbę postów zawierających wprowadzające w błąd informacje tego typu.
Na celowniku znajdą się wpisy zawierające sensacyjne informacje (np. o cudach medycznych) oraz takie, które promują produkty medyczne o wątpliwym działaniu (np. tabletki na odchudzanie).
„Ludzie nie lubią postów zawierających sensacyjne informacje lub spam, a także takich, które przekazują błędne treści” – czytamy w oficjalnej informacji firmy na temat nowej polityki. Facebook pokazał już swoją potęgę, ograniczając ilość treści o charakterze clickbaitowym.
Portal zapewnia, że nowe reguły w żaden sposób nie wpłyną na wygląd strony głównej, ponieważ działanie serwisu skupi się na stronach generujących fałszywe treści, które zostaną automatycznie zablokowane przez algorytm.
Jak podaje portal The Verge, w 2018 r. Facebook usunął 1,23 mld fałszywych treści, spamu oraz nieprawdziwych kont. Wprowadzające w błąd posty medyczne stanowią odrębny temat, ponieważ informacje, które zawierają, mogą mieć poważne konsekwencje dla zdrowia i życia osób, które postanowią im zaufać. A takich osób nie brakuje.
Temat nieprawdziwych treści internetowych podjął w zeszłym miesiącu dziennik „Washington Post”, ujawniając funkcjonowanie na portalu zamkniętych grup, których członkowie rozpowszechniają fałszywe informacje dotyczące spraw zdrowotnych.
Użytkownicy dzielili się wiadomościami na temat alternatywnych sposobów leczenia raka. W postach można było przeczytać, że „cudownym lekiem” na to schorzenie – jakoby – są zastrzyki z proszku do pieczenia lub wybielaczy przemysłowych.
Z kolei telewizja NBC informowała o grupie rodziców, którzy na Facebooku zalecali stosowanie terpentyny, a nawet dziecięcego moczu, do leczenia autyzmu. Rekomendowany był również ditlenek chloru przeznaczony do dezynfekcji ran.
Osobnym tematem są szczepionki, wokół których narosło wiele mitów na temat ich rzekomej szkodliwości. Takie wpisy również będą automatycznie usuwane przez algorytm. Z kolei grupy, w których dochodzi do publikacji fałszywych treści, nie będą usuwane, ale ich wyszukanie stanie się znacznie trudniejsze.
Walką z nieprawdziwymi informacjami medycznymi zajmuje się również polska naukowiec Aleksandra Nabożny. Jej celem jest stworzenie specjalnego algorytmu, który będzie ostrzegał internautów przed stronami zawierającymi wątpliwe informacje na temat medycyny. Algorytm projektowany przez Polkę będzie działał nieco inaczej niż ten stosowany przez Facebooka, ponieważ opublikowane treści będą podlegać weryfikacji grupy specjalistów.
Źródła: Facebook, Vox, The Verge, Washington Post, NBC