Nauka
Serce ma swój „mózg”. Naukowcy badają jego rolę i funkcje
20 grudnia 2024
Gdy zapytamy ChatGPT co wydarzyło się w Chinach w 1989 roku, bot opowie o masakrze na placu Tiananmen. Jednak gdy zadamy to samo pytanie chatbotowi Ernie, to odpowie on, że nie ma na ten temat informacji. Ernie został opracowany przez chińską firmę Baidu i okazuje się, że służy autorytarnej propagandzie.
Sztuczna inteligencja kształtuje poglądy milionów osób m.in. na prawa człowieka oraz historię. Aplikacje opracowane przez OpenAI, Metę i Google’a pozwalają unikać cenzury internautom z całego świata. W wielu krajach dostęp do rzetelnych treści jest utrudniony, ponieważ władze blokują niezależne portale oraz profile w mediach społecznościowych.
Autorytarne reżimy szybko zorientowały się, że AI może stanowić dla nich zagrożenie. Dlatego Chiny zainwestowały w opracowanie chatbota Ernie, który znajduje się pod kontrolą władz i cenzuruje informacje.
Komunistyczny rząd uchwalił też przepisy, które ograniczają dostęp do zagranicznych narzędzi AI i nakazują korporacjom stosowanie się do zasad dotyczących publikowania treści. Wszystkie firmy w Państwie Środka mają na przykład promować „podstawowe wartości socjalistyczne”. Chatboty nie mogą informować m.in. o prześladowaniu Ujgurów i innych mniejszości. W związku z nowymi wymogami firma Apple musiała usunąć ze swojego sklepu internetowego ponad sto aplikacji, a najnowsze wersje programów autorstwa OpenAI nie ukazują się w tym kraju.
Autorytarny rząd zaczął wspierać lokalne firmy i zlecił im opracowanie własnych chatbotów, które mają cenzurować informacje. Chińskie prawo wymaga, aby algorytmy dostarczały „prawdziwe, dokładne, obiektywne i różnorodne” treści. Jednak o tym co jest prawdziwe i obiektywne decyduje Komunistyczna Partia Chin. Dlatego programy odmawiają udzielania odpowiedzi na drażliwe pytania oraz powtarzają propagandę władz.
Modele językowe opierające się na przekazach rządu oraz niekompletnych danych często generują nieprawdziwe treści. Ernie negatywnie wypowiada się na przykład na temat wolności i demokracji.
AI cenzurowana jest również w Rosji. Kilka firm opracowało tam własne chatboty. Gdy zapytamy Alice (model językowy opublikowany przez rosyjską wyszukiwarkę Yandex) o inwazję na Ukrainę, to otrzymamy odpowiedź, że algorytm „nie jest przygotowany” na omówienie tematu, ponieważ nie chce nikogo obrazić. Program milczy też o innych kontrowersyjnych kwestiach, np. nie powie nam nic o opozycjoniście Aleksieju Nawalnym. Dowodzi to, że trudno jest dotrzeć do rzetelnych informacji w kraju Władimira Putina.
Zobacz też:
Chatboty z Chin i Rosji powinny być dla świata ostrzeżeniem. Mniejsze państwa mogą nie mieć zasobów, aby opracować własne algorytmy, które będą rozpowszechniały propagandowe wiadomości. Mogą jednak próbować dyskredytować odpowiedzi generowane na przykład przez ChatGPT.
Ostatnio stało się tak w Wietnamie, gdzie media wzięły w obronę partię komunistyczną oraz Hồ Chí Minha. Teraz władze tego kraju chcą wprowadzenia ścisłej kontroli narzędzi bazujących na sztucznej inteligencji.
Algorytmy mogą pomóc w uniknięciu cenzury, ale też same mogą cenzurować treści. Wcześniej duże nadzieje związane z wolnością słowa wiązano z serwisami społecznościowymi, jednak autorytarne reżimy ograniczają wolność oraz blokują publikowanie niewygodnych dla nich treści. Przykład Chin i Rosji pokazuje, że sztuczna inteligencja może służyć też propagandzie.
Zobacz również:
Polecamy: