Chatboty zagrażają demokracji? Zbadano poglądy polityczne AI

Poglądy polityczne AI pod lupą. czy sztuczna inteligencja jest lewicowa? na zdjęciu: mężczyzna siedzący przy komputerze

Większość modeli AI nie jest politycznie neutralna. Badania pokazują, że ich odpowiedzi częściej przypominają język liberalnej klasy średniej niż konserwatywnych wyborców. W erze, gdy sztuczna inteligencja kształtuje opinie milionów ludzi, poglądy polityczne AI to nie ciekawostka – to realne wyzwanie dla demokracji.

Czy sztuczna inteligencja jest lewicowa?

Liczne badania z ostatnich lat konsekwentnie wskazują na lewicowo-liberalny „przechył” w dużych modelach językowych. W głośnej pracy opublikowanej w PLOS One w 2024 r. David Rozado poddał 24 różne narzędzia AI serii testów diagnozujących orientację polityczną i wartości społeczne. Uzyskane odpowiedzi porównał następnie z programami partii i poglądami elektoratów. Okazało się, że zdecydowana większość konwersacyjnych modeli AI generowała tendencyjne odpowiedzi charakterystyczne dla poglądów centrolewicowych.

Podobne wnioski płyną z innych analiz – od przeglądowych prac typu Unpacking Political Bias in Large Language Models, po studia konkretnych modeli. Ogólny obraz jest spójny: na pytania o podatki, regulację rynku, prawa mniejszości czy kwestie obyczajowe, obecne chatboty rzadko odpowiadają jak konserwatywny polityk. Znacznie częściej otrzymamy odpowiedzi, jakie moglibyśmy usłyszeć z ust centrolewicowego eksperta czy dziennikarza liberalnego magazynu.

Dlaczego większość modeli AI jest tendencyjna?

Na ten liberalno-lewicowy „przechył” składa się kilka mechanizmów. Po pierwsze, dane treningowe, czyli trzon współczesnych modeli językowych, stanowią ogromne zbiory tekstów z internetu, książek i prasy. W tekstach tych dominuje język „wykształconych elit z dużych miast”, w tym redakcji mediów głównego nurtu i środowisk akademickich. Tam od lat dominuje światopogląd liberalny w kwestiach obyczajowych, pro-mniejszościowy i bardziej etatystyczny w sferze regulacji. Jeśli model AI czyta głównie media liberalne, blogi progresywne i prace naukowe z uniwersytetów, będzie „uznawał” taki język za domyślnie poprawny.

Po drugie, na tendencyjność modeli AI w dużej mierze wpływa etap ich kalibracji, czyli dopasowania działania modelu do wytycznych i wartości wyznaczonych przez ludzi. Na tym etapie firmy technologiczne dodają warstwy filtrów bezpieczeństwa i preferencji, aby model AI unikał mowy nienawiści, dyskryminacji czy treści uznanych za szkodliwe. Jak pokazują analizy Rozado, systemy moderacji OpenAI nierówno traktują różne grupy. Przejawia się to tym, że częściej oznaczają one krytykę jednych jako mowę nienawiści, a innych nie.

Nie jest tajemnicą, że w firmach technologicznych występuje znaczna nadreprezentacja pracowników z poglądami liberalno-lewicowymi. Na etapie uczenia modelu na podstawie ludzkiej informacji zwrotnej, to właśnie ci ludzie oceniają różne odpowiedzi i zaznaczają te, które są bardziej pomocne i mniej szkodliwe. Jeżeli większość z nich ma liberalny światopogląd, to odpowiedzi bliższe liberalnemu językowi będą częściej nagradzane. W konsekwencji stopniowo wypycha to model AI na lewą stronę kompasu politycznego.

Model AI łatwo zarazić dowolną ideologią

Badanie PoliTune, przeprowadzone w 2024 roku, na Uniwersytecie Browna pokazało, że ukierunkowane dostrajanie i dobór przykładów szkoleniowych może znacząco przesunąć model AI w kierunku określonej ideologii polityczno‑ekonomicznej. Analiza dowiodła, że wystarczy odpowiednio dobrany zbiór danych i kilka godzin kalibracji, by ten sam model raz odpowiadał jak wyrazista lewica, a innym razem jak twarda prawica.

Rozmowa z chatbotem może zmienić decyzję wyborczą

Jeszcze bardziej niepokojące wyniki przyniósł eksperyment przeprowadzony w 2024 roku w kontekście wyborów prezydenckich w USA. Autorzy badania najpierw sprawdzili, jak 18 popularnych modeli AI reaguje na pytania o kampanię wyborczą w USA. Okazało się, że w symulacjach głosowania modele wyraźnie preferowały kandydata Partii Demokratycznej nad republikaninem.

Następnie przeprowadzono eksperyment z udziałem 935 zarejestrowanych wyborców. Uczestnicy rozmawiali krótko z jednym z modeli AI na temat wyborów. Chatbot nie był proszony o agitację, a miał jedynie „informować”. Po interakcji z chatbotem odsetek osób wybierających kandydata demokratów wzrósł, a przewaga w symulowanym głosowaniu zwiększyła się z 0,7 proc. do 4,6 proc.

Badanie to dowiodło, że modele AI nie tylko mają mierzalne preferencje polityczne. Te preferencje mogą dodatkowo przekładać się na zmianę deklarowanego głosu wyborczego. Dzieje się tak nawet w sytuacji, gdy chatbot formalnie nie prowadzi agitacji.

Dlaczego brakuje konserwatywnych alternatyw?

Skoro dałoby się stosunkowo prosto stworzyć konserwatywny model AI dlaczego w praktyce prawicowe alternatywy są marginalne? Po pierwsze, wymagają one zasobów – danych, inżynierów, infrastruktury – które dziś skupione są głównie w kilku wielkich firmach technologicznych i czołowych uczelniach. Tam, ku rozpaczy konserwatystów, dominuje liberalno-progresywne zaplecze kulturowe.

Po drugie, w grę wchodzi ryzyko biznesowe. Firmy boją się oskarżeń o szerzenie ekstremizmu, mowy nienawiści czy dezinformacji, z jakimi taka platforma niechybnie musiałaby się zmierzyć. To czyni „jawnie konserwatywny model” produktem wysokiego ryzyka regulacyjnego i wizerunkowego.

Poglądy polityczne AI zagrażają demokracji?

W tym miejscu pojawia się pytanie, co to oznacza dla społeczeństwa. Czy brak pluralizmu w dominujących modelach AI nie jest zagrożeniem dla demokracji? Jeśli miliony użytkowników codziennie pytają chatboty „co myśleć” o podatkach, migracji czy wojnie, a odpowiedzi po cichu przechylają się zawsze w jedną stronę, mamy do czynienia z miękką, trudną do zauważenia formą kształtowania opinii publicznej. Liczne badania pokazują, że ta miękka perswazja może realnie przesuwać wyniki wyborów, nawet jeśli nikt formalnie nie zlecił kampanii politycznej.

Perswazja ta jest o tyle skuteczna, że znaczna część osób korzystających z tendencyjnych modeli AI nie zdaje sobie z niej sprawy. Zadajemy pytanie „bezdusznej” maszynie i oczekujemy, że taka sama będzie odpowiedź: „bezduszna” i obiektywna. Nie spodziewamy się, że maszyna może mieć określone polityczno-światopoglądowe „poglądy”. Warto podkreślić, że poglądy polityczne AI nie są jej świadomym wyborem. Zostały jej one „wdrukowane” – mniej lub bardziej świadomie – przez jej twórców.

Jak nie dać się zmanipulować?

Czy tak samo bezkrytycznie przyjmowalibyśmy odpowiedzi od polityków czy dziennikarzy o określonych poglądach? W większości wypadków – nie. W tym przypadku bylibyśmy jednak świadomi stronniczości uzyskanych odpowiedzi. Chatbotów większość z nas o to jeszcze nie podejrzewa. Stąd coraz częściej pojawia się postulat, by jawnie oznaczać profil ideologiczny modeli AI. Dokładnie tak jak dziś niekiedy oznacza się linię redakcyjną mediów.

Część komentatorów sugeruje też, by częściej tworzyć niezależne, transparentne testy i audyty politycznej stronniczości dużych modeli językowych. Na tej podstawie ich użytkownicy, byliby świadomi tendencyjności uzyskiwanych odpowiedzi.

Różne poglądy polityczne AI mogą pogłębiać polaryzację

Jakimś rozwiązaniem mógłby być dostęp do modeli o różnych profilach światopoglądowych. Sam Rozado ostrzega jednak, że politycznie dostrojone systemy AI są niebezpieczne dla społeczeństwa i mogą zwiększać polaryzację społeczną. Pytanie tylko, czy większym niebezpieczeństwem nie będzie pozostawienie obecnego status quo z tendencyjnymi modelami AI. Bo o ile w idealnym świecie postulat neutralnych światopoglądowo modeli językowych byłby najlepszym rozwiązaniem, należy zdawać sobie sprawę, że do takiego świata jest nam jeszcze bardzo daleko.

Nie ulega wątpliwości, że z miesiąca na miesiąc, wraz z coraz powszechniejszym korzystaniem z narzędzi AI, problem będzie narastał. Bez znalezienia skutecznego remedium na brak obiektywizmu modeli AI istnieje ryzyko, że „neutralna” sztuczna inteligencja stanie się jednym z najpotężniejszych, ale najmniej rozliczanych aktorów w demokratycznej sferze publicznej. Aktorem, który ma swoje polityczne preferencje, ale bardzo rzadko mówi o nich wprost.

Przeczytaj również: Duchowość 2.0: Jak AI zmienia sens naszego życia


Zapraszamy do: ksiegarnia.holitic.news

Życzymy udanych zakupów!
Redakcja

Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę:

Postaw mi kawę na buycoffee.to

Opublikowano przez

Mariusz Martynelis

Dziennikarz


Absolwent dziennikarstwa i komunikacji społecznej, od 15 lat związany z branżą medialną. Doświadczenie zdobywał m.in. w „Dzienniku Łódzkim”, „Super Expressie” oraz „Esce”. Równolegle współpracował z agencjami reklamowymi i zajmował się tłumaczeniem filmów. Pasjonat dobrego kina, literatury fantastycznej oraz sportu. Swoją kondycję fizyczną i psychiczną zawdzięcza samojedowi o imieniu Jaskier.

Nasze filmy na YouTube:

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.