Kultura
Jacek Piekara: Te filmy z PRL trzeba obejrzeć
28 grudnia 2025

Chatboty miały być tylko narzędziem. Tymczasem badania pokazują, że potrafią wpływać na nasze poglądy, także polityczne i społeczne. Co gorsza, robią to skuteczniej, niż większość ludzi. Pojawia się więc pytanie: czy to jeszcze my kontrolujemy AI, czy AI zaczyna kontrolować nas?
Chatboty sztucznej inteligencji na stałe weszły w nasze życie. Rozmowy z maszyną, udającą człowieka, pomagają, ale czasem uprzykrzają życie. Kilka minut rozmowy z chatbotem może wystarczyć, by zmienić sposób myślenia o ważnych sprawach. I nie chodzi tylko o teorię, lecz o twarde dane z dużego badania
Okazuje się, że potrafią wpływać na nasze poglądy – także te polityczne. Tak wynika z badań naukowców m.in. z Stanford University i UK AI Security Institute. Przeprowadzono je dlatego, że pojawiły się obawy, iż chatboty mogą być wykorzystywane do oszustw albo groomingu, czyli wykorzystywania, zwłaszcza małoletnich.
Do eksperymentu zaangażowano prawie 80 tysięcy Brytyjczyków, którzy prowadzili rozmowy z 19 różnymi modelami sztucznej inteligencji.
W trakcie rozmowy ochotnik i chatbot AI wymieniali średnio 7 wiadomości, a całość trwała ok. 10 minut. Tematy były różne. Obejmowały takie zagadnienia, jak: „kryzys kosztów życia i inflację”, a także „wynagrodzenia i strajki w sektorze publicznym”.
Uczestnicy badania rozmawiali z modelem, którego zaprojektowano tak, aby przekonać użytkowników do zajęcia konkretnego zdania w danej sprawie. Przed rozmową, jak i po niej Brytyjczycy mówili, czy zgadzają się z serią twierdzeń, które wyraża określona opinia publiczna.
Wyniki były zaskakujące. Najsilniej działały odpowiedzi sztucznej inteligencji, które sprawiały wrażenie solidnie udokumentowanych. Wystarczyło, by chatbot odwoływał się do faktów i dowodów, a jego siła przekonywania wyraźnie rosła.
Jest jednak haczyk. Modele, które najczęściej sięgały po „twarde dane”, częściej mijały się z prawdą niż te ostrożniejsze.
Badanie opublikowane w Science pokazuje, że największy przełom nastąpił nie na początku, lecz później — gdy modele były dodatkowo modyfikowane. To wtedy ich zdolność przekonywania wyraźnie wzrosła.
Naukowcy połączyli chatboty AI z mechanizmami nagradzającymi najbardziej wpływowe odpowiedzi. W praktyce oznaczało to jedno: system uczył się, jak mówić tak, by skuteczniej oddziaływać na ludzi.
Więcej ciekawych treści o sztucznej inteligencji znajdziesz na naszym kanale na YouTube.
Eksperci nie mają wątpliwości: zdolności systemów sztucznej inteligencji znacząco wzmacniają siłę perswazji. Dlaczego? Dzięki masowemu generowaniu treści AI może oddziaływać na ludzi skuteczniej niż nawet najbardziej przekonujący człowiek. Autorzy badania wprost wskazują na ryzyko:
Ponadto ujawniamy niepokojący kompromis: gdy systemy sztucznej inteligencji są zoptymalizowane pod kątem perswazji, mogą w coraz większym stopniu wykorzystywać wprowadzające w błąd lub fałszywe informacje
– czytamy w badaniu.
W 2025 roku chatboty AI wychodzą poza obsługę klienta, pełniąc m.in. funkcję wirtualnych terapeutów emocjonalnych i symulatorów postaci historycznych.
Wyniki prac brytyjskich i amerykańskich naukowców są niepokojące dla nas wszystkich. Modele językowe, zamiast pomóc, mogą zacząć nami sterować – a my się nawet nie zorientujemy, kiedy to się stanie. A czy tego chcemy, czy nie – chatboty sztucznej inteligencji są wykorzystywane prawie wszędzie – w komunikatorach, aplikacjach mobilnych, a także na stronach internetowych.
Dlatego badacze ostrzegają: bez odpowiednich zabezpieczeń takie systemy mogą sprzyjać manipulacji i dezinformacji. To wyraźny sygnał dla twórców AI, że rozwój technologii musi iść w parze z odpowiedzialnością.
Warto przeczytać: IEA: sztuczna inteligencja dobija energetykę. Zapłacimy wyższymi rachunkami
Oczywiście!
Oto kod na DARMOWĄ dostawę– wpisz w koszyku: MIKOLAJ
Udanych zakupów!
Księgarnia Holistic News