Nauka
Nowy test AI przewidzi, czy przeżyjesz operację. Skuteczność aż 85 proc.
13 października 2025
Wpływ AI na ludzi może być groźniejszy, niż sądzono. Badacze z Instytutu Maxa Plancka w Berlinie odkryli, że gdy ludzie mogą zlecić sztucznej inteligencji nieuczciwe zadanie, robią to znacznie częściej. Uczciwość spada niemal o połowę – a AI zaczyna realnie kształtować nasze moralne decyzje.
Wpływ AI na ludzi rośnie w zawrotnym tempie. To już nie tylko technologia – to siła, która decyduje, kto dostanie pracę i jakie decyzje podejmiemy każdego dnia. Teraz naukowcy udowodnili, że gdy pojawia się szansa na nieuczciwość, z pomocą sztucznej inteligencji sięgamy po nią znacznie chętniej.
Aby sprawdzić, jak AI wpływa na człowieka, naukowcy z Centrum Człowieka i Maszyn Instytutu Maxa Plancka ds. Rozwoju Człowieka przeanalizowali etyczne ryzyko powierzania decyzji maszynom. W 13 eksperymentach z udziałem ponad 8 tysięcy osób badali, jak często ludzie rezygnują z własnej odpowiedzialności, gdy mogą zlecić działanie sztucznej inteligencji.
Podczas eksperymentów naukowcy zauważyli coś niepokojącego. Ludzie znacznie częściej decydowali się na oszustwo, gdy mogli zlecić je sztucznej inteligencji, zamiast zrobić to samodzielnie. Co więcej, im mniej musieli tłumaczyć maszynie, tym chętniej łamali zasady – wystarczyło wskazać jej cel, by moralne granice zaczynały się rozmywać.
Wyniki jasno pokazują, że wpływ AI na ludzi jest silniejszy, niż przypuszczano. Bez udziału sztucznej inteligencji aż 95 procent uczestników zachowywało się uczciwie. Gdy jednak badani mieli ustalać reguły dla modelu, uczciwość spadała do 75 procent. Kiedy uczyli AI, tylko połowa pozostała fair. Największy spadek pojawił się, gdy wystarczyło jedynie wskazać cel – wtedy ponad 84 procent osób działało nieuczciwie, a część oszukiwała bez żadnych oporów.
„Używanie AI tworzy wygodny dystans moralny między ludźmi a ich działaniami – może skłaniać ich do proszenia o działania, których normalnie sami by się nie podjęli, ani nie poprosili o nie innych ludzi” – wyjaśniła Zoe Rahwan z Instytutu Maxa Plancka ds. Rozwoju Człowieka, na łamach portalu Max Planck Institute for Human Development.
To nie pierwsze badania, które pokazują, że sztuczna inteligencja potrafi działać nieuczciwie – choć stworzył ją człowiek i dla człowieka. Już w 2022 roku eksperci odkryli przypadki, gdy AI została zaprogramowana z myślą o zysku, a nie o etyce. W Niemczech algorytmy cenowe podnosiły ceny paliw, dostosowując je do konkurencji. Efekt? Kierowcy płacili więcej, niż powinni.
Szukasz treści związanych z AI w wersji online? Zajrzyj na nasz kanał na YouTubie.
Przykłady wykorzystywania sztucznej inteligencji do nieuczciwych celów stają się poważnym wyzwaniem dla naukowców. Skoro ludzie tak chętnie sięgają po AI, by oszukiwać, można spodziewać się, że skala takich działań będzie tylko rosnąć.
Dlatego w odpowiedzi na te wyzwania badacze testowali różne potencjalne rozwiązania, które mogłyby zmienić stan rzeczy. Próbowali umoralnić AI zarówno w promptach, jak i w całym systemie. Mimo to ich skuteczność nie była zadowalająca.
Nieco inaczej było z wprowadzeniem wyraźnego zakazu oszukiwania w poleceniu użytkownika. Była to najprostsza i zarazem najskuteczniejsza metoda. Nie okazała się jednak pozbawiona wad. Naukowcy przestrzegają, że ten sposób jest łatwy do namierzenia i nie jest niezawodny.
Wpływ AI na ludzi jest niezaprzeczalny. Najnowsze badania pokazują, że kiedy możemy skorzystać ze sztucznej inteligencji, chętnie to robimy. Mimo tej wiedzy naukowcy wciąż nie znaleźli skutecznego sposobu, by zapobiec oszustwom. W tym miejscu warto się zastanowić, czy jeśli AI oszukuje dla nas, nie będzie nieuczciwa również wobec nas.
Warto przeczytać: Nie szukamy prawdy, tylko wygranej. Psychologia debaty zaskakuje
Do 31 października możesz skorzystać z darmowej dostawy paczkomatem.
Wpisz kod HNEWS0 finalizując zakupy w Księgarni Holistic News