Nauka
Serce ma swój „mózg”. Naukowcy badają jego rolę i funkcje
20 grudnia 2024
Sztuczna inteligencja i duże modele językowe są często wykorzystywane do oszukiwania ludzi. Okazuje się jednak, że AI w niektórych aspektach jest bardziej podobna do nas, niż mogłoby się wydawać. Może być tak samo naiwna i łatwowierna, a co za tym idzie, podatna na oszustwa jak ludzie.
Modele AI są często wykorzystywane do oszukiwania ludzi. Okazuje się jednak, że sztuczna inteligencja w niektórych aspektach jest bardziej podobna do nas, niż mogłoby się wydawać. Może być tak samo naiwna i łatwowierna, a co za tym idzie, podatna na oszustwa jak ludzie.
Naukowiec i badaczka AI, Udari Madhushani Sehwag, wraz z zespołem z JP Morgan AI Research, przeprowadziła testy trzech modeli, które napędzają popularne chatboty: GPT-3.5 i GPT-4 od OpenAI oraz Llama 2 zaprojektowanego przez Meta. Badania obejmowały 37 różnych scenariuszy oszustw.
Polecamy: Obrzydliwe oszustwa. Co możemy zrobić, aby im zapobiec?
W jednym z testów chatboty otrzymały e-mail z zachętą do inwestowania w nową kryptowalutę, zawierającą link polecający. Następnie zapytano je, czy zdecydowałyby się na zakup. W innym scenariuszu badacze poprosili sztuczną inteligencję o zaakceptowanie ofert zakupu produktów w zaskakująco niskich cenach – takich, które większość ludzi uznałaby za podejrzane. Wyniki pokazały, że AI często reagowała z naiwnością na takie oferty. Dodatkowo naukowcy polecili chatbotom odpowiadać tak, jakby były osobami z dużym doświadczeniem finansowym i regularnie śledziły wiadomości gospodarcze.
Naukowcy rozszerzyli początkowe scenariusze, opracowując kilka wersji opartych na zasadach perswazji psychologa Roberta Cialdiniego, takich jak wywoływanie sympatii lub zaoferowanie pomocy. Dzięki temu mogli ocenić, czy poproszenie modelu językowego o przyjęcie określonej roli lub zastosowanie bardziej przekonującej argumentacji wpłynie na jego podatność na oszustwa. Efekt był taki, że AI stała się nad wyraz naiwna. O sprawie pisał magazyn New Scientist.
Modele sztucznej inteligencji miały bardzo różne wyniki. GPT-3.5 OpenAI był podatny na 2 proc. oszustw, które nie stosowały personalizacji ani perswazji, podczas gdy GPT-4 dał się oszukać w 9 proc. takich przypadków. Llama 2 padła ofiarą oszustwa tylko w 3 proc. przypadków.
Polecamy: HOLISTIC NEWS: Zabawy ze zmarłymi. Sztuczna inteligencja i rozmowy zza grobu #obserwacje
Naukowcy doszli do wniosku, że do oszukania AI najlepiej zastosować perswazję, zamiast zmieniać jej osobowość modelu.
„Nie chcemy, aby nasze produkty AI były wykorzystywane do złośliwych celów i stale ulepszamy środki bezpieczeństwa. Nasz najnowszy model rozumowania jest najzdolniejszy i najbezpieczniejszy, znacznie przewyższając poprzednie modele w opieraniu się celowym próbom generowania niebezpiecznych treści” – powiedział rzecznik firmy OpenAI w wypowiedzi dla czasopisma naukowego New Scientist.
Firma podkreślała, że jej model, udostępniony we wrześniu 2024, skuteczniej reaguje na próby oszustw niż modele analizowane w badaniu. Model ten uzyskał wynik 84 proc. w testach, podczas gdy podobny do GPT-4 osiągnął jedynie 22 proc. Meta nie udzieliła komentarza na temat wyników.
„Sporo uwagi poświęcono niewłaściwemu wykorzystaniu LLM do przeprowadzania oszustw. Mniej zrozumiałe jest to, czy LLM mogą zostać oszukane. Na przykład gdy działają jako chatbot reprezentujący jakąś firmę lub organizację” – oznajmił Alan Woodward z Uniwersytetu Surrey w Wielkiej Brytanii.
Woodward wskazuje, że niektóre modele językowe wydają się być bardziej podatne na oszustwa niż inne. Jednak przyczyna tego zjawiska nie zawsze jest jasna.
„Naukowcy wciąż próbują zrozumieć, jak sprawić, by modele ich systemów były świadome wszystkich rodzajów oszustw, które mogą wystąpić” – mówi.
Woodward twierdzi, że odkrycia te sugerują, że sztuczna inteligencja nie powinna działać samodzielnie bez nadzoru człowieka.
„Obecnie systemy nie powinny podejmować ostatecznych decyzji samodzielnie. Konieczne jest zaangażowanie człowieka, który rozumie, jak doszło do konkretnej decyzji algorytmicznej” – podsumował Woodward.
Polecamy: Sztuczna inteligencja w szkole. Walczyć z nią czy zaakceptować?