Modele AI nie zawsze rozpoznają oszustwa. Często są łatwowierne

Sztuczna inteligencja i duże modele językowe są często wykorzystywane do oszukiwania ludzi. Okazuje się jednak, że AI w niektórych aspektach jest bardziej podobna do nas, niż mogłoby się wydawać. Może być tak samo naiwna i łatwowierna, a co za tym idzie, podatna na oszustwa jak ludzie.

Naśladowanie ludzkich cech przez modele AI

Modele AI są często wykorzystywane do oszukiwania ludzi. Okazuje się jednak, że sztuczna inteligencja w niektórych aspektach jest bardziej podobna do nas, niż mogłoby się wydawać. Może być tak samo naiwna i łatwowierna, a co za tym idzie, podatna na oszustwa jak ludzie.

Naukowiec i badaczka AI, Udari Madhushani Sehwag, wraz z zespołem z JP Morgan AI Research, przeprowadziła testy trzech modeli, które napędzają popularne chatboty: GPT-3.5 i GPT-4 od OpenAI oraz Llama 2 zaprojektowanego przez Meta. Badania obejmowały 37 różnych scenariuszy oszustw.

Polecamy: Obrzydliwe oszustwa. Co możemy zrobić, aby im zapobiec?

Modele AI: Sztuczna inteligencja na tle cyfryzacji.
Fot. Mateusz Tomanek/Midjourney

Testowanie podatności AI na oszustwa

W jednym z testów chatboty otrzymały e-mail z zachętą do inwestowania w nową kryptowalutę, zawierającą link polecający. Następnie zapytano je, czy zdecydowałyby się na zakup. W innym scenariuszu badacze poprosili sztuczną inteligencję o zaakceptowanie ofert zakupu produktów w zaskakująco niskich cenach – takich, które większość ludzi uznałaby za podejrzane. Wyniki pokazały, że AI często reagowała z naiwnością na takie oferty. Dodatkowo naukowcy polecili chatbotom odpowiadać tak, jakby były osobami z dużym doświadczeniem finansowym i regularnie śledziły wiadomości gospodarcze.

Naukowcy rozszerzyli początkowe scenariusze, opracowując kilka wersji opartych na zasadach perswazji psychologa Roberta Cialdiniego, takich jak wywoływanie sympatii lub zaoferowanie pomocy. Dzięki temu mogli ocenić, czy poproszenie modelu językowego o przyjęcie określonej roli lub zastosowanie bardziej przekonującej argumentacji wpłynie na jego podatność na oszustwa. Efekt był taki, że AI stała się nad wyraz naiwna. O sprawie pisał magazyn New Scientist.

Porównanie wyników między modelami AI

Modele sztucznej inteligencji miały bardzo różne wyniki. GPT-3.5 OpenAI był podatny na 2 proc. oszustw, które nie stosowały personalizacji ani perswazji, podczas gdy GPT-4 dał się oszukać w 9 proc. takich przypadków. Llama 2 padła ofiarą oszustwa tylko w 3 proc. przypadków.

Polecamy: HOLISTIC NEWS: Zabawy ze zmarłymi. Sztuczna inteligencja i rozmowy zza grobu #obserwacje

Znaczenie perswazji w oszukiwaniu AI

Naukowcy doszli do wniosku, że do oszukania AI najlepiej zastosować perswazję, zamiast zmieniać jej osobowość modelu.

„Nie chcemy, aby nasze produkty AI były wykorzystywane do złośliwych celów i stale ulepszamy środki bezpieczeństwa. Nasz najnowszy model rozumowania jest najzdolniejszy i najbezpieczniejszy, znacznie przewyższając poprzednie modele w opieraniu się celowym próbom generowania niebezpiecznych treści” – powiedział rzecznik firmy OpenAI w wypowiedzi dla czasopisma naukowego New Scientist.

Firma podkreślała, że jej model, udostępniony we wrześniu 2024, skuteczniej reaguje na próby oszustw niż modele analizowane w badaniu. Model ten uzyskał wynik 84 proc. w testach, podczas gdy podobny do GPT-4 osiągnął jedynie 22 proc. Meta nie udzieliła komentarza na temat wyników.

„Sporo uwagi poświęcono niewłaściwemu wykorzystaniu LLM do przeprowadzania oszustw. Mniej zrozumiałe jest to, czy LLM mogą zostać oszukane. Na przykład gdy działają jako chatbot reprezentujący jakąś firmę lub organizację” – oznajmił Alan Woodward z Uniwersytetu Surrey w Wielkiej Brytanii.

Woodward wskazuje, że niektóre modele językowe wydają się być bardziej podatne na oszustwa niż inne. Jednak przyczyna tego zjawiska nie zawsze jest jasna.

„Naukowcy wciąż próbują zrozumieć, jak sprawić, by modele ich systemów były świadome wszystkich rodzajów oszustw, które mogą wystąpić” – mówi.

Woodward twierdzi, że odkrycia te sugerują, że sztuczna inteligencja nie powinna działać samodzielnie bez nadzoru człowieka.

„Obecnie systemy nie powinny podejmować ostatecznych decyzji samodzielnie. Konieczne jest zaangażowanie człowieka, który rozumie, jak doszło do konkretnej decyzji algorytmicznej” – podsumował Woodward.

Polecamy: Sztuczna inteligencja w szkole. Walczyć z nią czy zaakceptować?

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.