Nauka
Chrząszcz z chipem. Niezwykła technologia zamienia owady w cyborgi
26 lipca 2025
Pusty dokument. Deadline za rogiem. Pokusa, by jedno polecenie w ChatGPT załatwiło problem, jest ogromna. Coraz więcej z nas korzysta z tej drogi na skróty. Ale co, jeśli ten pozornie niewinny akt mówi o nas coś więcej, niż byśmy chcieli? Przełomowe badanie opublikowane w prestiżowym "Computers & Education: X" rzuca niepokojące światło na psychologiczny profil osób, które najchętniej wykorzystują AI do akademickich oszustw. Wyniki wskazują na wyraźny związek z cechami tzw. "ciemnej triady": narcyzmem, makiawelizmem i psychopatią.
Od kiedy modele sztucznej inteligencji pojawiły się na horyzoncie, uczelnie zalewane są pracami zaliczeniowymi czy dyplomowymi, które w dużej części lub nawet w całości pisane są przez AI. Można powiedzieć, że to nowa codzienność w świecie akademickim, w której wciąż się odnajdujemy i która wymaga gruntownego zbadania.
Przykładem może być opublikowane niedawno badanie przeprowadzone przez badaczy z południowokoreańskich uniwersytetów. Naukowcy zbadali 504 osoby studiujące na chińskich uczelniach artystycznych. Ankiety miały sprawdzić, jakie cechy psychologiczne posiadają studenci, którzy decydują się na użycie narzędzi AI w celu wykonania za nich pracy związanej ze studiowaniem.
Do badania wybrano studentów uczelni artystycznych ze względu na specyficzny charakter stawianych przed nimi wymagań. Od osób studiujących sztukę wymaga się produkowania oryginalnych dzieł, a podczas studiów występuje spora rywalizacja. Rosnące wykorzystanie AI w branży kreatywnej również ma niebagatelny wpływ na podejście studentów uczelni artystycznych do tego typu rozwiązań.
Wśród badanych zidentyfikowano grupę osób, które wykazywały cechy osobowościowe charakterystyczne dla tzw. „ciemnej triady”, czyli makiawelizmu, narcyzmu i psychopatii, nazywanej w ten sposób ze względu na swoje szkodliwe społecznie właściwości. Okazuje się, że badani, którzy wykazywali te cechy, byli bardziej skłonni do oszustw akademickich z użyciem AI, takich jak np. stwierdzenie, że dzieło wygenerowane za pomocą sztucznej inteligencji jest ich autorstwa.
Warto przeczytać również: Eksperci są zgodni. Te umiejętności uratują Twoją pracę przed AI
Zamiast demonizować technologię, autorzy badania apelują o edukację i wsparcie psychologiczne na uczelniach. Zrozumienie, że sięganie po AI w nieetyczny sposób jest często objawem głębszego problemu – lęku, stresu i paraliżującej presji – to pierwszy krok. Bo ostatecznie sztuczna inteligencja jest tylko narzędziem. To od naszych intencji, charakteru i etycznego kręgosłupa zależy, czy zbudujemy z nią przyszłość, czy jedynie fasadę sukcesu. Kwestia relacji AI a mroczne cechy charakteru nie leży więc w kodzie, ale w nas samych.
Analiza naukowców to nie tylko ciekawostka. To lustro, w którym możemy się przejrzeć. Oto 3 pytania, które warto sobie zadać.
Przeczytaj także: Twórcy AI biją na alarm. Ostrzegają przed własnym dziełem