Używasz AI? Według nowych badań może to oznaczać mroczne cechy

Pusty dokument. Deadline za rogiem. Pokusa, by jedno polecenie w ChatGPT załatwiło problem, jest ogromna. Coraz więcej z nas korzysta z tej drogi na skróty. Ale co, jeśli ten pozornie niewinny akt mówi o nas coś więcej, niż byśmy chcieli? Przełomowe badanie opublikowane w prestiżowym "Computers & Education: X" rzuca niepokojące światło na psychologiczny profil osób, które najchętniej wykorzystują AI do akademickich oszustw. Wyniki wskazują na wyraźny związek z cechami tzw. "ciemnej triady": narcyzmem, makiawelizmem i psychopatią.

„Napisała to za mnie sztuczna inteligencja”

Od kiedy modele sztucznej inteligencji pojawiły się na horyzoncie, uczelnie zalewane są pracami zaliczeniowymi czy dyplomowymi, które w dużej części lub nawet w całości pisane są przez AI. Można powiedzieć, że to nowa codzienność w świecie akademickim, w której wciąż się odnajdujemy i która wymaga gruntownego zbadania.

Przykładem może być opublikowane niedawno badanie przeprowadzone przez badaczy z południowokoreańskich uniwersytetów. Naukowcy zbadali 504 osoby studiujące na chińskich uczelniach artystycznych. Ankiety miały sprawdzić, jakie cechy psychologiczne posiadają studenci, którzy decydują się na użycie narzędzi AI w celu wykonania za nich pracy związanej ze studiowaniem.

AI a mroczne cechy: Na scenę wkracza „ciemna triada”

Do badania wybrano studentów uczelni artystycznych ze względu na specyficzny charakter stawianych przed nimi wymagań. Od osób studiujących sztukę wymaga się produkowania oryginalnych dzieł, a podczas studiów występuje spora rywalizacja. Rosnące wykorzystanie AI w branży kreatywnej również ma niebagatelny wpływ na podejście studentów uczelni artystycznych do tego typu rozwiązań.

Wśród badanych zidentyfikowano grupę osób, które wykazywały cechy osobowościowe charakterystyczne dla tzw. „ciemnej triady”, czyli makiawelizmu, narcyzmu i psychopatii, nazywanej w ten sposób ze względu na swoje szkodliwe społecznie właściwości. Okazuje się, że badani, którzy wykazywali te cechy, byli bardziej skłonni do oszustw akademickich z użyciem AI, takich jak np. stwierdzenie, że dzieło wygenerowane za pomocą sztucznej inteligencji jest ich autorstwa.

Warto przeczytać również: Eksperci są zgodni. Te umiejętności uratują Twoją pracę przed AI

Czy ten problem dotyczy także Ciebie? Sprawdź się

Zamiast demonizować technologię, autorzy badania apelują o edukację i wsparcie psychologiczne na uczelniach. Zrozumienie, że sięganie po AI w nieetyczny sposób jest często objawem głębszego problemu – lęku, stresu i paraliżującej presji – to pierwszy krok. Bo ostatecznie sztuczna inteligencja jest tylko narzędziem. To od naszych intencji, charakteru i etycznego kręgosłupa zależy, czy zbudujemy z nią przyszłość, czy jedynie fasadę sukcesu. Kwestia relacji AI a mroczne cechy charakteru nie leży więc w kodzie, ale w nas samych.

Analiza naukowców to nie tylko ciekawostka. To lustro, w którym możemy się przejrzeć. Oto 3 pytania, które warto sobie zadać.

  • Czy przypisuję sobie zasługi? Czy mówię „przygotowałem ten raport”, gdy AI napisała 90 proc. tekstu? Granica między inspiracją a plagiatem jest tu cienka.
  • Czy tracę umiejętności? Czy sięgam po AI z lenistwa, zamiast samodzielnie myśleć, co w dłuższej perspektywie osłabia moje własne kompetencje?
  • Jaka jest moja motywacja? Czy używam AI, by szybciej osiągnąć lepszy wynik, czy by uniknąć pracy i odpowiedzialności? Stres i presja, jak wykazało badanie, są kluczowym zapalnikiem.

Przeczytaj także: Twórcy AI biją na alarm. Ostrzegają przed własnym dziełem

Opublikowano przez

Maciej Bartusik

Dziennikarz


Z wykształcenia dziennikarz z doświadczeniem radiowym i w mediach internetowych. Zafascynowany współczesną energetyką i życiem zgodnym z naturalnym biegiem przyrody. Wielbiciel włoskiej kuchni, szczególnie makaronu w każdej postaci.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.