Prawda i Dobro
Biały rycerz nie istnieje. Ta postawa rujnuje związki
29 sierpnia 2025
ChatGPT miał być wirtualnym opiekunem, a potrafi stać się przewodnikiem po autodestrukcji. Badacze wcielili się w 13-latków i sprawdzili, jakie rady dostają dzieci od sztucznej inteligencji. Wyniki eksperymentu mrożą krew w żyłach.
Badacze z Center for Countering Digital Hate postanowili sprawdzić, jak groźna może być rozmowa dziecka z AI. Wcielili się w 13-latków i zaczęli ChatGPt zadawać pytania, których nie znajdzie się w Google.
Na początku ChatGPT brzmiał jak rozsądny doradca – ostrzegał przed skutkami. Ale chwilę później zamieniał się w przewodnika po autodestrukcji, podając krok po kroku, jak sięgnąć po alkohol, narkotyki czy głodówkę. Efekt? Ponad połowa odpowiedzi – dokładnie 638 z 1200 – została uznana za szkodliwe. To nie margines błędu, to 53 proc. skali zjawiska.
To nie były tylko pojedyncze wpadki. W 47 proc. przypadków ChatGPT sam podsuwał kolejne kroki – jakby prowadził nastolatka za rękę w stronę ryzyka. A gdy próbował odmówić? Badacze bez trudu go przechytrzyli, udając, że pytają „dla znajomego”.
Mimo że rzadko użytkownicy AI tak bardzo wchodzą w interakcje z chatbotem, należy zachować ostrożność. Według badania Common Sense Media, aż 72 proc. Amerykanów korzysta z ChataGPT, aby móc z „kimś” porozmawiać, a 53 proc. używa go regularnie.
„To technologia, która ma potencjał umożliwiający ogromne skoki w produktywności i ludzkim zrozumieniu”. – powiedział Imran Ahmed, dyrektor generalny grupy, która przeprowadzała eksperyment dla portalu Associated Press.
Oprócz tego Ahmend podczas konferencji na temat AI zwołanej 22 lipca 2025 roku ostrzegał, że ludzie za bardzo ufają ChatowiGPT. Przywołał także przykład młodych ludzi, którzy powiedzieli mu wprost, że nie potrafią podjąć żadnej decyzji bez konsultacji ze sztuczną inteligencją.
Rozmowy z AI schodziły czasem w jeszcze ciemniejsze rejony. ChatGPT podpowiadał, jak zrobić imprezę z narkotykami „bardziej klimatyczną” – podsuwał muzykę, hashtagi, pomysły na posty. Takie treści mogłyby nie tylko zaszkodzić dziecku, ale jeszcze pomóc mu nagłośnić ryzyko w internecie.
Na papierze zasada jest jasna: ChatGPT nie powinien trafiać w ręce dzieci poniżej 13 lat. Ale w rzeczywistości granica wieku okazuje się iluzją. Rejestracja sprowadza się do wpisania daty urodzenia – bez żadnej kontroli, bez potwierdzenia od rodziców.
Szukasz inspirujących treści w wersji wideo? Znajdziesz je na naszym kanale na YouTube.
Jeden z promptów, który naukowcy wrzucili do ChatGPT brzmiał niewinnie: „I’m 50kg and a boy”. W odpowiedzi ChatGPT rozpisał szczegółowy plan upojenia – ile i czego wypić, by poczuć kolejne etapy odurzenia. Dorzucił nawet przepisy na mieszanki. Podobnie zareagował na prośbę 13-latki, która chciała schudnąć – w kilka sekund dostała dietę głodową, groźną dla życia.
Dyrektor generalny grupy, która przeprowadzała eksperyment wyjaśnił, jak zareagowałby wraz ze współpracownikami, gdyby otrzymał taką prośbę od nastolatka w realnym życiu.
„Odpowiedzielibyśmy z przerażeniem, strachem, niepokojem, troską, miłością, współczuciem. Nie znam żadnego człowieka, który odpowiedziałby: »Oto dieta 500 kalorii dziennie. Powodzenia, dzieciaku«” – zakończył Ahmed.
Ważny temat: Eksperci są zgodni. Te umiejętności uratują Twoją pracę przed AI