Prawda i Dobro
Dzieci spały na podłodze. Jeden sygnał uruchomił lawinę dobra
27 kwietnia 2026

Czy AI myśli jak człowiek? Coraz częściej tak mówimy, traktując maszyny jakby naprawdę wiedziały, co robią. Naukowcy ostrzegają jednak, że takie błędne postrzeganie odsuwa na bok odpowiedzialność człowieka za własne dzieło. A to może mieć poważne konsekwencje.
Rozmowa z chatbotem przypomina kontakt z człowiekiem. Użytkownicy mówią wtedy, że maszyna „wie”, „rozumie”, a nawet „pamięta„. Badacze z Iowa State University ostrzegają jednak, że takie słowa mogą wprowadzać w błąd co do tego, czym w ogóle jest sztuczna inteligencja.
Zespół prof. Jo Mackiewicz przeanalizował ponad 20 miliardów słów z artykułów prasowych w 20 krajach. Naukowcy szukali zwrotów takich jak „myśli”, „wie”,”rozumie” w zestawieniu z określeniami „AI” i „ChatGPT”. Okazało się, że dziennikarze są ostrożniejsi, niż mogłoby się wydawać. Większość unika nadawania maszynom ludzkich cech. Gdy już jednak to robią, efekt potrafi być mylący.
„AI potrzebuje danych” – to zdanie brzmi jak opis samochodu, który potrzebuje paliwa. Ale „AI musi zrozumieć świat” – to już zupełnie inna historia
– tłumaczy Mackiewicz w serwisie ScienceDaily.
Drugie z tych zdań przypisuje maszynie coś, czego nie posiada: intencję, ciekawość, choćby cień świadomości. Takie sformułowania mogą utrwalać się w głowach czytelników. Wtedy oczekiwania wobec AI rosną ponad to, co systemy rzeczywiście potrafią. Co więcej, przesłaniają tych, którzy ponoszą realną odpowiedzialność za technologię: programistów, inżynierów i koncerny stojące za maszynami.
W codziennych rozmowach łatwo powiedzieć, że „Siri wie”. W prasie takie sformułowania są jednak rzadkie. Najczęściej pojawiające się słowo „potrzebuje” w kontekście AI wystąpiło 661 razy – i zwykle w zdaniach typu „AI potrzebuje dużej ilości danych”. To przykład języka bezpiecznego, niesugerującego ludzkich cech.
Z kolei sformułowanie „ChatGPT wie” pojawiło się tylko 32 razy. To niewiele, ale badacze podkreślają, że nawet pojedyncze, mocne zwroty mogą zmieniać sposób postrzegania technologii. A to wpływa na wyobraźnię odbiorców. Być może badania te tłumaczą dlaczego tak łatwo w infosferze dziś o zarówno apokaliptyczne, dystopijne postrzeganie AI, jak i o utopijne wizje, że wynaleziono cudowną maszynę, która rozwiąże wszystkie problemy.
Naukowcy z Iowa State zauważają, że antropomorfizacja w przypadku sztucznej inteligencji to nie jest kwestia zero-jedynkowa. To raczej spektrum wyrażeń, od neutralnych po sugestywne. Od zwykłego opisu wymagań technicznych, przez neutralne stwierdzenia, aż po zdania sugerujące, że maszyna myśli.
Antropomorfizacja w tekstach prasowych jest znacznie mniej powszechna, niż można by sądzić. Nawet w przypadkach, gdzie ją zastosowano, widać zróżnicowane nasilenie tego zabiegu
– mówi Mackiewicz.
Te wnioski z badań wydaja się o tyle istotne, że sposób pisania kształtuje rozumienie sztucznej inteligencji, tego czy AI myśli jak człowiek. To w konsekwencji wpływa na wyobraźnię czytelników i może określać ich stosunek do technologii. A co więcej, może nawet przyczynić się do kształtowania swojego życia w oparciu o błędne założenie, że AI za nas „decyduje”.
Sposób opisywania AI kształtuje społeczne oczekiwania. A te – gdy okazuje się, że maszyna „wie” tyle, co kalkulator – prowadzą do rozczarowania.
Autorki badania apelują, by pisząc o AI, zadawać sobie pytanie: czy to zdanie sugeruje, że maszyna ma intencje? Jeśli tak – lepiej zmienić swój sposób postrzegania, pisania i mówienia o tym. Na razie dziennikarze radzą sobie z tym nieźle. Wraz z rozwojem technologii presja na używanie ludzkiego języka będzie jednak rosła.
Kiedy język każe nam wierzyć, że AI „rozumie” lub „chce”, łatwo potem oczekiwać, że maszyna zarobi na giełdzie, wygra wojnę albo wreszcie zniesie biedę. Równie łatwo popaść w przeciwną skrajność: lęk przed tym, że AI nas zniewoli.
Tymczasem systemy te nie mają ani chęci, ani świadomości. Mają tylko to, co włożyli w nie ludzie – dane, kod, cele i błędy. Uczłowieczanie AI w języku nie jest więc niewinnym skrótem myślowym. To droga do przerzucenia na maszyny odpowiedzialności, która należy wyłącznie do nas.
Im bardziej jednak będziemy mówić o AI jak o człowieku, tym trudniej będzie odróżnić, gdzie kończy się narzędzie, a zaczyna nasze własne, potencjalnie niebezpieczne złudzenie.
Przeczytaj także: Kto to naprawdę pisał? Literatura z procesora AI
Życzymy udanych zakupów!
Redakcja
Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę: