Myślisz, że AI „wie”, co robi? To złudzenie może być groźne

ludzka twarz na tle zapisów algorytmów ilustrująca pytanie: czy AI myśli jak człowiek

Czy AI myśli jak człowiek? Coraz częściej tak mówimy, traktując maszyny jakby naprawdę wiedziały, co robią. Naukowcy ostrzegają jednak, że takie błędne postrzeganie odsuwa na bok odpowiedzialność człowieka za własne dzieło. A to może mieć poważne konsekwencje.

Czy AI myśli jak człowiek? Tak człowiek myśli o AI

Rozmowa z chatbotem przypomina kontakt z człowiekiem. Użytkownicy mówią wtedy, że maszyna „wie”, „rozumie”, a nawet „pamięta„. Badacze z Iowa State University ostrzegają jednak, że takie słowa mogą wprowadzać w błąd co do tego, czym w ogóle jest sztuczna inteligencja.

Zespół prof. Jo Mackiewicz przeanalizował ponad 20 miliardów słów z artykułów prasowych w 20 krajach. Naukowcy szukali zwrotów takich jak „myśli”, „wie”,”rozumie” w zestawieniu z określeniami „AI” i „ChatGPT”. Okazało się, że dziennikarze są ostrożniejsi, niż mogłoby się wydawać. Większość unika nadawania maszynom ludzkich cech. Gdy już jednak to robią, efekt potrafi być mylący.

Słowa, które przesłaniają rzeczywistość

„AI potrzebuje danych” – to zdanie brzmi jak opis samochodu, który potrzebuje paliwa. Ale „AI musi zrozumieć świat” – to już zupełnie inna historia

– tłumaczy Mackiewicz w serwisie ScienceDaily.

Drugie z tych zdań przypisuje maszynie coś, czego nie posiada: intencję, ciekawość, choćby cień świadomości. Takie sformułowania mogą utrwalać się w głowach czytelników. Wtedy oczekiwania wobec AI rosną ponad to, co systemy rzeczywiście potrafią. Co więcej, przesłaniają tych, którzy ponoszą realną odpowiedzialność za technologię: programistów, inżynierów i koncerny stojące za maszynami.

Dziennikarze wiedzą, co robią? Sprawdzono

W codziennych rozmowach łatwo powiedzieć, że „Siri wie”. W prasie takie sformułowania są jednak rzadkie. Najczęściej pojawiające się słowo „potrzebuje” w kontekście AI wystąpiło 661 razy – i zwykle w zdaniach typu „AI potrzebuje dużej ilości danych”. To przykład języka bezpiecznego, niesugerującego ludzkich cech.

Z kolei sformułowanie „ChatGPT wie” pojawiło się tylko 32 razy. To niewiele, ale badacze podkreślają, że nawet pojedyncze, mocne zwroty mogą zmieniać sposób postrzegania technologii. A to wpływa na wyobraźnię odbiorców. Być może badania te tłumaczą dlaczego tak łatwo w infosferze dziś o zarówno apokaliptyczne, dystopijne postrzeganie AI, jak i o utopijne wizje, że wynaleziono cudowną maszynę, która rozwiąże wszystkie problemy.

Język wobec AI: sprawa nie jest czarno-biała

Naukowcy z Iowa State zauważają, że antropomorfizacja w przypadku sztucznej inteligencji to nie jest kwestia zero-jedynkowa. To raczej spektrum wyrażeń, od neutralnych po sugestywne. Od zwykłego opisu wymagań technicznych, przez neutralne stwierdzenia, aż po zdania sugerujące, że maszyna myśli.

Antropomorfizacja w tekstach prasowych jest znacznie mniej powszechna, niż można by sądzić. Nawet w przypadkach, gdzie ją zastosowano, widać zróżnicowane nasilenie tego zabiegu

– mówi Mackiewicz.

Te wnioski z badań wydaja się o tyle istotne, że sposób pisania kształtuje rozumienie sztucznej inteligencji, tego czy AI myśli jak człowiek. To w konsekwencji wpływa na wyobraźnię czytelników i może określać ich stosunek do technologii. A co więcej, może nawet przyczynić się do kształtowania swojego życia w oparciu o błędne założenie, że AI za nas „decyduje”.

Dlaczego to ważne?

Sposób opisywania AI kształtuje społeczne oczekiwania. A te – gdy okazuje się, że maszyna „wie” tyle, co kalkulator – prowadzą do rozczarowania.

Autorki badania apelują, by pisząc o AI, zadawać sobie pytanie: czy to zdanie sugeruje, że maszyna ma intencje? Jeśli tak – lepiej zmienić swój sposób postrzegania, pisania i mówienia o tym. Na razie dziennikarze radzą sobie z tym nieźle. Wraz z rozwojem technologii presja na używanie ludzkiego języka będzie jednak rosła.

Poza badaniem: odpowiedzialność spoczywa na nas

Kiedy język każe nam wierzyć, że AI „rozumie” lub „chce”, łatwo potem oczekiwać, że maszyna zarobi na giełdzie, wygra wojnę albo wreszcie zniesie biedę. Równie łatwo popaść w przeciwną skrajność: lęk przed tym, że AI nas zniewoli.

Tymczasem systemy te nie mają ani chęci, ani świadomości. Mają tylko to, co włożyli w nie ludzie – dane, kod, cele i błędy. Uczłowieczanie AI w języku nie jest więc niewinnym skrótem myślowym. To droga do przerzucenia na maszyny odpowiedzialności, która należy wyłącznie do nas.

Im bardziej jednak będziemy mówić o AI jak o człowieku, tym trudniej będzie odróżnić, gdzie kończy się narzędzie, a zaczyna nasze własne, potencjalnie niebezpieczne złudzenie.

Przeczytaj także: Kto to naprawdę pisał? Literatura z procesora AI


Zapraszamy do: ksiegarnia.holistic.news

Życzymy udanych zakupów!
Redakcja

Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę:

Postaw mi kawę na buycoffee.to

Opublikowano przez

Radosław Różycki

Zastępca redaktora naczelnego


Absolwent dziennikarstwa i komunikacji społecznej UW, specjalizujący się w tematyce kultury, literatury i edukacji. Zawodowo zajmuje się słowem. Czyta, pisze, tłumaczy, redaguje. Czasem coś powie. Prywatnie głowa rodziny. Ma doświadczenie pracy w mediach, administracji publicznej, PR i komunikacji, gdzie zajmował się m.in. projektami edukacyjnymi i kulturalnymi. W wolnej chwili lubi dobrą literaturę i mocne dźwięki.

Nasze filmy na YouTube:

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.