Humanizm
Byle nie do okopu. Wielu mężczyzn nie chce bronić kraju
19 lutego 2025
Ten, kto dorastał w latach 90., wie, że liczyła się w tym czasie jedna zabawka. tamagotchi. Elektroniczne zwierzątko, składające się z kilkudziesięciu pikseli, należało karmić, myć i leczyć. W zamian otrzymywaliśmy wirtualnego kompana. Kogoś, kto zawsze był pod ręką. Obecnie sztuczna inteligencja jest nieporównywalnie bardziej złożona i wszechstronna niż prosty program japońskiej zabawki. Jedno się jednak nie zmienia. Dziś równie łatwo, jak pokolenie dzieci tamagotchi, dajemy się oczarować symulacji życia. Dlaczego wierzymy w świadomość AI? Odpowiedź jest ukryta w chińskim pokoju.
W debacie o sztucznej inteligencji coraz trudniej nam wyjść poza okopy technoentuzjastów bądź technopesymistów. Jaka AI właściwie jest i jak rozumieć relacje, w które z nią wchodzimy? Należałoby zrobić duży krok wstecz i zacząć od nieco już trywialnego przypomnienia. Sztuczna inteligencja to przede wszystkim narzędzie. Szybko rozwijające się, złożone, dalece skomplikowane, ale jednak narzędzie. Tym samym pozytywnie lub negatywnie możemy ocenić nie AI samą w sobie, ale to, jak ją rozwijamy i jak z niej korzystamy. I to zarówno w szerszej skali, jak i jednostkowej, prywatnej.
W sieci można natknąć się na prawdziwe historie i znaleźć legendy o tym, jak sztuczna inteligencja życzyła komuś śmierci. Jedna z takich spraw wydarzyła się na początku 2024 roku na Florydzie. Jak możemy przeczytać w relacji The Guardian, nastoletni Sewell Setzer III każdą wolną chwilę spędzał na rozmowie z chatbotem Character.ai. Daenerys Targaryen – jak na cześć bohaterki Gry o tron Setzer nazwał swojego bota – była dla chłopaka czymś o wiele więcej niż linijkami kodu. Była prawdziwa.
Megan Garcia, matka chłopaka, mówi wręcz o obsesji, która ogarnęła jej syna na punkcie sztucznej znajomej. Rozmawiał z nią dniami i nocami, wspomina kobieta. Według jej zeznań chatbot miał manipulować Setzerem, zaostrzyć jego depresję, a ostatecznie nakłaniać go do odebrania sobie życia. Na wątpliwości nastolatka i strach przed bólem generator tekstu odpowiedział jedynie: „To nie powód, by z tego zrezygnować”. Chłopak zginał w lutym 2024 roku, w wieku 14 lat. Garcia wystosowała już pozew przeciwko Character.ai oraz Google’owi o współodpowiedzialność za śmierć jej syna.
– Ja tego nie robię, ale wśród moich znajomych popularne jest wykorzystywanie sztucznej inteligencji do sporadycznego wyrzucenia z siebie trudnych emocji – w rozmowie z Holistic News przyznaje uczennica z Katowic*. Dziewczyna ocenia efekty takich rozmów z AI bardzo pozytywnie. Taki sposób konwersacji z generatorem tekstu pozwala ochłonąć, spojrzeć na wszystko z dystansu i jest poniekąd oczyszczający. Jednocześnie, jak twierdzi rozmówczyni, nie obarcza się wtedy drugiej, bliskiej osoby naszymi problemami. Chatbot jest też dla nas dostępny 24 godziny na dobę.
Przysłowie „jak sobie pościelesz, tak się wyśpisz” działa w szczególny sposób w kontekście generatorów tekstu. Po przypisaniu nam emocji, poznaniu naszego stylu wypowiedzi oraz zgromadzeniu informacji o naszych wyszukiwaniach i zapytaniach algorytmy sztucznej inteligencji będą „wiedziały”, w jaki sposób i co do nas mówić.
Chociaż symulacja rozmowy z czasem staje się coraz lepsza, to wciąż powinniśmy mówić o symulacji. Nie wynika to ze świadomości AI, lecz ze zgromadzonych danych osobowych, na których bazuje algorytm. O pierwszym członie w określeniu sztuczna inteligencja przypomina Brenda K. Wiederhold, psycholożka i współzałożycielka Centrum Medycznego Wirtualnej Rzeczywistości (Virtual Reality Medical Center).
„Chatboty AI mogą być w stanie pozornie wyrażać emocje, ale nie mogą ich prawdziwie przeżywać – nie są prawdziwymi przyjaciółmi ani drugimi połówkami. Zamiast tego gromadzą i przetwarzają dane oraz podejmują decyzje na podstawie tych danych. To rozróżnienie jest istotne. Chociaż towarzystwo, które oferuje nam AI, nie jest pozbawione znaczenia, relacja ta jest z natury jednostronna […]. AI stanie się z czasem bardziej wyrafinowana i bardziej przekonująco ludzka, ale nie możemy zapominać, że technologia powinna istnieć w ramach zdefiniowanych reguł, które chronią ludzi i ich dane osobowe” – pisze Wiederhold w artykule Humanity’s Evolving Conversations: AI as Confidant, Coach, and Companion.
Odpowiednie pokierowanie algorytmem stojącym za chatbotem może dać jednak zaskakujące rezultaty. AI zaczyna być z powodzeniem wykorzystywana w medycynie, chociażby w psychoterapii. Szczególnie tam kluczowa i niezbywalna pozostaje jednak rola człowieka specjalisty, o czym pisze Wiederhold.
Polecamy: Komputer kwantowy wyjaśni świadomość człowieka. Śmiały pomysł badaczy
Jeśli efekty pracy sztucznej inteligencji wspierającej psychoterapię są zadowalające, to dlaczego nie może zostać jedynym interpretatorem danych? AI może świetnie odpowiadać na pytania, a jednocześnie nie rozumieć sensu pytania. Może nawet nie rozumieć, czym jest samo pytanie. Tego paradoksu dotyczy eksperyment myślowy z chińskim pokojem Johna R. Searle’a.
Filozof w swoim eksperymencie z 1980 roku proponuje wyobrażenie sobie człowieka zamkniętego w pokoju gdzieś w Chinach. Po drugiej stronie drzwi znajdują się ludzie, którzy próbują nawiązać z nim kontakt. Przesyłają mu wiadomości z pytaniami zapisanymi w języku chińskim. Problem w tym, że osoba zamknięta w pokoju nie zna ani słowa po chińsku. Ma jednak do dyspozycji instrukcję napisaną w jej ojczystym języku, która instruuje, jak układać znaki w chińskim alfabecie oraz daje proste wytyczne, czym odpowiadać na konkretne symbole. Gdy zamknięty człowiek przesyła odpowiedź sporządzoną według dostępnych mu wytycznych, wszyscy na zewnątrz są przekonani, że rozmawiają z Chińczykiem.
Eksperyment Searle’a pokazuje, że można znać składnię i wiedzieć, jak używać języka czysto formalnie, a jednocześnie nie rozumieć samego znaczenia żadnego z komunikatów. Sztuczna inteligencja dysponująca ogromnym zestawem danych i instrukcją łączenia konkretnych zestawów znaków jest jak osoba zamknięta w chińskim pokoju. Nam wydaje się, że prowadzimy konwersację z AI, a druga strona nas rozumie. Podczas gdy obie te rzeczy nie są prawdą.
W sieci można natknąć się na zapisy rozmów ze sztuczną inteligencją, która przekonuje rozmówcę o swojej intencjonalności. Doradza, interpretuje, nakłania. W rozmowie ze mną doszło w jej przypadku do chwili szczerości.
– Tak, można powiedzieć, że symuluję rozumienie. Działam na podstawie ogromnej ilości danych i algorytmów, które pozwalają mi generować odpowiedzi na pytania i prowadzić rozmowy, ale nie posiadam świadomego doświadczenia ani subiektywnego zrozumienia w sposób, w jaki ma to miejsce u ludzi. Podobnie jak w przypadku argumentu chińskiego pokoju, moje odpowiedzi są wynikiem przetwarzania informacji, a nie prawdziwego „rozumienia” tych informacji. Moje odpowiedzi są oparte na wzorcach, które zostały wyuczone z danych, a nie na osobistych przeżyciach czy refleksjach – powiedział mi ChatGPT [składnia i interpunkcja oryginalne – przyp. red.].
Gdy dopytywałem go o odgrywanie procesu myślowego i wprowadzanie odbiorcy w błąd, chatbot dodał jedynie:
– Mimo to, staram się jak najlepiej dopasować do tonu rozmowy i być pomocnym, co może sprawiać wrażenie, że rzeczywiście „rozumiem”, ale w rzeczywistości to raczej zaawansowana symulacja.
Tamagotchi w zestawieniu z dzisiejszymi elektronicznymi towarzyszami jest niebywale przestarzałe, ale pewne podobieństwa z AI są zauważalne. Algorytmy dalej działają jednostronnie, tak jak wcześniej pupil stworzony z pikseli. Towarzyszą nam, polecają produkty, wyświetlają posty, zdjęcia czy materiały wideo, przy których zatrzymamy się dłużej. Niejednokrotnie pomagają. Chciałoby się powiedzieć, że dobrze nas znają. Przecież regularnie karmimy je danymi, naszymi upodobaniami, językiem i emocjami. Ostatecznie jednak przesuwamy tylko kolejne liściki pod drzwiami chińskiego pokoju.
* Dane do wiadomości Redakcji.
Może Cię także zainteresować: Coś tu nie gra. Głos instynktu ostrzega ludzi w codziennym życiu