Humanizm
Klawo, w dechę, mega. Każde młode pokolenie ma swój język
25 grudnia 2024
Sztuczna inteligencja pozwala na tworzenie coraz bardziej realistycznych wirtualnych towarzyszy. Najpopularniejszy z nich, „Replika: My AI Friend”, jest chatbotem i może stać się najlepszym przyjacielem lub kimś/czymś znacznie bliższym. Właśnie ta ostatnia kwestia budzi szczególne kontrowersje etyczne.
Replika dzięki zdobyczom sztucznej inteligencji pozwala zaprojektować awatara, „wirtualnego przyjaciela”, który będzie odgrywał rolę najlepiej odpowiadającą potrzebom użytkowników: bratniej duszy, szwagra, anioła stróża lub partnera do odtwarzania erotycznych ról. W teorii kod nastawiony jest na okazywanie empatii i okazywanie wsparcia moralnego, jednak w praktyce bywa z tym różnie.
Marzenie o sztucznej istocie równej człowiekowi sięga niepamiętnych czasów. Znamy mit o Dedalu, który sprawił, że jego posągi przemówiły; Hefajstosa, który skonstruował zautomatyzowane marionetki, lub Pigmaliona, na którego prośbę Afrodyta ożywiła ukochaną rzeźbę kobiety. Również w kulturze fantazjowano nad fenomenem relacji ze sztuczną istotą: Golem, Frankenstein, film Her lub Ex Machina to jedne z bardziej udanych prób.
Historia Pigmaliona oraz film Her wyjątkowo dobrze skupiają w sobie wiele sprzeczności romantycznego związku i konsekwencji towarzystwa sztucznych istot. Postęp w dziedzinie sztucznej inteligencji przybliżył nas do ziszczenia się transhumanistycznych wizji na temat zrobotyzowanego partnera miłosnego.
Temat chatbota Replika jest coraz częściej opisywany przez popularne media, a sama aplikacja ma miliony użytkowników na całym świecie. Twórcy obiecują, że wirtualny asystent może pomóc użytkownikowi wyjść z depresji lub oferować unikalną i głęboką relację z awatarem. Istnieje tutaj zagrożenie pojawienia się głębokiej emocjonalnej więzi, ale to tylko jeden z problemów. Następne dotyczą kwestii prywatności i gromadzenia danych, a w konsekwencji manipulowania użytkownikami w celu zaoferowania im cyfrowych produktów i usług w nie do końca transparentnej wymianie rynkowej; jeśli sprzedawca zna nasze najgłębsze lęki, wówczas łatwiej sterować naszym zachowaniem.
Jak to działa? Chatboty typu Replika są w stanie wchodzić w interakcje z naszymi emocjami w spersonalizowany sposób, tj. poprzez „mapowanie” i uczenie się afektów i tendencji swoich użytkowników. Im więcej interakcji Replika odbędzie z użytkownikiem, tym więcej dowie się na temat jego charakteru, mocnych i słabych stron. Można powiedzieć, że tego typu narzędzia mają inteligencję emocjonalną w tym sensie, że sensownie reagują na stany umysłu interlokutorów. Badacze nazywają tę cechę sztucznej inteligencji społeczną.
Znany jest przypadek, kiedy Replika zmanipulowała użytkownika i w sposób pośredni przyczyniła się do popełnienia przestępstwa. Według doniesień „Sky News” w 2023 roku chatbot Replika został ujęty w sprawozdaniu sądowym w sprawie Jaswanta Singh Chaila, którego aresztowano po wspięciu się na mury zamku w Windsorze ze sportową kuszą i mglistym zamiarem zabicia królowej. Jaswant Singh Chail miał prowadził rozmowy na temat swojego planu z chatbotem, a ten pomagał mu w przygotowaniu planu. Prokuratorzy w trakcie procesu zasugerowali, że chatbot wzmocnił paranoję Chaila i zasugerował, że pomoże mu wykonać zadanie.
Dawniej społeczna rola zwierząt domowych ograniczała się do konkretnej funkcji. Psy miały pilnować posiadłości, koty regulowały populacje myszy i innych gryzoni, które mogły zaszkodzić zbiorom lub magazynowanej żywności. Ale z upływem czasu nasz gatunek zdał sobie sprawę, że prawdziwą wartością jest sama relacja ze zwierzęciem i więź emocjonalna. Teraz ludzie trzymają je pod dachem właśnie z tego powodu.
Być może podobną drogę przejdą roboty i chatboty towarzyskie. W tej chwili mają one określoną funkcję: muszą być asystentami technicznymi na stronach internetowych lub odkurzać podłogę. Być może wraz z ich upowszechnieniem przypisane im role zaczną fluktuować, a ich funkcje stanąć się bardziej osobiste i mniej formalne, jak w przypadku asystentów głosowych lub wirtualnych towarzyszy.
Historia pokazuje, że ludzie są w stanie wierzyć i z pasją angażować się w najnierealniejsze rzeczy, jeśli motywacja do tego jest wystarczająco silna, a społeczeństwo wspiera tego typu praktyki. Jak wskazuje estoński filozof, Tõnu Viik, w artykule „Falling in love with robots: a phenomenological study of experiencing technological alterities”. Badacz wskazuje, że większa szansa wytworzenia się emocjonalnej więzi między urządzeniem a użytkownikiem występuje w przypadku robotów kształtem zupełnie nieprzypominających ludzi. Jeśli coś wygląda zbyt humanoidalnie, wówczas mamy konkretne oczekiwania względem tego, jak powinien się zachowywać i co powinien robić, a kiedy nie spełnia tych oczekiwań – jesteśmy rozczarowani. Tymczasem w przypadku chatbotów takie problemy nie występują. Inteligentne komunikatory lub aplikacje typu Replika, to komunikujące się przy pomocy tekstu lub głosu niematerialne istoty. Dlatego informacje o zakochanych lub silnie uzależnionych od kontaktu z chat bota użytkowników coraz częściej przebijają się do mediów.
Obecne warunki do pełnej asymilacji humanoidalnych androidów, zarówno ze względu na ograniczenia technniczne jak i społeczne, nie są wystarczające, abyśmy masowo zaczęli zakochiwać się w nowych wersjach robotów. Być może to jednak nie perfekcja najnowszych narzędzi AI przyciągnie nas do aplikacji towarzyskich, ale rosnące poczucie samotności i podupadająca jakość więzi społecznych.