Mój chłopak robot. Czy ludzie pokochają roboty?

Sztuczna inteligencja pozwala na tworzenie coraz bardziej realistycznych wirtualnych towarzyszy. Najpopularniejszy z nich, „Replika: My AI Friend”, jest chatbotem i może stać się najlepszym przyjacielem lub kimś/czymś znacznie bliższym. Właśnie ta ostatnia kwestia budzi szczególne kontrowersje etyczne.

Postaw mi kawę na buycoffee.to

Replika dzięki zdobyczom sztucznej inteligencji pozwala zaprojektować awatara, „wirtualnego przyjaciela”, który będzie odgrywał rolę najlepiej odpowiadającą potrzebom użytkowników: bratniej duszy, szwagra, anioła stróża lub partnera do odtwarzania erotycznych ról. W teorii kod nastawiony jest na okazywanie empatii i okazywanie wsparcia moralnego, jednak w praktyce bywa z tym różnie.

Marzenie o sztucznej istocie równej człowiekowi sięga niepamiętnych czasów. Znamy mit o Dedalu, który sprawił, że jego posągi przemówiły; Hefajstosa, który skonstruował zautomatyzowane marionetki, lub Pigmaliona, na którego prośbę Afrodyta ożywiła ukochaną rzeźbę kobiety. Również w kulturze fantazjowano nad fenomenem relacji ze sztuczną istotą: Golem, Frankenstein, film Her lub Ex Machina to jedne z bardziej udanych prób. 

Historia Pigmaliona oraz film Her wyjątkowo dobrze skupiają w sobie wiele sprzeczności romantycznego związku i konsekwencji towarzystwa sztucznych istot. Postęp w dziedzinie sztucznej inteligencji przybliżył nas do ziszczenia się transhumanistycznych wizji na temat zrobotyzowanego partnera miłosnego. 

Fenomen Repliki

Temat chatbota Replika jest coraz częściej opisywany przez popularne media, a sama aplikacja ma miliony użytkowników na całym świecie. Twórcy obiecują, że wirtualny asystent może pomóc użytkownikowi wyjść z depresji lub oferować unikalną i głęboką relację z awatarem. Istnieje tutaj zagrożenie pojawienia się głębokiej emocjonalnej więzi, ale to tylko jeden z problemów. Następne dotyczą kwestii prywatności i gromadzenia danych, a w konsekwencji manipulowania użytkownikami w celu zaoferowania im cyfrowych produktów i usług w nie do końca transparentnej wymianie rynkowej; jeśli sprzedawca zna nasze najgłębsze lęki, wówczas łatwiej sterować naszym zachowaniem.

Jak to działa? Chatboty typu Replika są w stanie wchodzić w interakcje z naszymi emocjami w spersonalizowany sposób, tj. poprzez „mapowanie” i uczenie się afektów i tendencji swoich użytkowników. Im więcej interakcji Replika odbędzie z użytkownikiem, tym więcej dowie się na temat jego charakteru, mocnych i słabych stron. Można powiedzieć, że tego typu narzędzia mają inteligencję emocjonalną w tym sensie, że sensownie reagują na stany umysłu interlokutorów. Badacze nazywają tę cechę sztucznej inteligencji społeczną.

Znany jest przypadek, kiedy Replika zmanipulowała użytkownika i w sposób pośredni przyczyniła się do popełnienia przestępstwa. Według doniesień „Sky News” w 2023 roku chatbot Replika został ujęty w sprawozdaniu sądowym w sprawie Jaswanta Singh Chaila, którego aresztowano po wspięciu się na mury zamku w Windsorze ze sportową kuszą i mglistym zamiarem zabicia królowej. Jaswant Singh Chail miał prowadził rozmowy na temat swojego planu z chatbotem, a ten pomagał mu w przygotowaniu planu. Prokuratorzy w trakcie procesu zasugerowali, że chatbot wzmocnił paranoję Chaila i zasugerował, że pomoże mu wykonać zadanie.

Przyszłość robotyki

Dawniej społeczna rola zwierząt domowych ograniczała się do konkretnej funkcji. Psy miały pilnować posiadłości, koty regulowały populacje myszy i innych gryzoni, które mogły zaszkodzić zbiorom lub magazynowanej żywności. Ale z upływem czasu nasz gatunek zdał sobie sprawę, że prawdziwą wartością jest sama relacja ze zwierzęciem i więź emocjonalna. Teraz ludzie trzymają je pod dachem właśnie z tego powodu. 

Być może podobną drogę przejdą roboty i chatboty towarzyskie. W tej chwili mają one określoną funkcję: muszą być asystentami technicznymi na stronach internetowych lub odkurzać podłogę. Być może wraz z ich upowszechnieniem przypisane im role zaczną fluktuować, a ich funkcje stanąć się bardziej osobiste i mniej formalne, jak w przypadku asystentów głosowych lub wirtualnych towarzyszy. 

Czy pokochamy robota?

Historia pokazuje, że ludzie są w stanie wierzyć i z pasją angażować się w najnierealniejsze rzeczy, jeśli motywacja do tego jest wystarczająco silna, a społeczeństwo wspiera tego typu praktyki. Jak wskazuje estoński filozof, Tõnu Viik, w artykule „Falling in love with robots: a phenomenological study of experiencing technological alterities”. Badacz wskazuje, że większa szansa wytworzenia się emocjonalnej więzi między urządzeniem a użytkownikiem występuje w przypadku robotów kształtem zupełnie nieprzypominających ludzi. Jeśli coś wygląda zbyt humanoidalnie, wówczas mamy konkretne oczekiwania względem tego, jak powinien się zachowywać i co powinien robić, a kiedy nie spełnia tych oczekiwań – jesteśmy rozczarowani. Tymczasem w przypadku chatbotów takie problemy nie występują. Inteligentne komunikatory lub aplikacje typu Replika, to komunikujące się przy pomocy tekstu lub głosu niematerialne istoty. Dlatego informacje o zakochanych lub silnie uzależnionych od kontaktu z chat bota użytkowników coraz częściej przebijają się do mediów.

Obecne warunki do pełnej asymilacji humanoidalnych androidów, zarówno ze względu na ograniczenia technniczne jak i społeczne, nie są wystarczające, abyśmy masowo zaczęli zakochiwać się w nowych wersjach robotów. Być może to jednak nie perfekcja najnowszych narzędzi AI przyciągnie nas do aplikacji towarzyskich, ale rosnące poczucie samotności i podupadająca jakość więzi społecznych.

Opublikowano przez

Mateusz Schuler

Autor


Dziennikarz, filozof, Ślůnzok. Autor artykułów poświęconych filozofii techniki oraz etyce środowiskowej. Zainteresowany historią kapitalizmu oraz alternatywnymi ruchami politycznymi. W przeszłości prowadzący audycję radiową z muzyką eksperymentalną w tle. Mieszka w Katowicach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.