Czy można zranić uczucia robota?

Naukowcy pracują nad stworzeniem robota, który będzie odczuwał emocje. Już teraz możemy spotkać takie, które naśladują ludzkie sposoby wyrażania uczuć za pomocą mimiki. Czy jest możliwe, że w pewnym momencie maszyny staną się tak samo wrażliwe jak my? Karol Darwin, badając sposoby wyrażania uczuć przez ludzi i zwierzęta, doszedł do wniosku, że emocje pełnią istotną funkcję ewolucyjną – pomagają ocenić sytuację i podjąć działania, które zwiększają szanse […]

Naukowcy pracują nad stworzeniem robota, który będzie odczuwał emocje. Już teraz możemy spotkać takie, które naśladują ludzkie sposoby wyrażania uczuć za pomocą mimiki. Czy jest możliwe, że w pewnym momencie maszyny staną się tak samo wrażliwe jak my?

Karol Darwin, badając sposoby wyrażania uczuć przez ludzi i zwierzęta, doszedł do wniosku, że emocje pełnią istotną funkcję ewolucyjną – pomagają ocenić sytuację i podjąć działania, które zwiększają szanse na przetrwanie. Strach przyspiesza decyzję o ucieczce przed niebezpieczeństwem; przywiązanie do młodych sprawia, że w sytuacji zagrożenia rodzice przede wszystkim chronią potomstwo, czyli te osobniki, które mają szansę przedłużyć gatunek.

Wyrażają, ale nie odczuwają

Robot, który będzie odczuwał emocje, szybciej podejmie decyzję w kryzysowej sytuacji, co pozwoli mu uniknąć zniszczenia. To szczególnie istotne w przypadku wojskowych robotów taktycznych, które wysyłane są w miejsca niedostępne lub zbyt niebezpieczne dla żołnierzy. Roboty bojowe dzięki uczuciom mogłyby z kolei oceniać etyczną stronę podejmowanego ataku i na przykład wstrzymywać ogień, jeśli w polu rażenia znajdowaliby się bezbronni cywile.

Emocje są także ważnym składnikiem komunikacji – łatwiej nam porozumieć się z istotą, która przejawia jakieś uczucia, niż z bezduszną maszyną. Octavia to humanoidalny robot służący w amerykańskiej marynarce wojennej. Została zbudowana tak, że za pomocą mimiki wyraża radość czy zdumienie. Cieszy się, gdy rozpozna kogoś ze swojej załogi albo dziwi się, gdy otrzyma polecenie, którego się nie spodziewała. A przynajmniej takie sprawia wrażenie.

Nie znaczy to jednak, że Octavia faktycznie odczuwa emocje, które okazuje. Robot w ten sposób sygnalizuje tylko rodzaj operacji, który jest właśnie wykonywany przez jego system – zastrzega Gregory Trafton z Center for Applied Research in Artificial Intelligence. Sygnały przybierają formę mimiki i gestów przypominających ludzkie, dzięki czemu współpracownicy Octavii mogą łatwiej ją zrozumieć.

Emocji można nauczyć?

Angelica Lim, specjalistka w dziedzinie robotyki, jest jednak przekonana, że robota można nauczyć emocji – tak jak uczy się ich człowiek w procesie socjalizacji. W ramach projektu doktorskiego stworzyła MEI, robota, który uczył się od swoich opiekunów emocjonalnego reagowania na poszczególne sytuacje. Jeśli uczestnicy badania okazywali MEI współczucie (na przykład z powodu rozładowującej się baterii), robot w podobny sposób sygnalizował później swój zły stan. Jeśli w takiej samej sytuacji ludzie reagowali złością czy zniecierpliwieniem, MEI informowała o następnych problemach technicznych w bardziej nerwowy sposób.


Architektura emocjonalna robota MEI została zaprojektowana w oparciu o obszary ludzkiego mózgu związane z empatią i emocjami

„Zamiast kodować emocje, używając ściśle określonych zasad, być może uda się stworzyć robota, który będzie posiadał konstrukcję emocjonalną podobną do ludzkiej, kształtowaną przez bezpośrednie doświadczanie uczuć takich jak miłość czy szczęście” – pisze w artykule dla magazynu „Footnote”.

Założenia Angeliki Lim i innych naukowców zajmujących się robotyką rozwojową (ang. developmental robotics) oparte są na założeniu, że emocje to wyuczone społecznie reakcje na bodźce – zarówno te pochodzące z otoczenia, jak i z naszego organizmu. Są one jednak również silnie związane z fizjologią. Złość powoduje, że bezwiednie zaciskamy pięści, ale działa to też w drugą stronę: zaciskając pięści, łatwiej wzbudzić nam w sobie złość. Na pytanie, czy to możliwe, by roboty mogły odczuwać emocje podobnie do ludzi, Arvid Kappas, psycholog z Uniwersytetu w Bremie, odpowiada: „Prawdopodobnie będą to emocje mechaniczne, nie ludzkie, bo mechaniczne są ich ciała”.

Etyka i robotyka

Jeśli jednak uda się stworzyć robota, który odczuwa strach w sytuacji zagrożenia, to czy etycznym będzie wysłanie go na niebezpieczną misję zwiadowczą, na którą żaden dowódca nie chciałby wysłać swoich żołnierzy? Czy robot odczuwający współczucie na widok kogoś płaczącego będzie mógł odmówić zabicia go pomimo rozkazu? Na te pytania nie musimy na razie odpowiadać. Ale już samo to, że je sobie zadajemy, pokazuje pewną prawdę na temat tego, jaki mamy stosunek do maszyn.

Julie Carpenter, autorka książki „Culture and Human-Robot Interaction in Militarized Spaces”, przeprowadziła badania, które wykazały, że żołnierze pracujący z robotami przywiązywali się do nich emocjonalnie – nadawali im imiona, mówili do nich czy głaskali. Słowem, traktowali je jak żywe stworzenia. Jeśli robot uległ zniszczeniu w trakcie akcji, odczuwali żal porównywalny do straty ukochanego zwierzaka. „Cenię ludzkie życie. Cenię relacje, które mam z innymi ludźmi. Ale powiem ci szczerze, że naprawdę brakuje mi panny Stacy 4, była dobrym robotem” – wspomina jeden z żołnierzy w rozmowie z Carpenter.

Jako ludzie mamy tendencję do personifikowania stworzeń i obiektów, które są dla nas ważne. Nawet jeśli emocje robotów zawsze będą tylko wyuczoną odpowiedzią na to, co się dzieje w ich otoczeniu, nie znaczy to, że nasze uczucia względem nich – oraz nasze dylematy etyczne – będą przez to mniej prawdziwe.

Źródła: Footnote, MIT Technology Review, Nautilus

Opublikowano przez

Dominika Kardaś


Specjalistka od literatury i kultury. Najchętniej pisze o sprawach bliskich człowiekowi. Jak każdy typowy milenials zaliczyła epizod w korpo. Ulubiony sport: chodzenie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.