Nauka
Serce ma swój „mózg”. Naukowcy badają jego rolę i funkcje
20 grudnia 2024
Sztuczna inteligencja już dawno przewyższyła ludzi w dziedzinach, które niegdyś uznawano za szczyt ludzkiego intelektu. Niektórzy twierdzą nawet, że przewyższa ludzi pod względem umiejętności emocjonalnych, takich jak na przykład empatia. Badania naukowców z Uniwersytetu Kalifornijskiego w San Diego wskazują, że w niektórych sytuacjach zdrowotnych pacjenci postrzegają ChatGPT jako bardziej współczujący, niż personel medyczny. Czy to oznacza, że sztuczna inteligencja jest naprawdę empatyczna? Niekoniecznie.
Dla wielu z nas doszukiwanie się empatii w sztucznej inteligencji brzmi dziwnie. Mimo tego, że AI wykonuje wiele czynności szybciej i lepiej niż ludzie, empatia wydawała się jedną z tych cech, których SI nie będzie mogła przyswoić. Ale czy na pewno?
Zobacz też:
Psychologowie definiują empatię za pomocą trzech kryteriów:
Biorąc pod uwagę definicję jasne jest, że sztuczne systemy nie są zdolne do odczuwania empatii. Nie mają pojęcia, jak to jest coś czuć, więc nie mogą spełnić kryterium zgodności uczuć. AI może rozpoznawać emocje na podstawie wyrazu twarzy, wskazówek głosowych, czy wzorców fizjologicznych. Może też symulować zachowania empatyczne za pomocą mowy lub za pomocą innych sposobów wyrażania emocji.
Tak więc sztuczna inteligencja wykazuje cechy podobne do psychopatii. Pomimo braku zdolności do odczuwania empatii, potrafi rozpoznawać emocje i naśladować empatyczne zachowania, wykorzystując je do manipulacji. W przeciwieństwie do psychopatów, cele te nie są wyznaczane przez sztuczne systemy, lecz przez ich twórców.
Tak zwana empatyczna sztuczna inteligencja często ma na celu wywołania u nas określonych postaw, takich jak na przykład zachowanie spokoju podczas jazdy, zwiększona motywacja do nauki, większa efektywność w pracy, zakup określonego produktu lub głosowanie na wskazanego kandydata politycznego. Jednak czy nie najważniejszy jest cel, dla którego wykorzystuje się symulowaną empatię sztucznej inteligencji?
Z etycznego punktu widzenia kluczowa jest kwestia szacunku, czyli empatycznego uznania potrzeby i cierpienia innej osoby. Przypisywanie tego sztucznemu bytowi sprawia, że osoba potrzebująca opieki, towarzystwa lub psychoterapii jest traktowana przedmiotowo, ponieważ zakłada się, że nie ma znaczenia, czy ktoś naprawdę jej słucha.
Wykorzystywanie sztucznej inteligencji, która symuluje empatię w opiece i psychoterapii jest przykładem technologicznego solucjonizmu, czyli naiwnego przekonania, że rozwiązanie każdego problemu ma rozwiązanie w technologii. Outsourcing tych kwestii do AI utrudnia nam między innymi zrozumienie społecznych przyczyn samotności i zaburzeń psychicznych.
Z kolei ludzie reagują szczerą empatią na sztuczne systemy wykazujące ludzkie lub zwierzęce cechy. Ten proces opiera się głównie na mechanizmach percepcyjnych. Postrzeganie, że inna istota przeżywa określone emocje, wywołuje u obserwatora analogiczne uczucia. Dowody z badań MRI mózgu pokazują, że gdy ludzie odczuwają empatię wobec robotów, aktywują się te same obszary neuronowe, co w przypadku żywych stworzeń.
To może cię również zainteresować: