AI w psychoterapii. Terapeuta maszyna pierwszego kontaktu

Rozwój sztucznej inteligencji to najczęściej komentowane technologiczne zjawisko. Podobnie jak wcześniej robotyka i automatyzacja budzi również wiele obaw. O ile pogodziliśmy się z tym, że maszyny liczą i wykonują za nas niektóre prace fizyczne, o tyle powierzenie im czegoś, co jest wybitnie ludzkie, czyli sfery uczuć i psychiki, rodzi o wiele więcej oporu. Czy AI może zastąpić psychoterapeutę?

Psychoterapia i przeżywanie emocji (nie tylko na kozetce)

Psychoterapia to złożony proces, do którego niezbędne są motywacja pacjenta, dwustronne zaangażowanie i wiedza terapeuty. Istnieją różne modalności, zbudowane na odrębnych teoriach. Potocznie uważa się, że każda rozmowa odbywa się na kozetce, przez mylne utożsamianie terapii z psychoanalizą.

Istnieją terapie, które skupiają się bardziej na psychoedukacji i konkretnej, dyrektywnej postawie terapeuty, na przykład poznawczo-behawioralna (CBT), jak również wglądowe, eksplorujące nieświadome procesy, na przykład psychodynamiczna czy psychoanalityczna. 

Czy terapeuta, który często staje się dla nas obiektem nieświadomych fantazji i uczuć, angażuje swoje emocje podczas sesji psychoterapii? Jak najbardziej. Zjawisko przeciwprzeniesienia, a więc pojawienia się odczuć w reakcji na postawę i słowa pacjenta, to bardzo ważny komponent będący źródłem informacji o jego obecnym stanie. Na tej podstawie można podejmować odpowiednie interwencje, takie jak komentarz, klaryfikacja (przeformułowanie wypowiedzi pacjenta na bardziej przyswajalną formę) czy interpretacja (czyli próba odsłonięcia nieświadomych procesów i przeniesienie ich do świadomości).

AI w psychoterapii: kobieta w futurystycznym stroju wpatruje się w ekran monitora i pisze na klawiaturze
Fot. cottonbro studio / Pexels

AI w psychoterapii. Sesja terapeutyczna z ChatemGPT

Chociaż ChatGPT to model językowy, który nie jest samoświadomy, a tym bardziej nie czuje emocji, to w pewien sposób może pełnić rolę terapeuty. Posłuży za przykład wykorzystania AI w psychoterapii.

–  Czuję się dzisiaj gorzej – napisałem na chacie. 

–  Przykro mi, że tak się czujesz. Smutek może wynikać z różnych przyczyn – czy wiesz, co mogło go wywołać? Może to być reakcja na jakieś konkretne wydarzenie, przewlekły stres, albo coś, czego nie jesteś pewien – skomentował chat. Jest to całkiem sensowna interwencja, która nie proponuje konkretnego rozwiązania ani nie próbuje implikować odpowiedzi, a raczej zachęca do dalszych rozważań. 

Chatbot wysłucha, chatbot doradzi

– Jeśli chcesz porozmawiać bardziej szczegółowo, jestem tu dla Ciebie – zapewnia mnie dalej o swojej dyspozycji. Przyznam, że to nawet wspierające, gdy ktoś zwraca się do mnie bezpośrednio, zaręczając, że spróbuje mi pomóc. Postanowiłem zatem iść za ciosem:

– Chodzi o to, że gdy budzę się rano, to nie widzę sensu, żeby wstawać z łóżka.

– To, co opisujesz, brzmi jak głęboki spadek motywacji i sensu, co może być objawem większego problemu, np. przytłoczenia, wypalenia albo nawet depresji. To uczucie jest trudne, ale pamiętaj, że nie jesteś w tym sam. Możemy spróbować znaleźć kroki, które mogą pomóc Ci wyjść z tego stanu.

Chat sugeruje kilka możliwych przyczyn, nie koncentrując się na żadnej z nich, pozwalając na dalsze rozważanie „mojego” samopoczucia. W dalszym kroku podpowiada nawet konkretne kroki, które mogę podjąć, aby poprawić sobie nastrój. Wszystkie są rozsądne i mogą pomóc, a nie powinny zaszkodzić.

Ponadto dostaję bardzo zgrabny, wspierający komunikat:

– Pamiętaj, że takie stany są przejściowe. Masz prawo czuć się tak, jak się czujesz, ale jednocześnie możesz z tym coś zrobić. Jesteś ważny, i choć teraz może wydawać się inaczej, lepsze dni przyjdą.

Poza tym chat poinformował mnie, czym charakteryzuje się depresja i co dokładnie zrobić, aby dowiedzieć się, czy rzeczywiście mam problem z tym zaburzeniem.

Polecamy: HOLISTIC NEWS: Zły dotyk, dobra terapia. Zbrukana niewinność i droga do uleczenia

AI w psychoterapii. Potencjał diagnostyczny i ograniczenia

Mimo iż moja „rozmowa” z chatem nie była rozmową przypominającą sesję psychoterapeutyczną, ma ona cechy solidnej i rzetelnej psychoedukacji. Przedstawia bowiem fakty oraz konkretne metody, których nie wyrzekłby się żaden psycholog. Trzeba jednak pamiętać, że model, na którym opiera się chat, nie jest bezbłędny. Jednak ludzie również popełniają błędy, a prawdopodobieństwo w ich przypadku wcale nie musi być mniejsze. 

Chat pokierował rozmową krok po kroku. Mimo dosyć ogólnego i abstrakcyjnego wstępnego stwierdzenia „czuję się gorzej” zasugerował pogłębioną diagnostykę konkretnego zaburzenia, w tym wypadku depresji. Przyznam, że projektując ten przypadek, właśnie taki stan miałem na myśli. Można więc powiedzieć, że rozmowa przeprowadzona przez bota, który „nic nie czuje” i nie jest samoświadomy, pozwoliła mi nazwać problem, a przynajmniej sformułować hipotezę, którą mogę potwierdzić lub odrzucić podczas wizyty lekarskiej. Czy AI w psychoterapii jest więc przydatne? Nawet bardzo. 

Obecnie AI nie potrafi jednak w pełni odwzorować umysłu człowieka, konkretnie zaś jego najbardziej ludzkiego aspektu – zdolności do przeżywania emocji. Są one niezbędne do tego, aby umieć wyobrazić sobie stan innej osoby, a więc posługiwać się mentalizacją i empatią. Bez tego trudno jest właściwie ocenić sytuację i w rezultacie dogłębnie zbadać problem, z jakim zmaga się nasz rozmówca. Ponadto na sesji psychoterapeutycznej posługujemy się trzema kanałami komunikacji: werbalnym, niewerbalnym (czyli mową ciała) oraz mechanizmem przeniesienia – przeciwprzeniesienia. O ile sfera słów jest dla chatu coraz lepiej przyswajalna, o tyle analiza mowy ciała jeszcze nie, chociaż niewykluczone, że programy analizujące ludzkie gesty już istnieją. Wzajemne oddziaływanie na siebie pacjenta i terapeuty jest jednak na tyle wysublimowanym i skomplikowanym mechanizmem, że bez zdolności do odczuwania nie jest możliwe, aby się nim posługiwać w celu wyczuwania wzajemnych stanów, a więc diagnozowania na tej podstawie trudności psychicznych.

Czująca maszyna. Obiekt marzeń i lęków

Wiele osób obawia się, że stworzenie myślącej maszyny będzie początkiem końca ludzkiej cywilizacji. Jeśli tylko stanie się ona samoświadoma i wyposażona w uczucia, być może zapragnie rządzić światem, a w tym celu będzie dążyć do wyeliminowania swojego stwórcy. Wydaje się, że jesteśmy na tyle rozsądni, że nie dopuścimy do takiego rozwoju wydarzeń. Czy możemy jednak być do końca pewni, co takiego stworzyliśmy? Nasze wynalazki nie zawsze służyły naszemu dobru. Czas pokaże, co jeszcze zmieni technologia. Zawody wymagające zdolności odczuwania emocji pozostają jednak wyłącznie domeną człowieka. 

Może Cię zainteresować: Edukacja AI oznacza nowe miejsca pracy. Polskie uczelnie zostają w tyle

Opublikowano przez

Krzysztof Zaniewski

Autor


Uważny obserwator rzeczywistości, muzyk, hobbystycznie lubiący filozoficzne rozważania, a zawodowo pracujący terapeutycznie z dziećmi i młodzieżą, od których czerpie inspirację i pozytywną energię. Dumny właściciel psa Izoldy, która jest dla niego przykładem miłości bezwarunkowej. Gorący wielbiciel muzyki Ryszarda Wagnera.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.