Sztuczna inteligencja potrafi diagnozować choroby psychiczne

AI może pomóc systemom opieki zdrowotnej uporać się z rosnącymi kolejkami do psychiatrów i psychologów. W Wielkiej Brytanii wdrażane są już narzędzia oparte na sztucznej inteligencji, które z zadziwiającą dokładnością potrafią rozpoznawać  występujące najczęściej problemy z psychiką. Stany Zjednoczone testują podobne systemy.

Eksperci z brytyjskiego start-upu Limbic opracowali chatbot o nazwie Limbic Access. Podczas testów sztuczna inteligencja przebadała 210 tys. pacjentów i w 93 proc. przypadków poprawnie zdiagnozowała jedno z ośmiu występujących dzisiaj najczęściej zaburzeń psychicznych.

„Mowa m.in. o depresji, lękach i zespole stresu pourazowego (PTSD)”

– wyjaśnia Ross Harper, neurobiolog i współzałożyciel Limbic.

Zadziwiające wyniki współpracy lekarzy z AI

Brytyjska służba zdrowia informuje, że chatbot daje psychiatrom i psychologom narzędzia, które pozwalają określić wagę i pilność potrzeb pacjenta. Wszystko dzięki systemowi e-triage, czyli internetowej metodzie segregacji potrzebujących w zależności od ich stanu (triage to znana procedura medyczna stosowana w medycynie ratunkowej, umożliwiająca służbom sortowanie rannych w wypadku masowym w zależności od stopnia obrażeń oraz rokowania).

Dzięki Limbic Access lekarze stawiali o 45 proc. mniej błędnych diagnoz i nie byli zmuszeni zmieniać później  terapii pacjentów.

„Nasz program skraca czas potrzebny na wizytę u psychiatry lub psychologa, zmniejszają się kolejki w przychodniach. To nie jest kolejna aplikacja, która podaje wskazówki dotyczące terapii poznawczo-behawioralnej. Limbic Access podaje konkretną diagnozę i może przejąć część  odpowiedzialności klinicznej”

– przekonuje Harper.

Chatbot został zatwierdzony w Wielkiej Brytanii jako odpowiednik urządzenia medycznego klasy II – które amerykańska Agencja ds. Żywności i Leków klasyfikuje jako urządzenie średniego ryzyka (przykłady obejmują strzykawki i elektryczne wózki inwalidzkie). Obecnie Limbic Access planuje ekspansję w Stanach Zjednoczonych.

Inne podejście

Amerykański start-up Kintsugi, który na swoją działalność pozyskał niemal dwadzieścia osiem milionów dolarów od inwestorów i National Science Foundation, również chce badać psychikę pacjentów, ale stosuje inne podejście. Pracuje nad opartym na sztucznej inteligencji narzędziem do analizy głosu, które wyszukuje oznak klinicznej depresji i lęku w próbkach  mowy.

Do identyfikacji „biomarkerów głosu” system posiłkuje się  danymi pochodzącymi od 250 tys. osób, które nagrały próbki swojego głosu .

„Liczy się nie to, co ktoś mówi, ale sposób, w jaki to mówi”

– przekonuje Grace Chang, założycielka i dyrektor generalna Kintsugi.

Aplikacja mogłaby znaleźć zastosowanie w niektórych call center, przy teleporadach zdrowotnych i systemach zdalnego monitorowania pacjentów. Z analiz Kintsugi wynika, że na podobną formę badań zgodziłoby się czterech na pięciu pacjentów (wcześniej szacunki mówiły o jednej na cztery osoby).

Limbic również rozważał analizowanie mowy. Pomysł ostatecznie upadł ze względu na możliwe bariery, jakie mogłoby to stworzyć dla osób zgłaszających się na leczenie – od kłopotów z włączeniem mikrofonów po obawy związane z nagrywaniem ich słów.

Problemy z infrastrukturą

Chang oraz współzałożycielka Kintsugi Rima Seilova-Olson tłumaczą, że do założenia firmy skłoniło ich to, że każda z nich miesiącami czekała na pierwszą wizytę u terapeuty.

Zobacz też:

Podobne problemy występują na całym świecie, także w Wielkiej Brytanii i Polsce. Lekarze nie są w stanie stwierdzić, który pacjent potrzebuje pilnej pomocy. Wszyscy muszą czekać w tak samo długich kolejkach. Stąd rozwój popularności systemów e-triage.

Warto przy tym pamiętać, że leczenie zaburzeń psychicznych jest niezwykle skomplikowane i niedofinansowane. Lekarze pierwszego kontaktu są w stanie prawidłowo rozpoznać  depresję jedynie w połowie przypadków. Psychiatrów i psychologów szkoli się wciąż za mało, a liczba chorych rośnie w zastraszającym tempie. W ciągu ostatnich dziesięciu lat w Polsce sprzedaż leków przeciwdepresyjnych wzrosła o 59 proc.

Wielu ekspertów wyraża obawy przed stosowaniem AI w leczeniu zaburzeń psychicznych. Pacjenci mogą obawiać się diagnozy postawionej przez komputery, mogą czuć się przytłoczeni taką sytuacją. Dlatego warto zastanowić się nad stopniowym i powolnym wprowadzaniem nowych metod leczenia i diagnostyki do medycyny.

Najpierw niezbędne są szeroko zakrojone badania potwierdzające skuteczność proponowanych metod. Jednocześnie społeczeństwu potrzebna jest edukacja na temat sztucznej inteligencji i umożliwienie wyboru, czy chcą skorzystać z jej pomocy. Dopiero gdy wszyscy przekonają się, że system jest bezpieczny i skuteczny, to będzie można wdrożyć go powszechnie.

Dowiedz się więcej:

Fot.: Rachel Claire / Pexels

Opublikowano przez

dr Rafał Cieniek

Autor


Idealista wierzący w miłość, prawdę i dobro, których szuka na świecie i wokół siebie. Mimo to starający się racjonalnie patrzeć na człowieka i rzeczywistość. Od kilkunastu lat związany z mediami elektronicznymi, gdzie był autorem, redaktorem i wydawcą. Lubi być zaskakiwany nowymi odkryciami naukowców, czytać i pisać o rozwoju technologii, historii, społeczeństwie, etyce i filozofii. Ma doktorat z nauk o mediach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.