AI i śmierć

Kapsuła do samobójstwa to nie gadżet z filmu science-fiction a wynalazek, który przechodzi ostatnie testy. Urządzenie o nazwie Sarco zostało zaprojektowane przez dr. Philipa Nitschke, specjalizującego się w badaniach w zakresie używania technologii do wspomagania eutanazji.Pomimo iż dwie próby wdrożenia tzw. kapsuł śmierci były nieudane, dr. Nitschke w końcu opracował maszynę, która wkrótce będzie dopuszczona do użytku w Szwajcarii, jednym z niewielu krajów gdzie samobójstwo wspomagane jest legalne.

Czym właściwie jest samobójstwo wspomagane? Jest to forma odebrania sobie życia, w której pacjent robi to samodzielnie, używając środków zapewnionych przez lekarza. Zazwyczaj warunkiem zezwolenia jest to, że osoba, która się na nie decyduje, jest nieuleczalnie chora. 

Ideą stojącą za Sarco było umożliwienie osobom chcącym zakończyć swoje życie zrobienia tego całkowicie samodzielnie, bez konieczności angażowania w ten proces kogokolwiek innego. 

Może się wydawać, że zastępując lekarzy, sztuczna inteligencja jest w stanie uwolnić ich od ogromnej odpowiedzialności, jaka wiąże się z pozwoleniem komuś na przedwczesną śmierć. Niemniej jednak problem etyczny rozwiązania, które wymyślił Nitschke, dotyczy powierzenia technologii prawa do rozstrzygnięcia ostatecznej kwestii czy ktoś może się zabić.

Już sama idea samobójstwa wspomaganego budzi duże kontrowersje. Jednak w sytuacji, gdy to maszyna miałaby pomagać w popełnieniu samobójstwa, szczególnego znaczenia nabiera problem wykorzystania technologii w obszarze o tak fundamentalnym nacechowaniu moralnym jak życie i śmierć

mówi nam Maciej Chojnowski, współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites.

Jak działa kapsuła śmierci

Co dzieje się, gdy osoba planująca odebrać sobie życie wejdzie do Sarco? Kapsuła zada im trzy pytania: Kim jesteś? Gdzie jesteś? Czy wiesz, co się stanie, gdy naciśniesz ten przycisk? To wystarczy; nie trzeba przechodzić żadnych testów ani korzystać z pomocy kogoś innego. Co następuje potem, jest szybkie i stosunkowo bezbolesne. Pacjent w Sarco traci przytomność po mniej niż minucie i około pięciu minut później wydaje ostatnie tchnienie.

Ta krótka rozmowa jest nagrywana, aby Sarco mógł ją przesłać do władz szwajcarskich w celu udowodnienia, że spełniony został wymóg prawny samodzielnego wykonania aktu przez daną osobę. 

W przeciwieństwie do leków stosowanych w klinikach eutanazji, ciekły azot, który wypełnia Sarco jest łatwo dostępny, więc pracownicy służby zdrowia nie muszą zatwierdzać leków, których pacjent użyje do odebrania sobie życia.

Fot.: Midjourney / Katarzyna Rybarczyk

Niemniej jednak istnieje poważna przeszkoda, którą Nitschke musi pokonać, zanim pacjenci w Szwajcarii będą mogli bez przeszkód używać Sarco. Chociaż wspomagane samobójstwo jest tam legalne, ci, który chcą się zabić, muszą udowodnić, że są sprawni umysłowo.

Zazwyczaj proces samobójstwa wspomaganego zaczyna się od tego, że psychiatra sprawdza, czy ten, kto pragnie zakończyć swoje życie, nie ma zaburzeń psychicznych. Co jeśli takiej oceny dokonuje AI? Czy sztuczna inteligencja jest w stanie zrozumieć umysł człowieka?

Nie wydaje się, żeby można było w tej chwili mieć pewność, że sztuczna inteligencja dorówna w tym wypadku ludzkiej zdolności oceny sytuacji

zaznacza Maciej Chojnowski.

AI jako psychiatra?

Nitschke planuje wyposażenie Sarco w algorytm, który umożliwi osobom, które chcą skorzystać z kapsuły, przeprowadzenie samooceny psychiatrycznej używając komputera. Ci, którzy ją przejdą pomyślnie, otrzymają kod potrzebny do uruchomienia Sarco.

Polecamy: Etyka sztucznej inteligencji. Stoimy przed wyzwaniem

Gdy lekarze sprawdzają, czy osoby ciężko chore starające się zakończyć swoje życie nie mają problemów psychicznych, muszą podjąć etyczną decyzję, kto może umrzeć, a kto musi starać się żyć dalej. Tak więc teoretycznie, takie rozwiązanie mogłoby zdjąć ciężar z ich barków.

A jednak przypisanie odpowiedzialności maszynie za pozwolenie komuś na samobójstwo, grozi przeoczeniem złożoności okoliczności każdego pacjenta. Każdy człowiek jest inny i wiele różnych czynników może przyczynić się do tego, że ktoś chce się zabić. Używanie jednego algorytmu do oceny wszystkich pacjentów aż prosi się o błędy w ocenie. Jeśli one się zdarzą, winne będzie społeczeństwo, a nie sztuczna inteligencja.

W sytuacji, w której asystentem samobójcy byłaby maszyna a nie lekarz, kto mógłby być ewentualnie pociągnięty do odpowiedzialności? Twórca maszyny? Instytucja, która ją udostępniła samobójcy? A może oboje?

Maciej Chojnowski słusznie pyta.

Dylemat moralnej odpowiedzialności

Na pozór wymyślenie programu ułatwiającego podejmowanie decyzji o życiu lub śmierci zamienia problem etyczny w kwestię pragmatyczną. Sprowadzenie tej sprawy do algorytmu wydaje się lekarstwem na głęboko zakorzeniony lęk przed pozwoleniem komuś na odebranie sobie życia. W rzeczywistości jednak dylemat moralny związany z tym, że ktoś jest w stanie zdecydować, kiedy umrze, pozostaje nierozwiązany.

Choć „maszyna do samobójstwa” ma teoretycznie gwarantować więcej samodzielności i godności, to w praktyce weryfikowanie ludzkiej poczytalności przez algorytm (który de facto mógłby też odmówić zgody i zablokować maszynę śmierci) urągałoby jednak ludzkiej godności. Zamiast żywego pośrednika mielibyśmy tu bowiem pośrednika w postaci urządzenia, które miałoby podejmować zasadniczej wagi decyzje w kwestii czyjegoś stanu umysłu, a w efekcie także życia bądź śmierci

wyjaśnia Maciej Chojnowski.

O ile jest prawdą, że algorytmy są już wykorzystywane w różnych aspektach medycyny, aby pomóc lekarzom w diagnozowaniu pacjentów, w przypadku samobójstwa wspomaganego, niezbędna jest wyjątkowa czujność. Konsekwencje błędów są bowiem nieodwracalne.

Warto jednak podkreślić, że sprawstwo za zakończenie życia spoczywa na osobie, która tego pragnie. Zarówno lekarze, jak i AI powinni pełnić jedynie rolę doradczą, dbając o to, by samobójcy nie działali pod wpływem impulsu. 

To powiedziawszy, jeśli naukowcy chcą spopularyzować wykorzystanie AI we wspomaganiu umierania, muszą znaleźć sposób, aby algorytmy były w stanie uwzględnić indywidualne okoliczności pacjenta, wcześniejsze próby samobójcze, czy charakter. W końcu, gdy chodzi o samobójstwo wspomagane, implikacje wszelkich błędnych interpretacji naprawdę są sprawą życia i śmierci.

Źródła:

  1. „MIT Technology Review”: The messy morality of letting AI make life-and-death decisions (2022)
  2. Marie-Estelle Gaignard, „BMC Medical Ethics”: A qualitative study on existential suffering and assisted suicide in Switzerland (2019)

Może Cię również zainteresować:

Opublikowano przez

Katarzyna Rybarczyk

Autor


Absolwentka stosunków międzynarodowych na University of Aberdeen w Szkocji. Od ukończenia studiów dziennikarka pisząca zarówno po polsku, jak i po angielsku. Specjalizująca się w tematyce polityki zagranicznej, ochrony klimatu i praw człowieka. Pasjonuje się nieoczywistymi aspektami kryzysów humanitarnych i długotrwałymi konsekwencjami konfliktów. Prywatnie entuzjastka podróży po Afryce i Bliskim Wschodzie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.