Prawda i Dobro
Nowe badania lekarskie kierowców. Co się zmieni?
20 lutego 2026

Dzięki generatywnej sztucznej inteligencji można dziś stworzyć swojego cyfrowego bliźniaka, który po śmierci będzie rozmawiał z bliskimi. AI po śmierci staje się faktem – ale kto tak naprawdę będzie nim władał? I co się z nim stanie, gdy firma, która go hostuje, zbankrutuje?
Wirtualna nieśmiertelność to dziś już nie science fiction rodem z Czarnego lustra. To realna usługa, którą oferuje rozwijający się przemysł grief tech – technologii żałoby. Powstają tzw. deathboty, czyli awatary, boty głosowe i czaty trenujące na danych zmarłych, by udawać ich po śmierci.
Większość takich aplikacji tworzą pogrążeni w żałobie bliscy. Coraz częściej pojawiają się jednak usługi, które pozwalają samodzielnie stworzyć swojego cyfrowego sobowtóra za życia. Wystarczy nagrać kilka historii, odpowiedzieć na pytania, przesłać zdjęcia i filmy. Algorytm robi resztę.
Po śmierci, gdy firma zostanie powiadomiona, bliscy mogą rozpocząć rozmowę z cyfrową wersją zmarłego. Brzmi to pięknie czy przerażająco? Odpowiedź zależy od punktu widzenia. Niezależnie jednak od wrażeń, taka sytuacja rodzi pytania, na które prawo nie zna jeszcze odpowiedzi.
Australijska prawniczka dr Wellett Potter z University of New England przygląda się tej nowej rzeczywistości z perspektywy prawa w artykule na stronie The Conversation. I nie ma dobrych wiadomości dla tych, którzy chcieliby zostawić swojego cyfrowego ducha w spadku.
W Australii, podobnie jak w Polsce, nie istnieje jednolite prawo do własności tożsamości. Twarz, głos, sposób bycia mogą być chronione jako dobra osobiste, ale nie są przedmiotem własności w sensie spadkowym.
Nie można tego zapisać w testamencie, bo prawo nie uznaje tego za przedmiot własności
– wyjaśnia dr Potter.
Oznacza to, że AI po śmierci pozostaje w prawnej próżni. Prawa autorskie również nie chronią cyfrowego sobowtóra. Nagrania czy zdjęcia przesłane firmie są własnością użytkownika – ale to, co algorytm wygeneruje na ich podstawie, jest w świetle prawa… niczyje. Nie powstało bowiem w wyniku „samodzielnego wysiłku intelektualnego” człowieka.
Firma, której powierzono dane, może więc robić z wygenerowanym wizerunkiem, co chce – o ile zapisała to w regulaminie.
Problemy nie kończą się jednak na własności. Dr Potter wskazuje na ryzyka, których nie sposób przewidzieć w momencie podpisywania umowy. Do najbardziej oczywistych należy to, że dane mogą zostać zwyczajnie sprzedane. Firma może też zbankrutować lub zmienić właściciela. A np. nagrania mogą trafić w niepowołane ręce.
Są też inne możliwe komplikacje. W tym wynikające z tego, że algorytmy się zmieniają. To, co dziś wiernie naśladuje czyjeś myślenie, za kilka lat może działać zupełnie inaczej. Deathbot – jak nazywają to naukowcy – może stopniowo tracić podobieństwo do oryginału. Może zacząć mówić rzeczy, których zmarły by nie powiedział. Może naruszyć jego wartości, jego pamięć.
Kto ponosi wtedy odpowiedzialność? Osoba, która podpisała umowę? Firma, która zmieniła algorytm? A może nikt, bo prawo po prostu nie przewiduje takiej sytuacji?
Jest jeszcze jeden, bardziej subtelny problem. Deathboty mogą pomagać w żałobie – wskazują na to dotychczasowe obserwacje, choć badania wciąż trwają. Mogą jednak także uzależniać.
Bliscy zmarłego, zamiast przepracować stratę, mogą utknąć w rozmowie z jego cyfrową imitacją. Zamiast iść dalej, wracają do chatbota, który zawsze odpowie, zawsze wysłucha, zawsze będzie tym, kogo stracili. Co wtedy? Kto ma interweniować, gdy wirtualny sobowtór zaczyna szkodzić?
Na razie jedyna rada, jaką mogą dać prawnicy, brzmi: czytać regulaminy. To w nich zapisano, co firma może zrobić z danymi po śmierci użytkownika. Czy sprzeda wspomnienia? A może wyłączy sobowtóra, gdy przestanie jej się to opłacać? Czy wreszcie cyfrowy duch będzie miał prawo do… śmierci?
To ważne, by zawczasu przewidywać i analizować konsekwencje stosowania technologii w takich sferach jak żałoba. Bo jeśli firma zniknie, AI po śmierci zniknie razem z nią. A wtedy bliscy stracą zmarłego po raz drugi. Ostatecznie jednak każdy z nas sam będzie musiał odpowiedzieć sobie na pytanie, czy rzeczywiście chce i potrzebuje maskować ostateczność śmierci technologicznymi zastępnikami.
Przeczytaj także: AI przyłapana na kradzieży. To będzie dowód w sądach
Z kodem LUTY26 dostawa do paczkomatów InPost gratis!
Udanych zakupów!
Księgarnia Holistic News
Dziękujemy, że przyczytałeś artykuł do końca. Jesli chcesz, możesz wesprzeć naszą pracę: