Humanizm
Pokolenie Z tęskni za latami 90. Biznes już to wykorzystuje
27 sierpnia 2025
Załamanie nerwowe, trudniejszy okres w pracy, kryzys w związku – musisz się komuś zwierzyć, wygadać. Ale nie masz komu. Uruchomiasz więc któryś z popularnych czatbotów AI i opisujesz mu swoje problemy. Sztuczna inteligencja odpowiada z troską i zrozumieniem. Czy jednak faktycznie zwierzanie się jej jest dobrym pomysłem? Sam Altman, prezes OpenAI, ma wątpliwości.
Sztuczna inteligencja w przeciągu kilku ostatnich lat przeszła naprawdę imponującą drogę rozwoju. Narzędzia takie jak ChatGPT, Claude czy DeepSeek w przeciągu sekund udzielają złożonych odpowiedzi na każde pytanie, jakie im zadasz. Modele językowe potrafią pisać artykuły naukowe i dziennikarskie, książki, a nawet programy komputerowe. Jeśli użyjemy odpowiednich poleceń, możemy sprawić, że rozmowa z czatbotem faktycznie będzie przypominała konwersację z człowiekiem. Otwiera to drogę do wielu zastosowań takich narzędzi. Sztuczna inteligencja jako terapeuta, prawnik czy lekarz? Takie rozwiązania mogą mieć nieoczekiwane konsekwencje.
Wiele osób traktuje modele AI jak lekarzy pierwszego kontaktu, psychoterapeutów czy adwokatów. To im powierzają informacje związane ze swoimi problemami prawnymi, zdrowiem czy kondycją psychiczną. Niektórzy używają ich do zasięgnięcia wstępnej rady, by potem i tak udać się do wykształconego eksperta. Inni wolą korzystać tylko z pomocy AI. W końcu bardzo dużo modeli językowych jest dostępnych w sieci całkowicie za darmo, na wyciągnięcie ręki. Tymczasem za wizytę u psychologa, lekarza czy prawnika trzeba zapłacić, poczekać, a nierzadko zrobić obydwie te rzeczy.
Okazuje się jednak, że dzielenie się swoimi problemami ze sztuczną inteligencją może nie być dobrym pomysłem. Źródłem niepokojących informacji jest nie kto inny jak Sam Altman, założyciel i prezes OpenAI, czyli firmy odpowiedzialnej za stworzenie modelu ChatGPT.
Pod koniec lipca Altman wystąpił w podcaście This Past Weekend amerykańskiego komika Theo Vona. W półtoragodzinnej rozmowie pojawia się wątek przepisów związanych z funkcjonowaniem sztucznej inteligencji. Prezes OpenAI zwraca uwagę na fakt, że wiele osób, szczególnie młodych, rozmawia z ChatGPT na bardzo osobiste tematy. Traktują go jak terapeutę czy doradcę życiowego. Tworzy to jednak niebezpieczną sytuację prawną.
„Jeśli rozmawiasz o takich sprawach z terapeutą, prawnikiem czy lekarzem, obowiązuje ich tajemnica zawodowa. Mamy tajemnicę lekarską, tajemnicę adwokacką i tak dalej. Jeszcze nie ustaliliśmy, jak to powinno wyglądać w przypadku rozmów z ChatGPT” – przyznaje Altman.
W dalszej części rozmowy prezes OpenAI wprost nazywa tę sytuację pokręconą. Według niego, rozmowy z AI powinny mieć zapewniony taki sam poziom prawnej ochrony jak rozmowy z terapeutami. „Jeszcze rok temu nikt nawet nie musiał o tym myśleć” – podkreśla Altman. Gwałtowny rozwój modeli AI połączony z równie gwałtownym wzrostem ich popularności doprowadził do bezprecedensowej sytuacji. Tysiące osób na całym świecie zdradzają czatbotom swoje największe sekrety, informacje zdrowotne i prawne, które w normalnych warunkach powinni znać tylko lekarze i osobiście adwokaci. Te dane nie są jednak chronione prawnie. Sam Altman przyznaje wprost, że gdyby przedstawiciele władzy lub służb poprosiły OpenaAI o udostępnienie tych rozmów, firma byłaby prawnie zobligowana do ich przekazania.
Więcej ciekawostek o sztucznej inteligencji znajdziesz na naszym kanale na YouTube:
Powyższe zapewnienia zmuszają do zadania ważnych pytań, dotyczących potrzeby regulacji prawnych związanych z AI. Sektor sztucznej inteligencji rozwinął się na tyle szybko, że prawo po prostu za nim nie nadąża. Czas nadrobić zaległości. Ostatnio donosiliśmy o nowych przepisach unijnych dotyczących działalności firm tworzących AI. Te dokumenty obejmują jednak głównie kwestie praw autorskich i wykorzystywania objętych nimi dzieł do trenowania modeli językowych. Na razie brak konkretnych planów na przepisy, które chroniłyby rozmowy między czatbotami, a ich użytkownikami.
Spytanie się czatbota AI o radę może być kuszące, ale zanim to zrobimy, warto dwa razy się zastanowić. Dopóki sprawa dotyczy tego, ile jajek dodać do robionego właśnie biszkopta czy jak obliczyć objętość graniastosłupa, nic nie powinno nam zagrażać. Jednak dzielenie się osobistymi problemami psychicznymi, zdrowotnymi czy prawnymi może być złym pomysłem. To, co wpisujemy w okienko czatu, nie jest w żaden sposób chronione i w przeciwieństwie do rozmowy z lekarzem czy prawnikiem, może zostać użyte przeciwko nam. Używanie sztucznej inteligencji jako terapeuty zdecydowanie nie jest więc dobrym pomysłem, przynajmniej dopóki nie pojawią się odpowiednie rozwiązania prawne.
O innych przepisach dotyczących sztucznej inteligencji przeczytasz w artykule: Meta AI analizuje, co piszesz. W Europie możesz to zablokować