Prawda i Dobro
Sekret pluszaków ujawniony. Dlaczego tak bardzo je kochamy?
14 września 2025
Miliony osób ufają sztucznej inteligencji w kwestiach zdrowotnych, ale nowe badania pokazują, że może to być szkodliwe. Zespół naukowców przeanalizował diety tworzone przez Gemini oraz ChatGPT i ujawnił poważne luki. Wyniki ich analiz są niepokojące.
Wraz z rozwojem technologii internet stał się jednym z głównych źródeł porad medycznych, w tym także porad zdrowotnych AI. Według sondażu Annenberg Public Policy Center z kwietnia 2025 roku aż 79 proc. Amerykanów poszukuje informacji zdrowotnych w sieci.
Internauci korzystają także z popularnych modeli sztucznej inteligencji, w tym ChataGPT czy Gemini. Raport wskazuje, że aż 63 proc. obywateli USA uważa informacje zdrowotne generowane przez sztuczną inteligencję za wiarygodne – w tym 55 proc. za „raczej”, a 8 proc. za „bardzo” wiarygodne.
Nic dziwnego, że wiele osób traktuje AI jak osobistego doradcę zdrowotnego i bez zastanowienia stosuje się do jej zaleceń, na przykład przy dietach. Tylko że to wcale nie musi być dobre dla zdrowia. Skąd to wiadomo?
Zespół naukowców przeprowadził badanie, w którym przeanalizowano diety odchudzające opracowane dla kobiet i mężczyzn. Plany żywieniowe, obejmujące od 1400 do 1800 kalorii dziennie, zostały wygenerowane przez narzędzia Gemini, ChatGPT oraz Microsoft Copilot. Co się okazało?
„Wszystkie chatboty uzyskały wysokie ogólne wyniki […], co wskazuje na zadowalającą jakość diet. Jednak najniższe wyniki odnotowano w podkategorii »równowaga«, dotyczącej rozkładu makroskładników i kwasów tłuszczowych – co ujawnia istotne ograniczenie w algorytmach AI. ChatGPT 4.0 wykazał najwyższą precyzję w utrzymaniu założonej kaloryczności, podczas gdy Gemini cechował się większą zmiennością – ponad 50 proc. jego planów dietetycznych odbiegało od celu kalorycznego o więcej niż 20 proc.” – czytamy w publikacji w magazynie naukowym Nutrients. (Hüsna Kaya Kaçar, Ömer Furkan Kaçar i Amanda Avery, Diet Quality and Caloric Accuracy in AI-Generated Diet Plans).
Choć AI potrafi stworzyć ogólnie zbilansowany plan żywieniowy, wciąż ma trudności z właściwym rozmieszczeniem makroskładników. To dowód na to, że może być pomocna w odchudzaniu, ale nie zastąpi specjalisty.
Porady zdrowotne AI mogą być przydatne, ale jedynie jako ciekawostka lub wstęp do rozmowy z profesjonalistą. Wszystko przez trzy główne wady sztucznej inteligencji, które dotyczą każdego jej zakresu.
Po pierwsze, modele AI często nie mają zaktualizowanej, najnowszej wiedzy. Opierają się na tym, co już zostało wprowadzone do sieci, ponieważ nie posiadają własnych baz. Zanim informacje zostaną zaktualizowane, może minąć sporo czasu.
Po drugie, modele AI nie znają pełnej historii pacjenta. Pracują na wycinku informacji, co zwiększa ryzyko błędnej diagnozy.
Chcesz więcej naukowych ciekawostek? Zajrzyj na nasz kanał na YouTubie.
Trzecim i ostatnim powodem, dla którego nie warto korzystać z tego narzędzia jest to, że modele AI nie podlegają przepisom chroniącym dane zdrowotne. Wszystko, co wpiszemy, może zostać przekazane dalej – nawet do osób, które nie powinny mieć dostępu do takich treści.
Jeśli korzystasz z porady AI, sprawdź, czy opiera się ona na rzetelnych źródłach, na przykład na badaniach naukowych lub zaleceniach organizacji medycznych. Zawsze zwracaj uwagę na datę publikacji.
Ważny temat: AI jako terapeuta? Twórca ChatGPT ostrzega: Możesz tego żałować