Prawda i Dobro
Ryanair utrudnia podróże bez smartfona. Nowe zasady już od listopada
23 października 2025

Rodzice wreszcie mogą mieć większą kontrolę nad tym, jak ich dzieci korzystają z ChatGPT. OpenAI wprowadziło długo oczekiwaną funkcję kontroli rodzicielskiej – dostępną również w Polsce. Zobacz, jak ją włączyć krok po kroku i co dokładnie możesz dzięki niej ograniczyć.
Aktualizacja 24 października 2025: dodano informacje o polskich AI chroniących dzieci w sieci,
Po serii kontrowersji i pozwów dotyczących wpływu AI na nieletnich OpenAI ogłosiło, że ChatGPT otrzymuje funkcję kontroli rodzicielskiej. Nowe narzędzie pozwala rodzicom połączyć swoje konto z kontem dziecka i ustawić granice korzystania z chatbota.
Amerykańskie prawodawstwo coraz mocniej przygląda się technologicznym gigantom. W połowie września Federalna Komisja Handlu rozpoczęła śledztwo w sprawie chatbotów AI kilku największych firm technologicznych. Również Unia Europejska szykuje przepisy regulujące te kwestie, chociaż mają one dotyczyć w głównej mierze kwestii praw autorskich, a nie bezpieczeństwa użytkowników modeli sztucznej inteligencji.
Rodzic wysyła zaproszenie na adres e-mail lub numer telefonu dziecka – dopiero po jego akceptacji funkcja się aktywuje.
Można ustawić:
OpenAI zapewnia, że rodzice nie mają dostępu do rozmów dziecka, ale otrzymają powiadomienie, jeśli system wykryje poważne zagrożenie.
Gotowe – funkcja zacznie działać natychmiast po potwierdzeniu.
Coraz więcej dzieci korzysta z ChatGPT do nauki i rozrywki. Nowe ustawienia pomagają chronić je przed treściami nieodpowiednimi, manipulacją emocjonalną i błędnymi poradami.
To również krok w kierunku odpowiedzialnego wykorzystania AI – podobne rozwiązania zapowiedziały Meta i Google.
Firma pracuje nad automatycznym systemem wykrywania wieku użytkownika. Gdy chatbot rozpozna, że rozmawia z osobą niepełnoletnią, uruchomi tryb dla młodszych odbiorców.
OpenAI przypomina też, że ChatGPT nie powinien być traktowany jako źródło porad psychologicznych czy medycznych.
Jak informował wcześniej Holistic News, polski start-up Bielik.AI stworzył przełomowy system „Sójka”, który wykorzystuje sztuczną inteligencję do ochrony dzieci przed przemocą i hejtem w internecie. To pierwsze w Polsce AI analizujące emocje i kontekst wypowiedzi – potrafi rozróżnić żart od zagrożenia i reagować w czasie rzeczywistym. Twórcy zapowiadają, że „Sójka” trafi do szkół, mediów i platform społecznościowych jeszcze w tym roku, by pomóc ograniczyć cyberprzemoc wśród nastolatków.
Czy AI może nam zagrozić? Sprawdź na kanale Holistic News na YouTube:
Czy AI udziela naszym dzieciom dobrych informacji? Sprawdź artykuł: Dzieci pytały ChatGPT o rady. To, co usłyszały, przeraża badaczy
Do 31 października możesz skorzystać z darmowej dostawy paczkomatem.
Wpisz kod HNEWS0 finalizując zakupy w Księgarni Holistic News
Prawda i Dobro
23 października 2025
Zmień tryb na ciemny