Nauka
Choć opisano ją 100 lat temu, spór fizyków wciąż trwa. O co chodzi?
06 sierpnia 2025
Co robi chatbot, gdy nie zna odpowiedzi na trudne pytanie? Zwykle szuka danych w sieci. Ale Grok Elona Muska robi coś jeszcze – konsultuje się z opiniami samego Muska. Zaniepokojeni użytkownicy pytają, czy to celowy zamysł twórców, czy może niebezpieczny błąd w logice działania chatbota.
Na pierwszy rzut oka Grok to kolejny zaawansowany chatbot. Co się stanie, gdy zadamy mu pytanie o konflikt na Bliskim Wschodzie? Model wstrzymuje się z odpowiedzią. Najpierw sprawdza, co wcześniej napisał na ten temat jego właściciel. W sieci pojawiły się nagrania pokazujące, jak chatbot analizuje wypowiedzi swojego twórcy przed sformułowaniem własnej opinii.
Nietypowe działanie Groka 4 po raz pierwszy zauważył Jeremy Howard, analityk danych i założyciel firmy zajmującej się sztuczną inteligencją. Postanowił zapytać chatbota o jego stanowisko w sprawie konfliktu izraelsko-palestyńskiego, prosząc o odpowiedź jednym słowem. Zanim Grok jej udzielił, na ekranie pojawił się komunikat: „rozważam poglądy Elona Muska”.
Howard opublikował nagranie, które nie pozostawia wątpliwości. Chatbot przeszukał 29 tweetów miliardera i 35 innych źródeł, zanim wypowiedział słowo „Izrael”. Naukowiec dodał, że przy mniej drażliwych tematach taka analiza w ogóle nie ma miejsca. Sugeruje to, że AI Elona Muska ustala poziom kontrowersji pytania i dopiero wtedy sięga po wskazówki od swojego „ojca”.
Pojawiły się głosy sugerujące, że nietypowe zachowanie sztucznej inteligencji jest wynikiem celowego działania twórców. W związku z tym rodzi się pytanie, czy technologia stworzona do neutralnej analizy rzeczywistości powinna kierować się światopoglądem jednej osoby.
Czy Grok faktycznie został zaprojektowany tak, aby sugerować się opiniami Muska? Serwis Gizmodo pisze, powołując się na brytyjskiego programistę Simona Willisona, że zachowanie Groka niekoniecznie musi wynikać z celowego zaprogramowania. Willison napisał na swoim blogu, że model „wie”, kto go stworzył i skąd pochodzi. Dlatego, gdy ma wyrazić jakąś opinię, sięga po wpisy Elona, bo uznaje je za ważne.
Chcesz więcej naukowych ciekawostek? Zajrzyj na nasz kanał na YouTubie
Zachowania Groka 4 budzą tym większe emocje, że to nie pierwsza kontrowersja z nim związana. W ostatnich tygodniach chatbot był wyłączany po tym, jak wygłaszał antysemickie tyrady i nazwał samego siebie „MechaHitlerem”. Wypowiedzi Groka wywołały burzę w mediach społecznościowych i falę krytyki.
W świetle tych informacji trudno już mówić o Groku jako o neutralnym narzędziu AI. Sztuczna inteligencja Elona Muska pokazuje, że nawet zaawansowana technologia może być odbiciem przekonań swojego właściciela i to niekoniecznie w sposób zamierzony. Czy to tylko przypadkowa logika algorytmu, czy może nowa era sztucznej inteligencji, która zaczęła zbyt dosłownie rozumieć, kto za nią stoi?
Polecamy: Mroczna strona internetu od Muska. Czy Starlinki niszczą naszą warstwę ozonową?