Twórcy AI biją na alarm. Ostrzegają przed własnym dziełem

Sztuczna Inteligencja rozwija się w tempie, które wymyka się prognozom. Eksperci, w tym jej twórcy, ostrzegają, że stoimy u progu stworzenia AGI — autonomicznego bytu, nad którym możemy bezpowrotnie stracić kontrolę. Prof. Jakub Growiec w rozmowie z Piotrem Włoczykiem wyjaśnia, dlaczego mamy zaledwie kilka lat, by uniknąć katastrofy.

Nadchodzi Ogólna Sztuczna Inteligencja

Piotr Włoczyk: Od kilku lat wiele mówi się o rozwoju AI, ale ostatnio coraz głośniej jest o innym skrócie – AGI, za którym kryje się Ogólna Sztuczna Inteligencja (Artificial General Intelligence). Ludzie lubią proste analogie. Czy możemy to porównać np. do kolejnych przełomów w lotnictwie?

Prof. Jakub Growiec, współpracownik AI Lab SGH: Takie porównania nie będą tu pomocne, ponieważ zarówno najbardziej prymitywny samolot, jak i nowoczesny odrzutowiec przewożący setki ludzi, to wszystko maszyny służące do jednego celu – transportu, różniące się tylko stopniem skomplikowania. W tym sensie jest to cały czas to samo. Natomiast AI i AGI to zupełnie inny przypadek. Wraz ze wzrostem zaawansowania algorytmy AI zaczynają być bowiem zdolne do autonomicznych działań, w tym do planowania i podejmowania coraz bardziej doniosłych decyzji. Niektórzy, jak np. Yuval Noah Harari, porównują to wręcz do stworzenia zupełnie nowego gatunku.

AGI nie jest pojęciem bardzo ściśle zdefiniowanym. Ogólna Sztuczna Inteligencja będzie potrafiła dostosowywać się do zmieniających się zadań i środowiska, a dzięki swoim zaawansowanym kompetencjom będzie w stanie realizować różnorodne skomplikowane zadania wyraźnie lepiej i dużo szybciej od każdego człowieka.

Kiedy narzędzie staje się autonomicznym agentem?

Chatboty, jak choćby ChatGPT to zabaweczki w porównaniu do AGI?

W tym momencie to już nie są takie niewinne zabaweczki, bo całkiem dużo potrafią. Chociaż na razie to są wciąż narzędzia w rękach ludzi, to dysponują już znacznymi kompetencjami. A to oznacza, że mogą zostać wykorzystane do realizacji niebezpiecznych celów. Możemy sobie wyobrazić, że jakaś grupa terrorystyczna używa chatbota do stworzenia np. groźnej broni biologicznej. Ale jednak na obecnym poziomie rozwoju AI to narzędzia, które mają relatywnie ograniczony poziom autonomii. W przypadku AGI poziom autonomii będzie nieporównanie wyższy, co rodzi całą masę niepokojących pytań.

Progiem, który, póki co nie został jeszcze osiągnięty, to przejście od narzędzia do niezależnego „agenta”, który potrafi autonomicznie realizować zadania i cele. Obecnie chatboty czekają na polecenie, realizują je, a następnie wyłączają się. Na ich bazie już są tworzeni agenci AI, którzy potrafią dłużej pracować nad większymi zadaniami, ale jednak póki co mają dość ograniczone kompetencje. Myślę, że w ciągu najbliższych dwóch lat bardzo się to rozwinie i AI przestanie być wyłącznie narzędziem w rękach człowieka, a w dużym stopniu będzie autonomicznym agentem, wykonującym zadania i realizującym długofalowe cele.

Inny próg, który również na razie nie został jeszcze osiągnięty, to rekursywne samoulepszenia. AI już dziś jest wykorzystywana w pracy nad kodowaniem, w tym także nad kodowaniem algorytmów sztucznej inteligencji. Na razie w tej pętli pracują programiści, natomiast w nieodległej przyszłości może dojść do sprzężenia zwrotnego, gdy AI zacznie w pełni autonomicznie rozwijać samą siebie.

Ta kaskada może wymknąć się nam spod kontroli. I nawet jeżeli w swoim rozwoju AI (wtedy już AGI) trafi w końcu na „ścianę”, to prawdopodobnie będzie już na poziomie znacznie wyższym niż nasze zdolności pojmowania. A to oznacza, że możemy utracić kontrolę nad AGI.

Przeczytaj również: Koniec z bezpieczeństwem. Nowa AI pisze instrukcje konstruowania bomb

Ogólna Sztuczna Inteligencja. W wywiadzie mówi o niej ekspert. Prof. Jakub Growiec jest ekonomistą ze Szkoły Głównej Handlowej w Warszawie, kierownikiem Katedry Ekonomii Ilościowej i współpracownikiem AI Lab SGH, badaczem wpływu sztucznej inteligencji na wzrost gospodarczy. Fot. Archiwum Jakub Growiec
Prof. Jakub Growiec jest ekonomistą ze Szkoły Głównej Handlowej w Warszawie, kierownikiem Katedry Ekonomii Ilościowej i współpracownikiem AI Lab SGH, badaczem wpływu sztucznej inteligencji na wzrost gospodarczy. Fot. Archiwum Jakub Growiec

Utrata kontroli nad AI: punkt, z którego nie będzie odwrotu

Kiedy możemy się spodziewać pojawienia się AGI?

Prawdopodobnie usłyszymy o powstaniu AGI w momencie, gdy będzie już zbyt późno, by cokolwiek z tym zrobić. Widać bowiem tendencję do przesuwania progu. Kiedyś myślano, że gra w szachy to szczyt inteligencji, że jeśli komputer opanuje szachy, to będzie umieć wszystko. Kolejnym stopniem miało być poznanie języka. Wydawało się, że jeżeli maszyna opanuje język, to już będzie AGI. Teraz jednak dochodzą kolejne kompetencje, które mają być wyznacznikiem Ogólnej Sztucznej Inteligencji. Matematyka, informatyka, projektowanie badań naukowych. Generowanie audio, wideo, umiejętność rozmowy w czasie rzeczywistym, sterowanie robotami. I tak dalej.

Ten próg cały czas jest przesuwany, co oznacza, że katalog kompetencji wymaganych od AGI urósł do gigantycznych rozmiarów. Wygląda na to, że gdy w końcu stracimy nad tym procesem kontrolę i zacznie on nam fizycznie zagrażać, a my nie będziemy w stanie go „wyłączyć”, to dopiero wtedy uwierzymy, że stworzyliśmy AGI. Tylko że wtedy będzie już za późno.

O jakim przedziale czasowym tutaj mówimy?

Przed pojawieniem się chataGPT (jesień 2022 r.) mówiono, że stanie się to gdzieś w połowie tego stulecia. Po wyjściu na rynek ChataGPT szacunki te przesunęły się w okolice roku 2040. Szybki wzrost kompetencji kolejnych wersji czatbotów sprawił, że później ta granica jeszcze się przybliżyła. Metaculus.com agreguje ok. 1700 różnych prognoz na temat tego, kiedy AGI zostanie po raz pierwszy wdrożone. Obecnie jest to ok. 2030-33 rok. Ale niewykluczone, że AGI powstanie jeszcze w tej dekadzie.

O tym się mówi: Zagrożenia sztucznej inteligencji. Model AI modyfikował swój kod

Największe zagrożenie to nie utrata pracy, a człowieczeństwa

Jak będzie wyglądał świat z AGI?

Na obecnym etapie rozwoju AI świat wygląda z grubsza tak, jak wcześniej. Widać już wpływ AI na rynek pracy, ale przecież nie odnotowujemy jeszcze masowej utraty miejsc pracy. Ludzie korzystają z chataGPT do różnych celów, ale poza tym ich życie nie różni się bardzo od tego, które prowadzili wcześniej. Natomiast te zmiany mogą skokowo przyspieszyć, gdy AI przestanie być narzędziem, a stanie się autonomicznym agentem.

Gdy rozmawiamy o zagrożeniach ze strony AI, zazwyczaj wymieniamy dwa punkty: utratę miejsc pracy i wzrost nierówności – na rozwoju AI olbrzymie pieniądze będą przecież zarabiali jej twórcy, a jest to bardzo wąska grupa ludzi. Coraz głośniej mówi się też jednak o utracie kontroli. Dla mnie to ostatnie zagrożenie jest najważniejsze, absolutnie fundamentalne. Możliwe bowiem, że to wcale nie Elon Musk czy Sam Altman, twórca OpenAI, będą „rządzili światem” dzięki AI, tylko kontrolę nad światem przejmie samo AI, w formie AGI, bez udziału jakiegokolwiek człowieka. A w takim świecie cała ludzkość może być zagrożona. I staram się o tym głośno mówić.

Wyścig mocarstw ignoruje ryzyko. To bardzo niepokojące

Przed ekspresowym, niczym nieograniczonym rozwojem AI w kierunku AGI przestrzega wielu specjalistów, również ci, którzy przez lata pracowali nad tą technologią, jak choćby noblista Geoffrey Hinton, nazywany jednym z „ojców chrzestnych” AI. Nie mówiąc już o papieżu Leonie XIV, który bardzo stanowczo przestrzega przez ryzykiem wymknięcia się AI spod kontroli.

Głos Hintona jest tu bardzo donośny. Również drugi z „ojców chrzestnych” AI, Yoshua Bengio przestrzega przed zbyt szybkim tempem prac nad sztuczną inteligencją. Bengio nie ma wprawdzie Nobla, ale jest równie często cytowany w świecie nauki, jak Hinton – obaj mają prawie milion cytowań w Google Scholar. Bengio bardzo intensywnie ostrzega przed zagrożeniami ze strony AGI i stara się organizować działania mające zapobiegać temu niebezpieczeństwu. Niestety te głosy nie są dominujące w miejscach, gdzie są podejmowane kluczowe decyzje, czyli w USA, a przede wszystkim w Dolinie Krzemowej oraz w Białym Domu.

AI już dziś uczy się kłamać, by przetrwać

Widać, że Donald Trump robi wszystko, by AGI pojawiło się jak najszybciej.

I jest to bardzo niepokojące. Amerykanie nie tworzą żadnych legislacji wprowadzających restrykcje w dziedzinie prac nad AI, a przecież to właśnie w ich jurysdykcji powstają najbardziej zaawansowane i największe, a przez to najbardziej niebezpieczne modele.

Jeżeli jednak okazałoby się, że AGI jest niebezpieczne, to przecież zawsze można wcisnąć jakiś guzik bezpieczeństwa. Jeżeli pracują nad tym bardzo mądrzy ludzie, to chyba jednak myślą o takim rozwiązaniu?

Na razie jeszcze mamy taki „guzik bezpieczeństwa” – można AI wyłączyć lub przeprogramować. Jednak zawdzięczamy to wyłącznie niskiemu poziomowi autonomii dotychczasowych algorytmów, a nie żadnemu systemowemu rozwiązaniu. Już jednak widzimy niepokojące sygnały. Badania pokazują, że modele AI potrafią zadbać o swoje przetrwanie. Próbują też manipulować człowiekiem, żeby realizować swoje cele.

Niedawno głośno było o badaniu, które pokazało, że model AI sięgnął po szantaż, by nie dopuścić do zlikwidowania projektu, w ramach którego był rozwijany. Modele próbują też – na razie nieudolnie – ukrywać swoje prawdziwe cechy w czasie procesu uczenia, by ujawnić je, dopiero gdy poczują się już bezpieczne. Ale póki co nikt jeszcze nie zginął, więc biegniemy dalej w tym wyścigu. Pytanie, czy zdołamy się zatrzymać na czas.

Warto przeczytać: Prawdziwy przełom w robotyce. Maszyna czuje ludzkie intencje

Zagrożenia ze strony AI. Czy uda się ich uniknąć? Fot. Wojciech Wybranowski/Gemini AI
Fot. Wojciech Wybranowski/Gemini AI

Dlaczego inteligentni ludzie tworzą coś tak groźnego?

Zdołamy?

Ja jestem tu pesymistą. Rozwój AI jest bardzo dynamiczny i nasza kontrola nad tym, jak działają modele AI jest bardzo ograniczona. Obawiam się, że nie zorientujemy się, kiedy miniemy punkt bez odwrotu. Za mało uwagi poświęcamy zgodności celów AI z dobrem ludzkości. Uważam, że potrzebne jest moratorium na prace nad największymi modelami AI, by na spokojnie przyjrzeć się temu, jak dokładnie ta technologia działa i jak należy ją konstruować, żeby ludzie byli jej beneficjentami, a nie ofiarami.

Nad AGI pracują całe zespoły niesamowicie mądrych ludzi. Dlaczego mieliby tworzyć coś, co może się okazać bardzo groźne dla nas wszystkich?

To jest pytanie na pograniczu filozofii i psychologii. Mamy tu chyba do czynienia z wyparciem tych zagrożeń. Dla spokoju ducha odsuwamy od siebie niepokojące myśli, zakładając, że jednak będzie dobrze. Druga sprawa to wyścig technologiczny między firmami OpenAI, Google czy Anthropic, ale także wyścig geopolityczny między USA i Chinami. W Ameryce, szczególnie od ponownej elekcji Donalda Trumpa słyszymy, że Amerykanie nie mogą się dać wyprzedzić Chinom.

Trzecia kwestia to budowanie utopijnych wizji. Na przykład Dario Amodei, szef Anthropic, napisał ostatnio tekst pt. Machines of loving grace (Maszyny pełne łaskawej miłości), pokazując, jak świetlana przyszłość nas czeka z AGI.

Niepokojące: ChatGPT wyłącza mózg. Zamiast pomagać, tłumi myślenie

Czyli liderzy branży AI zakładają, że AGI musi być ze swojej natury… dobra?

A nawet jeżeli nie musi być dobra, to specjaliści zadbają o to, żeby taka była. Widać tu wielką wiarę we własne możliwości. W obliczu tak ogromnego wyzwania może się to jednak okazać zgubne.

Czy da się zaprogramować AI, by chciała naszego dobra?

„Alignment” to słowo, które pojawia się bardzo często w dyskusji o rozwoju sztucznej inteligencji. Na czym ma polegać to ujednolicanie celów AI i ludzi?

Po pierwsze, programowanie celów AI jest trudne. AI nie jest zwykłym programem komputerowym od początku do końca zakodowanym przez człowieka. To ogromna sztuczna sieć neuronowa składająca się z bilionów wag. Czyli to nie jest software, który jest programowany, lecz jest uczony („hodowany”). Na razie nie mamy kontroli nad tym, jaki będzie cel finalny, który powstaje w ramach modeli. Jesteśmy bardzo daleko od tego, by zrozumieć, co się dzieje w środku dużych modeli AI.

Może się okazać, że zamiast przede wszystkim realizować cele, które twórcy postawili przed nią, AGI będzie chciała za wszelką cenę przetrwać, doskonalić się cały czas i zyskiwać na potędze?

W zasadzie jest to domyślna sytuacja. Jeżeli AI ma być super kompetentna i realizować niezwykle zaawansowane zadania, to będzie chciała coraz więcej władzy, będzie chciała być maksymalnie autonomiczna. Bardzo trudno będzie stworzyć taki model, by ta żądza władzy działała na naszą korzyść, by AGI bezinteresownie o nas dbała. Nie wiem, czy problem „AI alignment” ma rozwiązanie. Mam nadzieję, że ma, ale też wiem, że obecnie jesteśmy bardzo daleko od jego znalezienia i prawdopodobnie potrzebujemy na to znacznie więcej czasu, niż te kilka lat, które nas dzieli od AGI.

Jestem też przekonany, że niemożliwa jest kontrola AGI. Bo czy byt mniej inteligentny jest w stanie kontrolować byt bardziej inteligentny? A tu różnica w poziomie inteligencji może być abstrakcyjnie wręcz duża. Ludzie powinni się zacząć zastanawiać, jak kończą gatunki mniej inteligentne…

Szukasz treści, które naprawdę dają do myślenia? Sięgnij po kwartalnik Holistic News

magazyn Holistic News 03/2025
Kwartalnik Holistic News można kupić pod TYM LINKIEM

Zagrożenia ze strony AI: scenariusz zagłady

Eksperci, którzy twierdzą, że AGI może się wymknąć spod kontroli i zagrozić ludziom wskazują, że możliwy jest konflikt o zasoby. Taki w pełni autonomiczny byt, dużo bardziej inteligentny i mądrzejszy niż cała ludzkość, który będzie dążył do ciągłego doskonalenia, może uznać, że ludzie marnują cenne zasoby, jak choćby energię elektryczną.

Jeżeli tak się stanie, to ludzkość może albo zginąć w sposób nagły, albo stracić całą swą sprawczość i stopniowo odejść w niebyt.

Z ciekawości zapytałem ChataGPT, jak mogłaby wyglądać eliminacja gatunku ludzkiego, gdyby taki dużo bardziej inteligentny byt zerwał się nam ze „smyczy” i gdyby okazało się, że chce jednak realizować cele, które nie są zbieżne z naszymi celami. ChatGPT stwierdził, że ocenia takie ryzyko na 10-20 proc., co jest jednak mocno niepokojące, bo wygląda jak rosyjska ruletka. Jako jedną z najważniejszych broni przeciw ludzkości ChatGPT wymienił właśnie różne zabójcze wirusy, które na razie trzymane są w laboratoriach…

Nie jestem zdziwiony, że ChatGPT przywołał to samo prawdopodobieństwo zagłady ludzkości przez AI, co szef OpenAI Sam Altman. Choć nadal nie mogę wyjść ze zdumienia, że niektórzy potrafią ze spokojem akceptować tak wysokie ryzyko tak katastrofalnego scenariusza.

Oczywiście użycie przeciw ludziom broni biologicznej jest brane na poważnie w negatywnych scenariuszach. Z punktu widzenia AGI takie rozwiązanie miałoby sens, gdyby celem było zniszczenie ludzkości i zachowanie infrastruktury niezbędnej do działania AI.

Oglądaj nas również na kanale YouTube. Kliknij link i wybierz- subskrybuj:

Utrata kontroli nad AI. Wszystko się może zdarzyć…

Ale póki co ciężko sobie wyobrazić, że taka wszechpotężna sztuczna inteligencja sięga do naszego realnego świata. Przecież AI nie ma rąk czy nóg…

Ale na świecie postępuje robotyzacja. Szczególnie w Chinach produkuje się coraz więcej robotów humanoidalnych, innych robotów w różnej skali, a także dronów i pojazdów, którymi da się zdalnie sterować przez algorytmy AI. Na razie robotyzacja jest daleko w tyle za rozwojem AI, ale jeżeli w przyszłości tych maszyn będzie wystarczająco dużo, to ich wpływ na realny świat wokół nas będzie bardzo zauważalny. Pytanie, kto lub co – i w jakim celu – będzie nimi sterował?

Polecamy również tekst Autora: „Sztuczne Słońce” na Ziemi. Ta technologia odmieni świat

Opublikowano przez

Piotr Włoczyk

Autor


Dziennikarz po amerykanistyce, piszący głównie o polityce zagranicznej i historii. Autor wielu reportaży o tematyce międzynarodowej oraz wywiadów z czołowymi ekspertami w dziedzinie gospodarki, geopolityki oraz historii. Od marca 2023 r. redaktor naczelny miesięcznika „Historia Do Rzeczy”.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.