Nauka
Ziemia straciła siostrę. Badanie Wenus dowodzi, że nie jest podobna
17 grudnia 2024
W związku z rozwojem sztucznej inteligencji wielu ekspertów przewiduje jej bliski koniec, mówiąc, że zbliża się „załamanie modelu AI”. Czy te prognozy są realne? I czym w ogóle jest to zjawisko, które miałoby zakończyć istnienie sztucznej inteligencji?
Załamanie modelu AI odnosi się do hipotetycznego scenariusza, w którym przyszłe systemy sztucznej inteligencji stają się coraz mniej efektywne z powodu wzrostu ilości danych generowanych przez samą AI w Internecie.
Nowoczesne systemy sztucznej inteligencji są budowane przy użyciu uczenia maszynowego. Programiści tworzą podstawową strukturę matematyczną, ale rzeczywista „inteligencja” bierze się z trenowania systemu na podstawie wzorców danych. Warto podkreślić, że generatywna sztuczna inteligencja potrzebuje wysokiej jakości danych w dużych ilościach.
Aby je pozyskać, duże firmy, takie jak OpenAI, Google, Meta i Nvidia, przeszukują Internet, zbierając terabajty treści, potrzebnych do nakarmienia maszyn. Jednak od czasu pojawienia się szeroko dostępnych i użytecznych systemów generatywnej sztucznej inteligencji w 2022 r., ludzie coraz częściej przesyłają i udostępniają treści, które są częściowo lub w całości tworzone przez samą AI.
W 2023 r. naukowcy zaczęli się zastanawiać, czy można uniknąć polegania wyłącznie na danych generowanych przez sztuczną inteligencję w procesie szkolenia. Zamiast tego, sugerowali korzystanie z treści stworzonych przez człowieka. Badacze odkryli, że bez wysokiej jakości danych tworzonych przez ludzi, systemy AI szkolone na danych wygenerowanych przez AI stają się coraz mniej efektywne. Dzieje się tak, ponieważ każdy model uczy się na podstawie poprzedniego, co przypomina cyfrową wersję chowu wsobnego.
Polecamy: Muzyka generowana przez sztuczną inteligencję oficjalnie uznana przez dyrektora generalnego Grammy
Ten „powtarzalny trening” może prowadzić do obniżenia jakości i różnorodności treści generowanych przez modele. Krótko mówiąc, zbyt częste używanie systemów AI może zanieczyszczać źródło danych, od których zależy ich efektywność.
Czy wielkie firmy technologiczne nie mogą po prostu odfiltrować treści generowanych przez AI? Nie do końca. Firmy te już teraz inwestują znaczne środki w filtrowanie danych, które zbierają. A to nie koniec tej nierównej walki.
Praca ta może stać się bardziej wymagająca, ponieważ rośnie potrzeba usuwania treści generowanych przez sztuczną inteligencję. Co ważniejsze, w dłuższej perspektywie rozróżnienie treści generowanych przez AI stanie się coraz trudniejsze. Dotychczasowe badania pokazują, że całkowite pozbycie się ludzkich danych nie jest możliwe. W końcu to od nich wywodzi się sztuczna inteligencja.
Programiści już teraz muszą ciężej pracować, aby pozyskać dane wysokiej jakości. Niektóre szacunki wskazują, że pula danych generowanych przez ludzi może wyczerpać się już w 2026 r. Prawdopodobnie dlatego OpenAI i inne firmy ścigają się, aby zawierać partnerskie umowy z branżowymi gigantami, takimi jak Shutterstock, Associated Press i NewsCorp. Posiadają one bowiem duże, zastrzeżone zbiory ludzkich danych, które nie są łatwo dostępne w publicznym Internecie.
Perspektywa załamania modelu AI może być jednak przesadzona. Większość dotychczasowych badań dotyczyła przypadków, w których dane syntetyczne zastępują dane ludzkie. W praktyce dane ludzkie i AI będą prawdopodobnie gromadzone równolegle, co zmniejsza ryzyko załamania. Najbardziej prawdopodobnym scenariuszem na przyszłość będzie również ekosystem zróżnicowanych platform generatywnych AI, a nie jeden monolityczny model.
To również dobry powód, aby organy regulacyjne promowały zdrową konkurencję poprzez ograniczanie monopoli w sektorze sztucznej inteligencji oraz finansowały rozwój technologii w interesie publicznym.
Czy istnieje jakieś doraźne rozwiązanie? Wydaje się, że musimy zwrócić większą uwagę na unikanie generowania wszystkiego przez AI. Interakcje międzyludzkie i ludzkie dane są niezwykle ważne i powinniśmy je chronić – dla naszego własnego dobra, a może także ze względu na możliwe ryzyko załamania modelu w przyszłości.
Polecamy: Czy AI może być etyczne? Nowy generator muzyki nie potrafi tworzyć dobrych piosenek