Nauka
Roboty sprzątające AI i ChatGPT. Sztuczna inteligencja na co dzień
20 listopada 2024
xAI jest nową firmą Elona Muska, której głównym celem jest praca nad nowymi algorytmami sztucznej inteligencji (AI). Jej założyciel komentuje, że podejmowane działania mają pomóc w lepszym „zrozumieniu rzeczywistości”. Nie wyjaśnia jednak, na czym ma ono dokładnie polegać.
„Celem xAI jest zrozumienie prawdziwej natury wszechświata”
– czytamy we wpisie Muska na Twitterze.
Elon Musk to przedsiębiorca, założyciel lub współzałożyciel przedsiębiorstw PayPal, SpaceX, Tesla, Neuralink i Boring Company. Jest dyrektorem generalnym w SpaceX i Tesla Inc.
Na stronie internetowej nowej firmy (https://x.ai/) opisano jej misję i zespół, którym kieruje sam Musk. Znajdą się w nim osoby, które już wcześniej pracowały przy dużych projektach AI, w tym przy OpenAI (organizacji, która opracowała m.in. ChatGPT), Google Research i Microsoft Research (instytucjami badawczymi zajmującymi się sztuczną inteligencją i algorytmami) oraz DeepMind (algorytmu uczenia maszynowego, który teraz należy do Google).
Do zespołu xAI dołączyli Igor Babuszkin (inżynier pracujący wcześniej przy DeepMind), Manuel Kroiss (badacz zajmujący się DeepAI), Yuhuai Wu, Toby Pohlen i Christian Szegedy (eksperci od uczenia maszynowego), Jimmy Ba i Zihang Dai (rozwijający sieci neuronowe), Ross Nordeen (wcześniej nadzorował w Tesli projekty związane z AI), Kyle Kosic (specjalizujący się przetwarzaniu dużych zbiorów danych), Greg Yang (zajmował się uczeniem maszynowym w Microsofcie), Guodong Zhang (ekspert od modeli językowych, pozwalających na rozmowę ze sztuczną inteligencją). Nowej firmie doradza Dan Hendrycks, kierownik Center for AI Safety, organizacji non-profit, której celem jest „zmniejszenie ryzyka związanego z rozwojem sztucznej inteligencji”.
Czternastego lipca zespół xAI będzie odpowiadał na pytania internautów na Twitterze. Według strony internetowej firma nie jest częścią X Corp Muska, „ale będzie ściśle współpracować z X (właścicielem Twittera) i Teslą”. Musk niedawno nałożył surowe, ale najwyraźniej tymczasowe ograniczenia na czytanie Twittera. Posiadacze zweryfikowanych kont mogą dziennie przeczytać sześć tysięcy tweetów, pozostali mają dostęp do dziesięciu razy mniejszej liczby wiadomości. Z nowych profili można będzie zobaczyć jedynie trzysta postów.
Zdaniem Muska startupy zajmujące się sztuczną inteligencją przeszukiwały stronę w poszukiwaniu danych dla dużych modeli językowych (Large Language Model, LLM).
Zobacz też:
Musk założył nową firmę w Nevadzie jeszcze w kwietniu tego roku i od tamtego czasu poszukiwał środków na jej działalność.
Właściciel Tesli był współzałożycielem OpenAI w 2015 r. Odszedł z niej w 2018 r., aby uniknąć konfliktu interesów z innymi zarządzanymi przez siebie firmami, które również pracują nad rozwojem sztucznej inteligencji. Od tego czasu otwarcie krytykował OpenAI i zapowiadał, że pracuje nad zbudowaniem chatbota TruthGPT, który odpowiada na pytania i jest konkurencją dla ChatGPT.
Być może w czasie rozmowy z internautami padnie odpowiedź na pytanie o to, w jaki sposób sztuczna inteligencja może pomóc w zrozumieniu „prawdziwej natury wszechświata”. Pewne jest, że projekty Muska budzą ogromne emocje w społeczeństwach na całym świecie i przyczyniają się do wielu zachodzących zmian.
Minęło już ponad pół roku od premiery bota ChatGPT, a według szacunków z podobnych systemów korzysta już połowa pracowników niektórych globalnych firm. Powstają też nowe produkty z wbudowaną sztuczną inteligencją, a AI zaczyna uczyć się na danych wygenerowanych przez inne programy. Zdaniem ekspertów może to rodzić poważne problemy.
Dane używane do trenowania dużych modeli językowych AI i innych modeli leżących u podstaw produktów takich jak ChatGPT, Stable Diffusion i Midjourney pochodziły do tej pory ze źródeł autorstwa człowieka (książek, artykułów, zdjęć etc.), które powstawały bez pomocy sztucznej inteligencji.
Eksperci zadają sobie pytanie: co, gdy treści generowane przez sztuczną inteligencję rozprzestrzenią się w internecie, a modele AI zaczną się na nich szkolić, zamiast korzystać z tych opracowanych przez ludzi?
Polecamy:
Grupa naukowców z Wielkiej Brytanii i Kanady przyjrzała się temu problemowi i niedawno opublikowała wyniki swoich prac na łamach elektronicznego archiwum arXiv. Wnioski są niepokojące.
Zdaniem badaczy wykorzystywanie danych wygenerowanych przez sztuczną inteligencję do szkolenia nowych modeli AI powoduje utratę zdolności algorytmów do rozpoznawania pierwotnych danych. Proces ten jest nieunikniony i zachodzi bardzo szybko.
Model treningowy sztucznej inteligencji opierając się na danych pochodzących od AI, z czasem radzi sobie gorzej, robi więcej błędów w odpowiedziach, które stają się też mniej różnorodne.
Współautor badań prof. Ross Anderson z Uniwersytetu Cambridge porównał sytuację do „zanieczyszczenia oceanów plastikiem”. Jego zdaniem niedługo treści wytworzone przez AI w podobny sposób opanują internet.
Zobacz też:
Więcej interesujących artykułów znajdziesz na stronie holistic.news.