Nauka
Dobrej nocy. Naukowcy odkryli, jak sny pobudzają kreatywność
22 listopada 2024
Każdego dnia sztuczna inteligencja pomaga milionom osób m.in. w tłumaczeniu tekstów. Jednak niewielu zdaje sobie sprawę, że algorytmy uczą się na danych i nie umieją przestrzegać konkretnych zasad. Na każdym etapie „nauki” aktualizowane są miliony parametrów, aby model lepiej radził sobie z różnorodnymi zadaniami.
Podstawą AI jest matematyka. Algorytmy wykonują proste obliczenia arytmetyczne, które ostatecznie składają się na złożone, znane nam procesy. Internauci zazwyczaj nie potrafią wykryć awarii systemu i często bezgranicznie ufają programom. Eksperci chcą się dowiedzieć, dlaczego tak się dzieje.
Od wielu lat naukowcy starają się zrozumieć biologiczne podstawy ludzkich zachowań. Nie jest jasne, w jaki sposób neurony w naszych mózgach wpływają na myśli i pomagają w podejmowaniu decyzji. Jednak nadzorowanie AI wydaje się znacznie prostsze. Możemy rejestrować aktywację i działanie każdej komórki, stymulować ją i potem analizować wyniki.
Eksperci odkryli, że neurony „nie lubią” ze sobą współpracować. Pojedyncza komórka może się aktywować w wielu kontekstach, na przykład: przy cytatach akademickich, dialogach w języku angielskim, żądaniach HTTP i w tekście koreańskim. Praca jednego neuronu może oznaczać różne rzeczy w zależności od sytuacji.
W artykule „Towards monosemanticity: decomposed language models with dictionary learning” naukowcy przekonują, że analiza ludzkich zachowań nie powinna opierać się na konkretnych działaniach, ale na modelach, wzorcach. To nowe podejście, które zmienia dotychczasowe rozumienie i interpretację neuronauki, uczenia maszynowego i statystyki. Istotne nie mają być konkretne przypadki, ale ich statystyczna liczba.
Naukowcy potrafią wpłynąć na poszczególne modele AI. Mogą też wytłumaczyć działanie algorytmów. Opisanie funkcji i właściwości pozwala na ich szybsze i pełniejsze zrozumienie.
Artykuł powstał dzięki firmie Anthropic Mechanistic Interpretability, której celem jest, aby sztuczna inteligencja była bezpieczna dla ludzi. Dotychczas nie można było sprawdzać funkcjonowania poszczególnych programów. Stanowiło to poważny problem dla przedsiębiorstw stosujących AI.
Rozbicie algorytmów na możliwe do zinterpretowania fragmenty może pozwolić na ominięcie tej przeszkody. Firma ma nadzieję, że będzie mogła bez przeszkód monitorować niewłaściwe zachowania oraz poprawić poziom bezpieczeństwa.
Wielu ekspertów obawia się, że rozwój nauki i techniki doprowadzi do wzrostu przestępczości. Sztuczna inteligencja przynosi korzyści, ale wiąże się też z zagrożeniami.
AI może opracowywać zaawansowane ataki cybernetyczne, na przykład zautomatyzowane narzędzia do łamania haseł, fałszywe algorytmy generujące treści lub materiały typu deepfake. Jej rozwój pozwala na zbieranie, analizowanie i przetwarzanie ogromnych ilości danych. To zagrożenie dla prywatności obywateli.
Problemem jest też to, że algorytmy uczą się na niekompletnych lub przekłamanych i nieetycznych treściach. Wyciągane z nich wnioski mogą być niesprawiedliwe, dyskryminujące, lub nieoparte na ludzkim doświadczeniu.
Sztuczna inteligencja jest koniecznością, ale jest też niebezpieczna i wymaga odpowiedniego nadzoru. Tylko dzięki niemu będziemy mogli zmaksymalizować płynące z niej zyski i zminimalizować różnorodne ryzyko.
Dowiedz się więcej:
Zobacz też:
Polecamy: