Nauka
Roboty sprzątające AI i ChatGPT. Sztuczna inteligencja na co dzień
20 listopada 2024
Zakończył się ostatni etap negocjacji trójstronnych dotyczących unijnego rozporządzenia sztuczna temat sztucznej inteligencji. W ramach dokumentu uwzględniono oceny ryzyka dla systemów z kategorii wysokiego ryzyka, zagwarantowano prawo do składania skarg dotyczących funkcjonowania systemów sztucznej inteligencji oraz ustalono podwyższone standardy dla modeli podstawowych, na które liczyły organizacje społeczne.
Przyjęcie ustawy dotyczącej sztucznej inteligencji ma na celu uregulowanie rynku, który dotychczas działał dość swobodnie.
W kwietniu 2021 roku Komisja Europejska przedstawiła swój projekt regulacji dotyczący sztucznej inteligencji. Organizacje społeczne w całej Europie apelowały o rozszerzenie listy systemów podlegających zakazowi działania oraz określenie kryteriów decydujących o zaklasyfikowaniu konkretnych narzędzi do kategorii wysokiego ryzyka, a także ustanowienie konkretnych obowiązków dla firm i instytucji wdrażających oprogramowanie oparte na AI.
Zobacz też:
Sporną kwestią było zastosowanie AI przez służby do zbierania danych biometrycznych w czasie rzeczywistym. Ostatecznie ustalono, że odpowiednie organy będą mogły używać AI tylko w trzech wyjątkach: w razie konieczności poszukiwania ofiary, ścigania poważnych przestępstw oraz w przypadku zagrożenia atakiem terrorystycznym.
Efekty negocjacji komentuje Katarzyna Szymielewicz, prezeska Fundacji Panoptykon. Organizacja ta stawia sobie za zadanie obronę fundamentalnych wolności w obliczu ryzyka związanego z postępem współczesnych technologii nadzoru społecznego. Misja Fundacji jest integralną częścią szerszych działań skierowanych przeciwko zjawisku „społeczeństwa nadzorowanego”.
Nie jest dobrze, ale na pewno mogło być gorzej. Ochrona praw ludzi w ostatecznej wersji aktu jest słabsza niż to, co proponował Parlament Europejski w czerwcu. Jest jednak dużo lepsza niż w projekcie, który wyszedł z Komisji Europejskiej
– ocenia Szymielewicz.
Według Szymielewicz najbardziej kontrowersyjne z perspektywy organizacji społecznych jest osłabienie zakazów, które miały chronić obywateli przed systemami identyfikującymi tożsamość na podstawie zdjęcia twarzy lub rozpoznawać emocje. Takie oprogramowanie może być łatwo wykorzystywane przeciwko jednostkom, na przykład przez policję.
Organizacje dążyły również do wprowadzenia konkretnych mechanizmów ochrony jednostek w kontekście interakcji z systemami sztucznej inteligencji.
Według przecieków dotyczących ostatecznego tekstu AI Act uwzględnione zostało prawo do indywidualnych skarg w przypadku działania systemów, które sprawiają szkodę lub wykazują cechy dyskryminacyjne. Dodatkowo przewidziana będzie możliwość zbiorowego dochodzenia praw. To istotne, ponieważ mówimy o programach, których oddziaływanie dotyka wielu osób, a więc błędy [w oprogramowaniu – przyp. red.] mają potencjał wpływać negatywnie na wiele jednostek
– zauważa Szymielewicz.
Najbardziej wymagające aspekty negocjacji dotyczyły regulacji modeli podstawowych, takich jak ChatGPT, Bard, Anthropic czy Gemini. W ostatecznym kształcie regulacje obejmą także ich twórców i dostawców. Nowe prawo narzuca na nich obowiązki, takie jak zarządzanie ryzykiem, udostępnianie dokumentacji technicznej partnerom, przejrzystość, jakość i zgodność z prawem baz danych treningowych. Przepisy mają być minimalne dla mniejszych modeli, natomiast bardziej restrykcyjne dla liderów rynkowych, takich jak Microsoft czy OpenAI.
Duże kontrowersje wywołały również obowiązki firm i instytucji wdrażających systemy z kategorii wysokiego ryzyka.
W AI Act, pojawi się wymóg przeprowadzenia oceny wpływu sztucznej inteligencji na prawa człowieka przed wdrożeniem każdego systemu. Unia Europejska chce w ten sposób unikać potencjalnych szkód, jakie mogą być wynikiem słabo zaprojektowanej lub źle używanej sztucznej inteligencji, zamiast czekać, aż problemy się pojawią
– wyjaśnia Szymielewicz.
Porozumienie zakłada uwzględnienie dwóch aspektów: postępu w dziedzinie sztucznej inteligencji oraz ograniczeń mających zapobiec jej nadużywaniu. Oba obszary będą podlegać zasadom, które mają zagwarantować wysoką jakość danych używanych do tworzenia algorytmów, jednocześnie sprawdzając, czy nie naruszają one przepisów dotyczących praw autorskich. Twórcy zostaną również zobowiązani do jednoznacznego oznaczania sztucznie generowanych dźwięków, obrazów i tekstów.
To może cię również zainteresować: