Humanizm
Nie tylko broda, kapelusz i Biblia. Amisze w USA współcześnie
02 grudnia 2024
Ustawa o sztucznej inteligencji (AI Act) to przełomowy przepis, który ma na celu uregulowanie sposobu, w jaki firmy rozwijają, wykorzystują i stosują sztuczną inteligencję. Została ostatecznie zatwierdzona przez państwa członkowskie UE, prawodawców i Komisję Europejską. Ustawa ta weszła w życie w 1 sierpnia 2024 roku.
Przełomowe prawo Unii Europejskiej dotyczące sztucznej inteligencji oficjalnie wchodzi w życie. Oznacza to trudne zmiany dla amerykańskich gigantów technologicznych. Ustawa o sztucznej inteligencji została ostatecznie zatwierdzona w maju 2024 roku. Weszła w życie 1 sierpnia 2024 roku, natomiast zacznie obowiązywać w lutym 2025 roku.
To akt prawny UE regulujący zasady funkcjonowania AI. Po raz pierwszy zaproponowany przez Komisję Europejską w 2020 r. Będzie wpływał przede wszystkim na duże amerykańskie firmy technologiczne. To one bowiem stoją za najbardziej zaawansowanymi systemami sztucznej inteligencji. Nowe prawo dotyczy także mniejszych graczy oraz firm spoza branży technologicznej.
W przepisach zastosowano podejście oparte na ryzyku do regulacji sztucznej inteligencji. Oznacza to, że różne zastosowania tej technologii są regulowane w różny sposób w zależności od poziomu ryzyka, jakie stanowią dla społeczeństwa. Na przykład w przypadku zastosowań sztucznej inteligencji uznanych za ryzykowne ustawa nakłada surowe obowiązki. Obejmują one działania mające na celu zminimalizowanie ryzyka stronniczości AI. UE będzie także wymagała rejestrowania aktywności narzędzi opartych o AI oraz udostępniania szczegółowej dokumentacji modeli organom w celu oceny zgodności.
Przykłady systemów sztucznej inteligencji wysokiego ryzyka obejmują:
Zastosowania sztucznej inteligencji o niedopuszczalnym ryzyku obejmują systemy punktacji społecznej, które klasyfikują obywateli na podstawie analizy danych o nich. To także systemy predykcyjne policji oraz wykorzystanie technologii rozpoznawania emocji w miejscach pracy lub szkołach.
Amerykańscy giganci, tacy jak Microsoft, Google, Amazon, Apple i Meta, inwestują w firmy, które ich zdaniem mogą być liderami w dziedzinie technologii. Platformy chmurowe, takie jak Microsoft Azure, Amazon Web Services i Google Cloud, są kluczowe dla wspierania rozwoju sztucznej inteligencji. Do ich działania potrzeba ogromnej infrastruktury obliczeniowej. Pod tym względem firmy Big Tech będą największymi odbiorcami nowego prawa.
Ustawa o sztucznej inteligencji ma konsekwencje wykraczające daleko poza UE. Ma ona zastosowanie do każdej organizacji prowadzącej jakąkolwiek działalność lub mającej jakikolwiek wpływ na UE. To oznacza, że prawo to prawdopodobnie będzie miało zastosowanie do każdego z nas
– oznajmił Charlie Thompson, wiceprezes w firmie Appian zajmującej się oprogramowaniem dla przedsiębiorstw.
Będzie to oznaczać większą kontrolę nad gigantami technologicznymi w zakresie wykorzystywania danych obywateli UE. Meta już ograniczyła dostępność swojego modelu sztucznej inteligencji w Europie z powodu obaw regulacyjnych, choć niekoniecznie z powodu unijnej ustawy o sztucznej inteligencji. Na początku miesiąca właściciel Facebooka oznajmił, że nie udostępni swoich modeli LLaMa w UE, powołując się na niepewność co do zgodności z RODO.
Polecamy: Czy AI może być etyczne? Nowy generator muzyki nie potrafi tworzyć dobrych piosenek
Generatywna sztuczna inteligencja jest określana w unijnej ustawie jako przykład sztucznej inteligencji ogólnego przeznaczenia. Są to narzędzia, które są w stanie wykonywać szeroki zakres zadań na poziomie podobnym jak człowiek, a nawet lepszym.
Modele ogólnego przeznaczenia obejmują między innymi ChatGPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. W przypadku tych systemów ustawa o sztucznej inteligencji nakłada surowe wymogi, takie jak przestrzeganie prawa autorskiego UE, ujawnianie informacji o sposobie szkolenia modeli oraz przeprowadzanie rutynowych testów cyberbezpieczeństwa.
Nie wszystkie modele sztucznej inteligencji są jednak traktowane jednakowo. Deweloperzy sztucznej inteligencji twierdzą, że UE musi zapewnić, że także modele bezpłatne mogą być wykorzystywane do tworzenia aplikacji AI.
Ograniczenia dotyczące systemów ogólnego przeznaczenia zaczną obowiązywać dopiero 12 miesięcy po wejściu w życie ustawy o sztucznej inteligencji. UE zapewni także okres przejściowy, który będzie trwał 36 miesięcy. W tym czasie firmy będą musiały dostosować się do nowych przepisów.
Polecamy: AI może być nastawiona prozachodnio. Ciekawe motywy podejmowania decyzji