Ustawa o sztucznej inteligencji weszła w życie. Co to oznacza dla gigantów technologicznych?

Ustawa o sztucznej inteligencji (AI Act) to przełomowy przepis, który ma na celu uregulowanie sposobu, w jaki firmy rozwijają, wykorzystują i stosują sztuczną inteligencję. Została ostatecznie zatwierdzona przez państwa członkowskie UE, prawodawców i Komisję Europejską. Ustawa ta weszła w życie w 1 sierpnia 2024 roku.

Czym jest ustawa o sztucznej inteligencji?

Przełomowe prawo Unii Europejskiej dotyczące sztucznej inteligencji oficjalnie wchodzi w życie. Oznacza to trudne zmiany dla amerykańskich gigantów technologicznych. Ustawa o sztucznej inteligencji została ostatecznie zatwierdzona w maju 2024 roku. Weszła w życie 1 sierpnia 2024 roku, natomiast zacznie obowiązywać w lutym 2025 roku.

To akt prawny UE regulujący zasady funkcjonowania AI. Po raz pierwszy zaproponowany przez Komisję Europejską w 2020 r. Będzie wpływał przede wszystkim na duże amerykańskie firmy technologiczne. To one bowiem stoją za najbardziej zaawansowanymi systemami sztucznej inteligencji. Nowe prawo dotyczy także mniejszych graczy oraz firm spoza branży technologicznej.

W przepisach zastosowano podejście oparte na ryzyku do regulacji sztucznej inteligencji. Oznacza to, że różne zastosowania tej technologii są regulowane w różny sposób w zależności od poziomu ryzyka, jakie stanowią dla społeczeństwa. Na przykład w przypadku zastosowań sztucznej inteligencji uznanych za ryzykowne ustawa nakłada surowe obowiązki. Obejmują one działania mające na celu zminimalizowanie ryzyka stronniczości AI. UE będzie także wymagała rejestrowania aktywności narzędzi opartych o AI oraz udostępniania szczegółowej dokumentacji modeli organom w celu oceny zgodności.

Przykłady systemów sztucznej inteligencji wysokiego ryzyka obejmują:

  • pojazdy autonomiczne,
  • urządzenia medyczne,
  • systemy podejmowania decyzji kredytowych,
  • punktację edukacyjną,
  • zdalne systemy identyfikacji biometrycznej.

Zastosowania sztucznej inteligencji o niedopuszczalnym ryzyku obejmują systemy punktacji społecznej, które klasyfikują obywateli na podstawie analizy danych o nich. To także systemy predykcyjne policji oraz wykorzystanie technologii rozpoznawania emocji w miejscach pracy lub szkołach.

Fot. Mateusz Tomanek/Midjourney

Co to oznacza dla amerykańskich firm technologicznych?

Amerykańscy giganci, tacy jak Microsoft, Google, Amazon, Apple i Meta, inwestują w firmy, które ich zdaniem mogą być liderami w dziedzinie technologii. Platformy chmurowe, takie jak Microsoft Azure, Amazon Web Services i Google Cloud, są kluczowe dla wspierania rozwoju sztucznej inteligencji. Do ich działania potrzeba ogromnej infrastruktury obliczeniowej. Pod tym względem firmy Big Tech będą największymi odbiorcami nowego prawa.

Ustawa o sztucznej inteligencji ma konsekwencje wykraczające daleko poza UE. Ma ona zastosowanie do każdej organizacji prowadzącej jakąkolwiek działalność lub mającej jakikolwiek wpływ na UE. To oznacza, że prawo to prawdopodobnie będzie miało zastosowanie do każdego z nas

– oznajmił Charlie Thompson, wiceprezes w firmie Appian zajmującej się oprogramowaniem dla przedsiębiorstw.

Będzie to oznaczać większą kontrolę nad gigantami technologicznymi w zakresie wykorzystywania danych obywateli UE. Meta już ograniczyła dostępność swojego modelu sztucznej inteligencji w Europie z powodu obaw regulacyjnych, choć niekoniecznie z powodu unijnej ustawy o sztucznej inteligencji. Na początku miesiąca właściciel Facebooka oznajmił, że nie udostępni swoich modeli LLaMa w UE, powołując się na niepewność co do zgodności z RODO.

Polecamy: Czy AI może być etyczne? Nowy generator muzyki nie potrafi tworzyć dobrych piosenek

Jak traktowana jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja jest określana w unijnej ustawie jako przykład sztucznej inteligencji ogólnego przeznaczenia. Są to narzędzia, które są w stanie wykonywać szeroki zakres zadań na poziomie podobnym jak człowiek, a nawet lepszym.

Modele ogólnego przeznaczenia obejmują między innymi ChatGPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic. W przypadku tych systemów ustawa o sztucznej inteligencji nakłada surowe wymogi, takie jak przestrzeganie prawa autorskiego UE, ujawnianie informacji o sposobie szkolenia modeli oraz przeprowadzanie rutynowych testów cyberbezpieczeństwa.

Nie wszystkie modele sztucznej inteligencji są jednak traktowane jednakowo. Deweloperzy sztucznej inteligencji twierdzą, że UE musi zapewnić, że także modele bezpłatne mogą być wykorzystywane do tworzenia aplikacji AI.

Ograniczenia dotyczące systemów ogólnego przeznaczenia zaczną obowiązywać dopiero 12 miesięcy po wejściu w życie ustawy o sztucznej inteligencji. UE zapewni także okres przejściowy, który będzie trwał 36 miesięcy. W tym czasie firmy będą musiały dostosować się do nowych przepisów.

Polecamy: AI może być nastawiona prozachodnio. Ciekawe motywy podejmowania decyzji

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.