Humanizm
Zagadki umysłu. Możliwe, że Twój przyjaciel to zombie
12 października 2024
Sztuczna inteligencja szkoli się na obrazach dostępnych w internecie, nawet jeśli te chronione są prawami autorskimi. Może się to zmienić dzięki „Nightshade” („Nocny cień”). To narzędzie zmieniające dane, z których korzystają modele generujące obrazy, takie jak DALL-E, Midjourney i Stable Diffusion. Dzięki „zatruciu” botów niektóre z zaproponowanych wyników staną się bezużyteczne, np. psy zamienią się w koty, samochody w krowy itp.
„Nightshade” opracował zespół naukowców pod kierunkiem profesora Bena Zhao z Uniwersytetu w Chicago. Program może stanowić poważny problem dla korporacji takich jak Meta, Google, Stability AI i OpenAI. Nie chciały one nawet komentować jego powstania.
Firmy niechętnie mówią też o ogromnej liczbie pozwów ze strony artystów, którzy zarzucają sztucznej inteligencji, że ta zwyczajnie kradnie ich dzieła publikowane w sieci. Twórcy domagają się ogromnych odszkodowań w związku z naruszeniami własności intelektualnej.
Może się wydawać, że sztuczna inteligencja i artyści toczą wojnę w internecie. Boty nie zważają na prawa autorskie i stosują do treningu obrazy, na co ich twórcy nie wyrażali zgody.
„Nightshade” pozwala dodawać zmiany w danych (pikselach) dzieł publikowanych w przestrzeni wirtualnej. Jeśli taki „zatruty” plik trafi do zestawu szkoleniowego AI, może spowodować chaotyczne i nieprzewidywalne zmiany w generowanych przez boty obrazach.
Zhao ma nadzieję, że narzędzie przywróci równowagę w walce artystów z korporacjami. „Nocny cień” ma stać się potężnym środkiem odstraszającym przed lekceważeniem praw autorskich i własności intelektualnej.
Zespół Zhao opracował także rozwiązanie o nazwie „Glaze”, które pozwala twórcom na „maskowanie” ich własnego stylu. Działa ono podobnie do „Nightshade” i wprowadza niewidoczne zmiany w pikselach dzieł. Manipulują w ten sposób modelami uczenia maszynowego, które interpretują obraz jako coś innego, niż w rzeczywistości. Eksperci chcą w przyszłości połączyć oba rozwiązania w jeden program.
Kot zamiast psa: spory problem dla firm technologicznych
Skuteczność „Nightshade” wynika z luki w zabezpieczeniach sztucznej inteligencji, które są trenowane na ogromnych zbiorach danych. Narzędzie wprowadza subtelne zmiany, dodając do baz danych obrazy, które wprowadzają modele w błąd. „Zatrute” pliki mogą sprawić, że AI zinterpretuje zdjęcia kapeluszy jako ciasta, a torebki jako tostery.
„Zanieczyszczone” dane są bardzo trudne do usunięcia, ponieważ korporacje muszą znaleźć każdy uszkodzony plik. Badacze przetestowali „Nocny cień” na modelach generujących obrazy. Wystarczyło pięćdziesiąt „zatrutych” plików pokazujących psy, aby propozycje sztucznej inteligencji zaczęły wyglądać dziwnie: zwierzęta miały zbyt wiele kończyn, były częściowo jak z kreskówek. Przy trzystu próbkach pochodzących z „Nightshade” proponowane przez AI psy zaczęły wyglądać jak koty.
Pojawiają się obawy, że dzięki „Nightshade” będzie można przeprowadzać ataki na generatywną sztuczną inteligencję. Zhao twierdzi jednak, że napastnicy potrzebowaliby tysięcy zatrutych próbek, aby wyrządzić rzeczywiste szkody większym, potężniejszym modelom, ponieważ są one szkolone na miliardach próbek.
Polecamy:
„Nie wiemy, jak ewentualnie bronić się przed podobnymi atakami na AI. Jak dotąd nie doszło do zatrucia nowoczesnych modeli AI, ale to tylko kwestia czasu. Dlatego powinniśmy pracować nad metodami obrony”
– uważa prof. Witalij Szmatikow z Uniwersytetu Cornell, który bada bezpieczeństwo modeli sztucznej inteligencji.
Firmy zajmujące się sztuczną inteligencją, takie jak Stability AI i OpenAI, zaoferowały artystom możliwość zastrzeżenia prawa do rezygnacji z wykorzystywania ich obrazów do uczenia modeli. Twórcy twierdzą, że to nie wystarczy.
„Nightshade” może skłonić korporacje do zapewnienia należnych tantiem za opieranie się na czyichś pracach. Artyści, tacy jak Eva Toorenent i Autumn Beverly, mają nadzieję, że narzędzie zmieni obecne praktyki i zmusi firmy do większego szacunku wobec artystów oraz do zapewnienia im rzeczywistej kontroli nad swoimi dziełami.
„Teraz firmy zajmujące się AI zastanowią się dwa razy, ponieważ przejmując naszą pracę bez naszej zgody, będą mogły zniszczyć cały swój model”
– mówi Toorenent.
W dobie rosnącej potęgi modeli sztucznej inteligencji narzędzie „Nightshade” to ważny krok w obronie praw artystów. Być może algorytm przywróci równowagę między twórcami a korporacjami. Jeśli „Nocny cień” okaże się skuteczny w zwalczaniu nieuprawnionego wykorzystania dzieł publikowanych w internecie, to może wpłynąć na przyszłość sztuki i technologii.
Dowiedz się więcej:
Polecamy: