Prawda i Dobro
Powrót z emigracji. Zazdrość, niechęć i trudne początki
20 listopada 2024
OpenAI (laboratorium badawcze specjalizujące się w rozwoju sztucznej inteligencji) opracowało nowe narzędzie do generowania obrazów – DALL-E 3. Pojawiają się obawy, że z jego powodu wielu artystów może stracić pracę. Algorytm ma chronić prawa twórców, ale nie wiadomo, jak wpłynie na świat sztuki.
DALL-E 3 to najnowsza wersja programu opracowującego obrazy. Informatycy połączyli działanie DALL-E 2 oraz ChatGPT, dzięki czemu algorytm potrafi doskonale wizualizować opisy tekstowe. Narzędzie jest tak zaawansowane, że wzbudziło obawy wśród artystów.
Sztuczna inteligencja przy opracowywaniu wizualizacji opiera się na ogromnych ilościach danych, w tym wcześniejszych pracach artystów. Wywołuje to kontrowersje i spory prawne. Pojawia się pytanie, czy AI powinna uczyć się na obrazach bez zgody ich twórców.
DALL-E 3 pozwala artystom usunąć obrazy z baz danych, na podstawie których uczy się sztuczna inteligencja. Jednak procedura jest skomplikowana i nie ma sposobów, które pozwalają na sprawdzenie jej skuteczności.
Problemem jest również to, że jeśli twórca zdecyduje się usunąć swoje dotychczasowe prace, to istniejące modele mogą przekazać informacje, które pozyskały do tej pory. Narzędzie będzie więc chronić tylko przyszłe dzieła.
DALL-E 3 to model AI, który ma poprawić sposób generowania obrazów na podstawie tekstu. W przeciwieństwie do innych algorytmów, które często pomijają różne słowa, program jest zaprojektowany tak, aby dokładnie odwzorowywać dostarczony tekst. Dzięki połączeniu z ChatGPT pozwala opracowywać imponujące obrazy zarówno na podstawie prostych zdań jak i szczegółowych opisów.
Nowa wersja jest również znacznie precyzyjniejsza niż wcześniej. Podobne modele AI miewały problemy ze zrozumieniem skomplikowanych wskazówek tekstowych i niuansów. Teraz ma się to zmienić.
Rozwój sztucznej inteligencji budzi wiele obaw etycznych. OpenAI ogranicza m.in. generowanie treści przedstawiających przemoc, pornografię i promujących nienawiść. Algorytmy mają też nie generować obrazów z twarzami żyjących osób oraz nie rozpowszechniać dezinformacji. Nie wiadomo jednak, czy faktycznie tak będzie.
OpenAI nawiązuje współpracę z ekspertami z różnych dziedzin. Celem jest rygorystyczne testowanie algorytmu oraz eliminacja potencjalnych zagrożeń wynikających z rozwoju techniki. Ma to zagwarantować, że DALL-E 3 będzie narzędziem godnym zaufania.
Niedawno firma ogłosiła program „OpenAI Red Teaming Network”. Jego celem jest poszukiwanie specjalistów, których zadaniem będzie ocena zagrożeń związanych z rozwojem sztucznej inteligencji.
Treści wytwarzane przez AI stają się powszechne i dlatego potrzebne są sposoby ich identyfikacji. OpenAI opracowuje system, który ma pomóc w określeniu, czy obraz został opracowany przez DALL-E 3, czy przez człowieka.
Polecamy:
Sztuczna inteligencja stanowi zarówno wyzwanie, jak i szansę dla artystów. Tego typu narzędzia mogą pomóc w tworzeniu nowych, fascynujących dzieł sztuki. Jednocześnie uczą się na wcześniejszych pracach ludzi. Mogą oni nie chcieć, aby ich obrazy były podstawą działania sztucznej inteligencji.
Prawo autorskie w erze sztucznej inteligencji wymaga głębokiego przemyślenia i dialogu między twórcami oraz firmami specjalizującymi się w AI. DALL-E 3 stanowi przykład postępu w dziedzinie AI i jej wpływu na nasz świat. Algorytm ma potencjał do transformacji sposobu, w jaki tworzymy i komunikujemy się za pomocą obrazów i treści wizualnych. Musimy znaleźć równowagę między innowacyjnością a ochroną praw twórców.
Zobacz też:
Może Cię zainteresować: