Teksas, USA: Sędzia nakazuje weryfikację wszelkich treści tworzonych przez sztuczną inteligencję

Sędzia Brantley Starr z Teksasu podjął środki mające uniemożliwić powtórzenie się sytuacji, w której jeden z prawników użył sztucznej inteligencji do napisania pisma procesowego. Sędzia wprowadził wymaganie, że każdy adwokat, który przed nim występuje, musi dostarczyć zaświadczenie, że żaden z dostarczonych przez nich dokumentów nie został wygenerowany przez sztuczną inteligencję.

Prawnik Steven Schwartz wspomógł się chatbotem ChatGPT poprzez użycie go do napisania wniosku. W tym celu wczytał do aplikacji sześć spraw i odpowiadających im precedensów. Niestety, wszystkie uzyskane w ten sposób informacje zostały całkowicie zmanipulowane przez model językowy. Sytuacja ta stała się szeroko rozpowszechniona i zaniepokoiła innych prawników, którzy rozważali podobne eksperymenty. Nasuwa się pytanie, czy jest to jednorazowy zakaz, czy pierwsze sygnały o wprowadzeniu ograniczeń dla stosowania sztucznej inteligencji?

Nie dla AI na sali sądowej

W federalnym sądzie dla Północnego Dystryktu Teksasu sędzia Starr, podobnie jak inni, ma możliwość ustanawiania specyficznych zasad dla prowadzonych przez siebie rozpraw. Ostatnio wprowadzono „obowiązkową certyfikację dotyczącą generatywnej sztucznej inteligencji”.

Zobacz również:

Wszyscy pełnomocnicy, którzy występują przed sądem, są zobowiązani do złożenia na wokandzie oświadczenia, które potwierdza, że żadna część ich zgłoszenia nie została przygotowana przy użyciu generatywnej sztucznej inteligencji (takiej jak ChatGPT, Harvey.AI lub Google Bard). Alternatywnie, jeśli jakiekolwiek fragmenty tekstu zostały wygenerowane przez sztuczną inteligencję, muszą być sprawdzone pod kątem dokładności przez człowieka, korzystając z drukowanych źródeł reporterskich lub tradycyjnych baz danych prawniczych

czytamy w dokumencie opublikowanym przez sędziego Starra

Argumentacja sędziego

Wprowadzając zakaz, sędzia Starr powołał się na znany już problem chatbotów, jakim są halucynacje. Jednocześnie jest świadomy, że platformy te mają szerokie zastosowanie w dziedzinie prawa. Pomagają w pisaniu formularzy rozwodowych, wskazują błędy w dokumentach czy przewidują pytania podczas ustnych argumentów. Według sędziego nie są jednak odpowiednie dla celów sporządzania dokumentów prawnych.

Midjourney/Mateusz Tomanek

W obecnej postaci platformy te są podatne na halucynacje i stronniczość. Są zdolne do prokurowania fikcyjnych informacji, włączając w to cytaty i odniesienia. Kolejnym aspektem jest kwestia wiarygodności i stronniczości. Prawnicy składają przysięgę, że będą przyczyniać się do ochrony praw i wolności oraz kierować się zasadami uczciwości i sprawiedliwości społecznej w celu rzetelnego reprezentowania klientów. Generatywna sztuczna inteligencja jest zaprogramowana przez ludzi, którzy nie są zobowiązani do takiej przysięgi

napisał sędzia Starr

Sędzia zauważył, że oprogramowanie takie jak ChatGPT nie jest lojalne wobec żadnego klienta, rządów prawa ani zasad i konstytucji Stanów Zjednoczonych. Nie ma poczucia obowiązku, honoru czy sprawiedliwości, ponieważ działa na podstawie zapisanego kodu komputerowego, a nie moralnych przekonań czy zasad.

Sztuczna inteligencja? A po co to komu?

Sprawa zakazu używania sztucznej inteligencji w sądach jeszcze długo pozostanie otwarta. Trzeba jednak rozdzielić zastosowanie jej w tak wrażliwym na niezawisłość i rzetelność miejscu jak sąd. Czytając nagłówki prasowe na temat AI, można odnieść wrażenie, że jesteśmy wyłącznie nią straszeni. Być może musimy jeszcze poczekać, zanim wszyscy się oswoją z AI. Wówczas przyjdzie czas na dostrzeżenie w sztucznej inteligencji narzędzia, a nie zagrożenia.

Można po raz kolejny przypomnieć rewolucję przemysłową, która również miała zabrać prace tysiącom ludzi na całym świecie. Faktem jest, że część zawodów stała się niepotrzebna, ale w zamian powstały nowe profesje. Jednego można być pewnym. Szerokie wykorzystywanie sztucznej inteligencji będzie wymagało obecności człowieka, który będzie ją kontrolował.

Źródła:

1. Devin Colewey, „Tech Crunch”, „No ChatGPT in my court: Judge orders all AI-generated content must be declared and checked”, 2023

2. Eugene Volokh, „Reason”, „Federal Judge Requires All Lawyers to File Certificates Related to Use of Generative AI”, 2023

Może Cię również zainteresować:

Opublikowano przez

Mateusz Tomanek

Autor


Krakus z urodzenia, wyboru i zamiłowania. Uprawiał dziennikarstwo radiowe, telewizyjne, by ostatecznie oddać się pisaniu dla Holistic.news. W dzień dziennikarz, w nocy zaprawiony muzyk, tekściarz i kompozytor. Jeśli nie siedzi przed komputerem, to zapewne ma koncert. W jego kręgu zainteresowań znajduje się technologia, ekologia i historia. Nie boi się podejmować nowych tematów, ponieważ uważa, że trzeba uczyć się przez całe życie.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.