Nauka
Serce ma swój „mózg”. Naukowcy badają jego rolę i funkcje
20 grudnia 2024
Sztuczna inteligencja dała się poznać jako pisarz, poeta i dziennikarz. Zdawała egzaminy prawnicze i pisała bajki dla dzieci. Z czasem okazało się, że jeśli nie ma informacji na dany temat, to po prostu zmyśla. W przypadku burmistrza australijskiego miasta Hepburn Shire ChatGPT posunął się za daleko. Zarzucił mu łapówkarstwo, co poskutkowało zdecydowaną reakcją Australijczyka.
Jeśli rozprawa dojdzie do skutku, może ona przejść do historii jako pierwszy sądowy konflikt, którego tematem będzie konfabulacja linguabota ChatGPT. Australijczyk, który padł ofiarą kłamstw autorstwa algorytmu, poczuł się poważnie dotknięty. Został bowiem oskarżony o przyjęcie łapówki.
Burmistrz australijskiego Hepburn Shire, Brian Hood, zagroził, że złoży pozew przeciwko firmie OpenAI, jeśli nie poprawi fałszywych stwierdzeń na jego temat. Chodzi o nieprawdziwe informacje na temat rzekomych łapówek, które miał przyjąć polityk. ChatGPT napisał, że mężczyzna został skazany za rzekomy czyn na 30 miesięcy więzienia.
W rzeczywistości Brian Hood nigdy nie był sądzony za przyjmowanie korzyści majątkowych. Co więcej, w 2000 roku pomógł ujawnić międzynarodowy skandal łapówkarski związany z Bankiem Rezerw Australii. Hood był wtedy pracownikiem spółki Note Printing Australia i to on powiadomił władze o przestępczym procederze.
Mężczyzna poczuł się dotknięty i zapowiedział złożenie pozwu przeciwko firmie OpenAI. Byłaby to pierwsza sprawa o zniesławienie wytoczona firmie zajmującej się algorytmami sztucznej inteligencji. Spółka, jak na razie, nie odpowiedziała na jego pisma.
Byłem naprawdę zszokowany. Nie mogłem w to uwierzyć. Musiałem przeczytać kilka razy, przejrzeć i kolejny raz zadać to samo zapytanie, bo po prostu nie spodziewałem się tego typu odpowiedzi
powiedział Hood.
Przeczytaj również:
Firmy stojące za Midjourney i Stability AI – narzędziami, które generują obrazy, również otrzymały pozwy sądowe. Zarzuca się im bezprawne wykorzystywanie prac milionów artystów. Pozew przeciwko Stability AI wytoczyła firma Getty Images, która jest bazą zdjęć i grafik (tzw. stockiem). Sprawa dotyczy powielania prac chronionych prawem autorskim.
ChatGPT już w przeszłości był odpowiedzialny za podawanie nieprawdy. Na początku kwietnia 2023 roku ofiarą konfabulacji padł profesor prawa na Uniwersytecie Jerzego Waszyngtona, Jonathan Turley. Jego znajomy poprosił, aby ChatGPT przygotował listę prawników, którzy molestowali kogoś seksualnie. Na liście pojawiło się nazwisko Turleya. Źródłem informacji był artykuł z „The Washington Post” z marca 2018 roku. Problem w tym, że taki tekst w ogóle się nie pojawił. Turley, który jest częstym komentatorem w amerykańskich mediach, czasami prosił dziennikarzy o korektę informacji na swój temat. Tym razem jednak nie miał do kogo się zwrócić.
Narzędzie korzysta z sieci neuronowych i mechanizmów uczenia głębokiego, dzięki którym przewiduje, jakie zdania po sobie następują. Jeśli nie jest w stanie tego zrobić lub, gdy nie czegoś nie, to zaczyna konfabulować. Ma to już swoją nazwę – „halucynacje AI” i stanowi to poważny problem. Zjawisko to opisała między innymi polska badaczka fizyki molekularnej, dr Teresa Kubacka. Wygenerowała listę cytowań nt. multiferroików (materiałów charakteryzujących się jednocześnie więcej niż jedną cechą: ferromagnetyzmem, ferroelektrycznością, ferroelastycznością). Nazwiska autorów brzmiały znajomo, więc poprosiła SI (sztuczną inteligencję) o dane bibliograficzne cytowanych treści. Program przytoczył artykuły, które nigdy się nie ukazały. Sama badaczka stwierdziła, że ChatGPT nie dostarczył „rzeczowych, naukowych, informacji”. Zamiast tego wygenerował wiarygodnie brzmiące halucynacje.
Już dzisiaj są narzędzia, które samodzielnie piszą dokumenty prawnicze. Są już programy, które za pomocą sztucznej inteligencji, mogą bronić pozwanych. Może boty takie jak ChatGPT powinny same się bronić przed sądem? Pytanie tylko, czy zezwolenie na samodzielną obronę przed sądem nie będzie przejawem zbyt daleko idącego zaufania do – bądź co bądź – programu komputerowego.
Źródła:
Przeczytaj również: