ChatGPT pisze książki pełne błędów. Eksperci są przerażeni

Zbieranie grzybów jest popularną formą rekreacji na całym świecie. Wiele osób lubi spacerować po lasach i szukać smacznych prawdziwków, kozaków czy podgrzybków. Aby rozróżnić okazy jadalne od trujących, ludzie często zaglądają do poradników. Od niedawna ich autorem stał się ChatGPT. Zdaniem mykologów (specjalistów zajmujących się grzybami) sztuczna inteligencja popełnia wiele błędów, które mogą stanowić śmiertelne zagrożenie. Problem z tekstami generowanymi przez AI jest dużo poważniejszy i jak dotąd nie potrafimy go rozwiązać.

Linguaboty (np. ChatGPT) potrafią opracowywać całe książki (kucharskie, historyczne, poradnikowe). Niektórzy postanowili na tym zarobić: wydają podobne treści i sprzedają je w sieci. Niestety, nie ma dobrego sposobu na sprawdzenie, kto je napisał: człowiek czy AI.

Sklepy internetowe mają spory problem: nie chcą sprzedawać nierzetelnych publikacji, ale nie wiedzą, w jaki sposób można je ocenić. Dziennikarze i eksperci od wielu miesięcy alarmują, że treści opracowywane przez ChatGPT zawierają nieścisłości i błędy. W przypadku niektórych poradników (np. tych dotyczących jadalnych i trujących grzybów) skutki pomyłki mogą być tragiczne.

Jak wykryć kłamstwo?

Nowojorskie Towarzystwo Mykologiczne (NYMS) ostrzega przed książkami generowanymi przez AI.

„W Ameryce Północnej rosną setki trujących grzybów, spożycie niektórych zagraża życiu. Niepoprawny opis w poradniku może skłonić kogoś do zjedzenia przedstawiciela niebezpiecznego gatunku”

– przekonuje Sigrid Jakob, prezes NYMS.

Prawodawcy nie nadążają za rzeczywistością: do tej pory w Stanach Zjednoczonych i Uniii Europejskiej nie powstały regulacje, które zobowiązywałyby do oznaczania modelu językowego  jako autora. Nie jesteśmy jednak całkowicie bezbronni.

„Edwin J. Smith” napisał dwie książki („The ultimate mushroom books field guide of the southwest” oraz „Psilocybin mushroom book”), które można kupić w sklepach internetowych. Rzekomy ekspert nie ma kont w mediach społecznościowych, adresu e-mail, telefonu i nie można znaleźć o nim żadnych informacji w sieci.

Fragmenty publikacji „napisane” przez Smitha można sprawdzić za pomocą programu zeroGPT, który wykrywa treści opracowywane przez AI. Według tego narzędzia co najmniej 94 proc. tekstu o grzybach zostało wygenerowane przez linguaboty.

Porady sztucznej inteligencji

Niewiele osób zdecydowałoby się na zakup książki napisanej przez ChatGPT. Dlatego wydawcy okłamują odbiorców i podają zmyślonych autorów, którzy mają uwiarygodnić treść.

„Margaret Lawrence” w ciągu dwóch miesięcy wydała dziewiętnaście tytułów na temat diety i odżywiania. Autorka nie podaje żadnych informacji o swoim doświadczeniu i kwalifikacjach. Według zeroGPT publikacja została wygenerowana przez AI.

Polecamy:

„Dr Kimberly Thorpe” przez ostatnie cztery miesiące opublikowała trzydzieści siedem książek o żywieniu i zdrowiu. Detektor sztucznej inteligencji uznał, że w stu procentach zostały one opracowane przez linguaboty. W swoim opisie w sklepie internetowym rzekoma „Thrope” wspomina, że pisała dla znanych gazet i portali, ale w sieci nie można znaleźć jej tekstów. Także uczelnia, na której miała studiować, nie ma o domniemanej autorce żadnych informacji.

Kolejnym przykładem może być „Jason Cones”, „autor” dwudziestu sześciu publikacji na temat przyrody i zbierania grzybów. Książki można kupić na Amazonie i to jedyne miejsce, w którym znajdziemy jakiekolwiek dane na jego temat. To dość dziwne, bo twórcy zazwyczaj „reklamują się” w mediach społecznościowych, udzielają wywiadów i mają strony internetowe.

Po interwencji mykologów i dziennikarzy ze sklepów internetowych zniknęły niektóre książki.

„Amazon stara się zapewnić autorom oraz klientom możliwie najlepszą obsługę związaną z zakupami. Wszyscy wydawcy muszą przestrzegać naszych wytycznych, niezależnie od tego, w jaki sposób powstała publikacja. Inwestujemy wiele czasu i pieniędzy w egzekwowanie ustalonych zasad. Usuwamy z serwisu publikacje, które ich nie spełniają. Zależy nam na zapewnieniu klientom bezpiecznych zakupów, dlatego bardzo poważnie podchodzimy do tych kwestii”

– mówi Ashley Vanicek, rzeczniczka firmy.

Globalny problem

Sztuczna inteligencja potrafi pisać książki, a my dopiero uczymy się jak rozróżniać publikacje opracowywane przez ludzi od tych tworzonych przez komputery. Pomocne mogą być detektory AI, jak na przykład zeroGPT. Można też szukać informacji na temat autorów w sieci. Jeśli nie mają strony internetowej, profili w mediach społecznościowych i nigdy nie udzielali wywiadów, to jest duże prawdopodobieństwo, że są tylko pustymi nazwiskami, które mają „ukryć” rzeczywistego twórcę: linguaboty.

Istnieje ryzyko, że internet zdominują treści generowane przez algorytmy. Obecnie ludzkość wydaje się na to zupełnie nieprzygotowana. Być może należy wprowadzić regulacje prawne, które zmuszą nadawców do oznaczania publikacji autorstwa sztucznej inteligencji. Jeśli podobne prawo zostanie uchwalone, to każdy i tak powinien zastanowić się, czy potrafi odróżnić prawdę od fikcji w sieci. Jak pokazuje temat książek o grzybach, może to być nawet kwestia życia i śmierci.

Dowiedz się więcej:

Fot. Pixabay / Pexels

Zobacz też:

Źródło: 404media

Opublikowano przez

dr Rafał Cieniek

Autor


Idealista wierzący w miłość, prawdę i dobro, których szuka na świecie i wokół siebie. Mimo to starający się racjonalnie patrzeć na człowieka i rzeczywistość. Od kilkunastu lat związany z mediami elektronicznymi, gdzie był autorem, redaktorem i wydawcą. Lubi być zaskakiwany nowymi odkryciami naukowców, czytać i pisać o rozwoju technologii, historii, społeczeństwie, etyce i filozofii. Ma doktorat z nauk o mediach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.