Cenzura XXI wieku. ChatGPT staje się sędzią

Ze szkolnych bibliotek w Mason City w stanie Iowa (Stany Zjednoczone) znikają książki z „obscenicznymi” scenami. Prawodawcy z tamtego regionu zakazali wypożyczania uczniom publikacji, w których znajdują się „szkodliwe opisy aktu seksualnego”. Każda lokalna społeczność może regulować podobne kwestie i nie budzi to wielkich kontrowersji. Jednak w tym przypadku o selekcji tytułów decyduje ChatGPT. Pojawia się więc pytanie: czy sztuczna inteligencja staje się współczesnym cenzorem?

Władcy chcieli mieć kontrolę nad przepływem wiadomości od zawsze. Cenzura znana była już w starożytności: Grecy i Rzymianie eliminowali z obiegu treści szkodliwe dla swoich rządów. Wydawanie książek w średniowieczu nadzorował Kościół katolicki, który prześladował niepokornych autorów. Wynalazek druku doprowadził do upowszechnienia się publikacji i tym samym (nieoczekiwanie) do powstania instytucji zajmujących się cenzurą.

Choć wielcy filozofowie jak Voltaire, Milton, Paine i Kant żądali prawa do swobodnego wyrażania myśli dla każdego (także na łamach prasy), to władcy nie chcieli ich słuchać. Dopiero w XIX wieku w wielu krajach wprowadzono regulacje, które pozwalały na wolność wypowiedzi. Jednak nawet dziś w autorytarnych reżimach nie można mówić otwarcie. Cenzura weszła też na inny poziom: finansowy. Media bywają uzależnione od właścicieli, którzy chcą mieć pełną kontrolę nad publikacjami. Rodzi to wiele problemów i niekiedy prowadzi do unikania przez dziennikarzy „trudnych” tematów.

Era cenzury chatGPT

Nowa era cenzury nastała wraz z pojawieniem się mediów społecznościowych. Rządy na całym świecie chcą mieć kontrolę nad przepływem informacji na Facebooku, X (dawniej Twitter) czy TikToku. To sfera marzeń, choć właściciele podobnych platform mają narzędzia (między innymi opierające się na AI) do eliminowania treści uznawanych przez ich regulaminy za szkodliwe, na przykład seksistowskich, rasistowskich i propagandowych.

Debata nad granicami wolności słowa trwa nieprzerwanie od wielu lat i szybko się nie zakończy. Różne organizacje i instytucje nigdy nie będą chciały, aby dziennikarze przyglądali się ich działaniom. Cenzura jest złożonym zjawiskiem, które ewoluowało wraz z rozwojem społeczeństw i ideologii. Debata na jej temat nie ustaje i warto się jej przyglądać. W końcu dostęp do informacji i opinii jest jedną z podstaw demokracji i wolności.

Nowe prawo w Mason City

Republikanie ze stanu Iowa przyjęli kilka ustaw reformujących szkolnictwo. Nowe prawo zaakceptował gubernator Kim Reynolds. Wszystkie zmiany mają – według autorów – chronić uczniów przed „szkodliwymi i obscenicznymi” treściami. Każda książka w wypożyczalniach ma być „odpowiednia do wieku” i pozbawiona jakichkolwiek „opisów aktu seksualnego”.

Zarządcy bibliotek mają trzy miesiące na usunięcie „szkodliwych” publikacji. Jednak cenzurowanie tak ogromnych zbiorów nie jest łatwe. Dlatego bibliotekarze skorzystali z pomocy sztucznej inteligencji.

„Nie jesteśmy w stanie przeczytać każdej książki i filtrować jej treści pod kątem nowych wymagań. Dlatego używamy linguabota ChatGPT”

– tłumaczy Bridgette Exman, zastępca kuratora z Mason City.

Polecamy:

Pracownicy bibliotek pytają bota ChatGPT, czy w danej książce znajduje się „opis lub przedstawienie aktu seksualnego”. Jeśli odpowiedź sztucznej inteligencji jest twierdząca, publikacja nie będzie wypożyczana uczniom poniżej osiemnastego roku życia. Rodzi to wiele kontrowersji.

Lista najczęściej cenzurowanych książek powstała na bazie kilku źródeł, które filtrowano pod kątem treści o tematyce erotycznej. Na tej podstawie z bibliotek szkolnych w stanie Iowa zniknęło dziewiętnaście pozycji.

Sztuczna inteligencja wydaje wyrok

ChatGPT wydał wyrok, który zaakceptowali ludzie. To ciekawa sytuacja, która prawdopodobnie będzie zdarzać się coraz częściej. Być może w przyszłości sądy zostaną opanowane przez „bezuczuciowe” algorytmy. Ale może w porę dostrzeżemy, że ludzkie życie jest na tyle złożone, że choćby najlepsza sztuczna inteligencja nie będzie go w stanie obiektywnie ocenić. Dotyczy to nie tylko prawa, ale też medycyny, psychologii, edukacji, ekonomii i dziennikarstwa.

Zobacz też:

Modele językowe jak ChatGPT, nie są „wyroczniami” i nie wiedzą wszystkiego. Mają skłonności do przekłamań i podawania fałszywych informacji. Badacz zajmujący się sztuczną inteligencją (AI) Ars Simon Willison przekonuje, że nie jesteśmy w stanie dowiedzieć się, czy algorytm „przeczytał” całą książkę, którą recenzuje. Być może przeskanował tylko jej opisy umieszczone w sieci.

Pojawia się więc nowy problem, o którym jeszcze niewielu dziś mówi. Czy ChatGPT jest wiarygodny? Podobna debata toczyła się na temat Wikipedii, która pretenduje do miana pewnego źródła informacji. Internetowa encyklopedia stała się bardzo ważnym narzędziem, jednak pytania o rzetelność publikowanych na jej łamach treści będą się pojawiać. W zasadzie nie wiadomo kto i na jakiej podstawie weryfikuje ich prawdziwość. To samo dotyczy linguabota ChatGPT.

Nadchodzi era, w której urzędnicy i pracownicy będą pytać sztuczną inteligencję o różne sprawy. I na podstawie odpowiedzi podejmą decyzje, które wpłyną na setki, a nawet tysiące osób. Nie ma w tym nic złego, ale powinniśmy być czujni.

Zobacz też:

Fot. Element5 Digital / Pexels

Źródło: Arstechnica.com

Opublikowano przez

dr Rafał Cieniek

Autor


Idealista wierzący w miłość, prawdę i dobro, których szuka na świecie i wokół siebie. Mimo to starający się racjonalnie patrzeć na człowieka i rzeczywistość. Od kilkunastu lat związany z mediami elektronicznymi, gdzie był autorem, redaktorem i wydawcą. Lubi być zaskakiwany nowymi odkryciami naukowców, czytać i pisać o rozwoju technologii, historii, społeczeństwie, etyce i filozofii. Ma doktorat z nauk o mediach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.