Etyka sztucznej inteligencji. Stoimy przed wyzwaniem

Sztuczna inteligencja zadomowiła się w naszym życiu na dobre. Już teraz AI pomaga rozpoznawać zmiany nowotworowe, opiniuje wnioski o przyznanie kredytów hipotecznych i selekcjonuje podania o pracę; w Stanach Zjednoczonych ocenia ryzyko recydywy w przypadku zwolnionych więźniów, a w niektórych miastach legalnie prowadzi samochody.

Każdego dnia powstaje niezliczona ilość nowych danych – niektóre badania mówią o wielkości 2,5 kwintyliona bajtów wytwarzanych w ciągu doby; kwintylion to 1030. Lista narzędzi bazujących na sztucznej inteligencji jest długa i stale rośnie. Bez wątpienia zostaliśmy wrzuceni w sam środek cyfrowej rewolucji. Dlatego warto zadać pytanie, czy jest możliwe etyczne przejście przez tak gwałtowne zmiany.

Etyka sztucznej inteligencji, czyli co?

Obecnie nie ma jednolitej definicji sztucznej inteligencji. Dobrym punktem wyjścia może być unijna ustawa o AI, w której sztuczna inteligencja to: „oprogramowanie opracowane przy użyciu jednej lub więcej technik oraz podejść uczenia maszynowego lub głębokiego”. Unijna legislacja kładzie większy nacisk na kwestie techniczne, tym samym pomijając aspekt „psychologiczny” sztucznej inteligencji. Jednak najbardziej klasyczny sposób tłumaczenia sztucznej inteligencji odnosi się do każdego rodzaju sztucznego systemu obliczeniowego, który swoją „inteligencję” wykazuje lub symuluje za pomocą środków technicznych; do cech wyróżniających zaliczamy: celowość, rozumowanie, uczenie się oraz kreatywność.

Etyka sztucznej inteligencji to dziedzina rozwijająca się w ramach filozofii techniki. Ma ona na celu tłumaczenie i łagodzenie „obaw” związanych z rozwojem i wykorzystywaniem sztucznej inteligencji. Mówiąc precyzyjniej – ma ona za zadanie konstruowanie ram normatywnych, które będą stanowiły podstawę prawną dla ustaw regulujących wdrażanie oraz funkcjonowanie innowacji w dziedzinie sztucznej inteligencji. Warto zauważyć, że na gruncie filozofii moralnej prezentowane są również praktyczne rozwiązania problemów, które pomagają lepiej zrozumieć zawiłość abstrakcyjnych zasad i reguł prawa; jak ma to miejsce m.in. w przypadku autonomicznych samochodów. 

Znaczenie etyki sztucznej inteligencji rośnie wraz z szybkością pojawiających się systemów AI. W literaturze naukowej najczęściej pojawia się zestaw zasad i etycznych reguł, które mają zapewnić bezpieczny i zrównoważony rozwój branży. Zaliczamy do nich: przejrzystość, sprawiedliwość, uczciwość, odpowiedzialność i prywatność. Niestety, zasady te są niejako miękkim prawem, jak na razie nie są one wiążące dla podmiotów na rynku komercyjnym. Konkretne kwestie etyczne, które badacze najczęściej podnoszą w publikacjach, to m.in. określenie norm, według których AI powinna być programowana do działania (tzw. etyka maszyn), czy systemy AI mogą być pociągnięte do odpowiedzialności lub rozliczane za swoje błędne działania i decyzje oraz jak wdrażane zmiany będą wpływały na naszą rzeczywistość: rynek pracy, kontakty międzyludzkie oraz sposób prowadzenia polityki.

Branża nie chce rozmawiać o etyce

Z wnętrza technologicznej bańki dociera coraz więcej niepokojących sygnałów. Pod koniec marca pojawiła się informacja o zwolnieniach w zespołach zajmujących się analizowaniem kwestii etycznych przy wdrażaniu systemów sztucznej inteligencji. Wśród firm redukujących zatrudnienie etyków znaleźli się przedstawiciele wielkiej piątki: Microsoft, Meta, Google, Amazon i Twitter. Zjawisko jest o tyle niepokojące, że jesteśmy w trakcie powstawania nowych gigantów  rynku oraz komercjalizacji wielu przełomowych narzędzi AI.

Potwierdzeniem tej tezy jest niedawny list otwarty organizacji Future of Life Institute, w którym znajdziemy wezwanie do sześciomiesięcznej przerwy od wdrażań innowacji w dziedzinie sztucznej inteligencji. List został podpisany przez tysiące osób z branży informatycznej, w tym Elona Muska. Sygnatariusze wyrażają obawę, że laboratoria AI: „pogrążyły się w szalonym wyścigu w celu opracowania i wdrożenia coraz potężniejszych cyfrowych umysłów, których nikt – włączając w to twórców – nie jest w stanie zrozumieć, przewidzieć, ani racjonalnie kontrolować”. Jednak mało kto wierzy w szczere intencje longtermistów, czyli wpływowych i bardzo bogatych osób, które pragną wpłynąć na długofalową przyszłość ludzkości (Future of Life Institute realizuje agendę tej grupy interesów), co dobrze wyraził w swoim artykule Slavoj Žižek, pisząc dla magazynu „Project Syndicate”, że: 

Panika wyrażana w liście Future of Life Institute wynika z obawy, że ci, którzy znaleźli się w „pociągu postępu” nie będą w stanie nim kierować. […] Nie chodzi im jednak o publiczną debatę, ale raczej o porozumienie między rządami i korporacjami technologicznymi, aby utrzymać władzę tam, gdzie jej miejsce. […] Wybór, jaki nam pozostawiono, będzie się zawierał między nową formą komunizmu a niekontrolowanym chaosem.


Zdanie Žižka podziela pisarz science fiction, Ted Chiang, który w rozmowie dla dziennika „The New York Times” przyznał: „Skłaniam się do stwierdzenia, że większość lęków wywołanych przez AI najlepiej rozumieć jako lęki przed kapitalizmem. Myślę również, że można to odnieść do większości lęków związanych z techniką. Obawy te wynikają z braku wiedzy, jak kapitalizm wykorzysta je przeciwko nam”.

O czym „myśli” robot?

W dyskusji o etyce i robotach, a szczególnie jeśli rozmowa dotyczy samochodów sterowanych przez AI, pojawia się „problem wagonika”. Sprawa dotyczy tego, jaką decyzję powinien podjąć algorytm w trakcie manewru zagrażającego życiu? Czy ma kierować się wiekiem, płcią lub innymi cechami osobowymi potencjalnych ofiar. Zdaniem Armina Grunwalda, filozofa i etyka technologii z Uniwersytetu w Karlsruhe, problem ten to typowy eksperyment myślowy – pseudoproblem, który nie występuje w rzeczywistości. Gdyby rzeczywiście istniał, to szkoły jazdy obligatoryjnie szkoliłyby wszystkich kursantów na taką okoliczność.

Jednak śmiertelne wypadki samochodów autonomicznych miały już miejsce w przeszłości. W marcu 2018 roku samobieżna taksówka Ubera zabiła pieszego w Tempe w Arizonie. W pojeździe znajdował się kierowca, ale w momencie wypadku działał w trybie autonomicznym. Takie sytuacje rodzą przede wszystkim pytanie – komu przypisać odpowiedzialność za śmierć człowieka? Samochód autonomiczny nie jest podmiotem prawa. Natomiast stron zaangażowanych w śmierć jest zbyt wiele, by jednoznacznie ocenić winę. Musimy wziąć pod uwagę: Ubera; firmę motoryzacyjną; pieszego, który wtargnął na drogę w niedozwolonym miejscu; oraz administracja stanu, dopuszczającą autonomiczne pojazdy do poruszania się na swoich drogach.

Regulacje, kontrola i więcej etyki

Inteligentne maszyny, autonomiczne samochody, „myślące” chatboty, seksualne i uwodzące roboty, samosterujące drony bojowe. Wszystkie te terminy budzą naszą ciekawość, ale wywołują również niepokój. Kultura popularna przetwarza te lęki  – często sama ją kreując – a szczególnie najnowsze filmy science fiction. W niektórych produkcjach sztuczna inteligencja buntuje się przeciwko twórcom; dobrym przykładem jest film Ex Machina lub serial Westworld. Jednak przeważnie staje się tym, co projektanci nazywają „robotem społecznym”; doskonale oddaje to film „Her” oraz kameralny „After Yang” z Colinem Farrellem w roli głównej. Społeczne algorytmy tworzone są w celu wytworzenia „naturalnej” interakcji człowieka z robotem — to znaczy interakcji, do jakiej jesteśmy przyzwyczajeni w codziennym życiu.

Jednak badacze zjawiska zwracają uwagę na praktyczniejsze zmiany, szczególnie na rynku pracy, a także w kwestiach kompetencji pracowników. Wprowadzenie diagnostyki opierającej się na AI, może doprowadzić do utraty kluczowych kwalifikacji personelu medycznego. Także w administracji ślepe stosowanie się do zaleceń AI może wywołać lawinę niekontrolowanych wydarzeń.

Komisja Europejska w 2021 roku wydała rozporządzenie „Artificial Intelligence Act: (AI Act), które wprowadza wspólne ramy regulacyjne i prawne dla sztucznej inteligencji. Swoim zakresem obejmuje wszystkie sektory (z wyjątkiem wojskowego). Propozycja klasyfikuje zastosowania sztucznej inteligencji według ryzyka i wyznacza dla nich adekwatne kroki prawne. 

Przewodniczący Niemieckiej Rady Etyk, Julian Nida-Rümelin, zwrócił niedawno uwagę, że większość infrastruktury łączności cyfrowej jest obecnie w rękach kilku firm, głównie z siedzibą w USA i Chinach. Dlatego w kręgach niemieckich etyków pojawił się pomysł zbudowania europejskiej publicznej sieci, na przykład w formie fundacji. Mogłaby działać niekomercyjnie i promować podstawowe wartości demokratyczne.

Postulowane są również propozycje wprowadzenia specjalnych podatków od maszyn. Z każdą kolejną techniczną innowacją pozycja ludzi na rynku pracy jest podkopywana – tworzy się niekorzystna luka konkurencyjna. Podatek uwolniłby publiczne pieniądze w nowe kierunki, które mogłyby pomóc w przekwalifikowaniu się grupom wykluczonym z rynku pracy przez automatyzację.

AI dokonuje fundamentalnych zmian w naszych społeczeństwach, zatem warto poświęcać tamu zagadnieniu więcej uwagi i krytyczniej rozmawiać o użyciu i rozwoju tego typu narzędzi. Pilność w tym przypadku nie jest nadgorliwością. Najlepiej ocenić technologie teraz, zanim będzie za późno – gdy zmian nie będziemy mogli już cofnąć.

Źródła:

Opublikowano przez

Mateusz Schuler

Autor


Dziennikarz, filozof, Ślůnzok. Autor artykułów poświęconych filozofii techniki oraz etyce środowiskowej. Zainteresowany historią kapitalizmu oraz alternatywnymi ruchami politycznymi. W przeszłości prowadzący audycję radiową z muzyką eksperymentalną w tle. Mieszka w Katowicach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.