Sztuczna inteligencja kopiuje od nas złe nawyki

Google zaprezentowało nową metodę walki z uprzedzeniami, których sztuczna inteligencja uczy się od ludzi. Z powodu cyfrowej dyskryminacji poważne kłopoty mają m.in. kobiety

Google zaprezentowało nową metodę walki z uprzedzeniami, których sztuczna inteligencja uczy się od ludzi. Z powodu cyfrowej dyskryminacji poważne kłopoty mają m.in. kobiety

Sztuczna inteligencja jest ograniczonym odbiciem ludzkiego umysłu, wraz z jego zaletami i wadami. Programiści podkreślają, że próbując naśladować lub zastąpić człowieka przy wyznaczonych jej zadaniach, kopiuje od nas także złe nawyki. Cyfrowo „dziedziczy” skłonność do dyskryminowania mniejszości, szowinizmu czy rasizmu.

Cyfrowa dyskryminacja mniejszości i kobiet

W maju 2016 r. amerykańska organizacja ProPublica zrzeszająca dziennikarzy śledczych przedstawiła kontrowersyjny raport, który dowodził, że program komputerowy wykorzystywany w sądach Stanów Zjednoczonych dyskryminuje czarnoskórych mężczyzn. Correctional Offender Management Profiling for Alternative Sanctions (Compas) pomagał wymiarowi sprawiedliwości obliczać sankcje i wskazywać osoby skłonne do ponownego naruszenia prawa. Jak dowiedli dziennikarze, program typował czarnoskórych mężczyzn dwa razy częściej niż białych.

Podobny problem miał Amazon. W październiku 2018 r. agencja Reutera podała informację o konieczności wycofania programu stosowanego przez koncern do cyfrowej rekrutacji. Okazało się, że sztuczna inteligencja preferowała męskich kandydatów na stanowiska. System nauczył się dyskryminacji kobiet, gdyż do jego tworzenia wykorzystano dane tworzone głównie przez mężczyzn.

Technologia Google’a kontra uprzedzenia

Z dyskryminującą sztuczną inteligencją chce walczyć amerykański gigant technologiczny Google. „Algorytmy nie powinny utrwalać stereotypów” – powiedział prezes Google Sundar Pichai podczas corocznej konferencji deweloperskiej. Wydarzenie wykorzystał do ogłoszenia przełomu w tej dziedzinie.

Odpowiedzią na zdarzające się praktyki dyskryminacyjne ma być nowa metoda nazwana TCAV, która nauczy algorytmy rozpoznawania niepokojących ludzkich zachowań. Pozwoli ona wskazać elementy, które najczęściej przyczyniają się do powstawania mechanizmów dyskryminujących w zautomatyzowanych procesach decyzyjnych algorytmów.

W praktyce oznacza to, że jeśli algorytm otrzyma zadanie wskazania osoby wykonującej zawód lekarza wśród kilku tysięcy zdjęć przedstawiających ludzi, to nadzorujący jego pracę programista zostanie zaalarmowany, gdy sztuczna inteligencja zacznie kierować się kolorem skóry, płcią lub wiekiem osób na zdjęciach.

Korekta działań sztucznej inteligencji

Jak informuje portal Digital Information World, przy pomocy TCAV algorytmy będą w stanie analizować i wykrywać dyskryminację, jednak nie rozwiążą problemu, ponieważ nie będą zdolne do jej usunięcia. Za skorygowanie działania sztucznej inteligencji będą odpowiedzialni jej twórcy, tacy jak np. Google. „To ważny krok w kierunku postępu, jeśli zostanie właściwie zastosowany” – czytamy w portalu.

Twórcy TCAV nie ukrywają, że potrzeba znacznie więcej wysiłków, by przezwyciężyć potencjalne uprzedzenia sztucznej inteligencji, ponieważ coraz częściej korzystają z niej organy państwa, np. wydziały policji i sądy.

Źródła: Reuter, BBC, Digital Information World, Google, Guardian

Opublikowano przez

Wiktor Cyrny


Reportażysta, dziennikarz, filmowiec. Pisał m.in. dla „Newsweeka”, „Wprost” czy „Krytyki Politycznej”, współtworzył dokumenty Canal+ Discovery. Za swoje reportaże otrzymał m.in. nagrodę Ambasady Stanów Zjednoczonych (dwukrotnie: w 2012 i 2013), oraz stypendium Telewizji Polskiej (2014). Podwójny magister UW na kierunkach: film dokumentalny (MISH) i dziennikarstwo. Jego trzy największe pasje to: czytanie, pisanie i podróżowanie - najlepiej ze sobą połączone. Miłośnik arabskich barłogów, afrykańskich miast i europejskiej wolności.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.