Humanizm
Pomoc niewidomym z echolokacją. Tak dźwięk wspiera orientację
13 listopada 2024
Obsługują smartfony, tablety i sprzęt RTV. Są obiektem żartów, często wysłuchują niemoralnych propozycji o seksualnym podtekście.
Obsługują smartfony, tablety, narzędzia gospodarstwa domowego i sprzęt RTV. Są obiektem żartów i często wysłuchują niemoralnych propozycji o seksualnym podtekście. Na szczęście nie mają uczuć, nie doniosą na swoich właścicieli, nie pozwą oprawców o molestowanie. Asystentki idealne, stworzone przez programistów, nie bez przyczyny zostały obdarzone głosami kobiet.
Najpopularniejsze z nich to applowska Siri, Alexa z produktów Amazona czy Cortana obdarowana głosem przez specjalistów Microsoftu. Dziwnym zbiegiem okoliczności większość cyfrowych asystentów to „kobiety”. Uległe i cierpliwe, zawsze do usług. To właśnie sposób ich traktowania przez użytkowników zwrócił uwagę feministek.
„Algorytmy stosowane w technologiach utrwalają stereotypy dotyczące płci oraz seksistowskie i mizoginistyczne zachowania, odzwierciedlając w technologii społeczną nierówność płci” – podkreśliła Maria Vlahakis, rzecznika magazynu „Womankind”.
W internecie nie brakuje nagrań utrwalających „śmieszne rozmowy” z Siri czy innymi asystentkami cyfrowymi. Zazwyczaj mają zabarwienie seksualne. Siri musi odpowiadać na erotyczne propozycje, Alexa służy jako słowny worek treningowy – niektórzy mężczyźni próbują wyzywać ją i poniżać.
Od dłuższego czasu w kręgach obrońców praw kobiet poruszano kwestię równości płci w sztucznej inteligencji. Sprawie przyjrzała się UNESCO, organizacja wyspecjalizowana ONZ. Jednym z jej podstawowych celów jest działanie na rzecz poszanowania praw człowieka. Dane ze swoich obserwacji umieściła w specjalnym raporcie.
Jak czytamy w jego fragmencie: „Uległość Siri w obliczu słownych nadużyć i służalczość wyrażana przez wielu innych asystentów cyfrowych o głosach młodych kobiet stanowi potężną ilustrację uprzedzeń płciowych, zakodowanych w produktach technologicznych”.
Specjaliści z UNESCO podkreślili, że asystentki są zaprogramowane tak, by grzecznie reagować na zniewagi, co nie tylko promuje dominującą rolę mężczyzn, ale daje sygnał, że na seksizm i nękanie kobiet jest ogólne przyzwolenie. Jak zauważyli, aż jedna piąta wyszukiwań w internecie przypada cyfrowym asystentom głosowym. Oznacza to, że korzystają z nich setki milionów ludzi na całym świecie. Asystentki o głosach kobiet mają znaczący wpływ na kulturę i mogą podtrzymywać uprzedzenia płciowe – zaznaczono w raporcie.
„Świat musi zwracać większą uwagę na to, jak i kiedy technologie sztucznej inteligencji są uwarunkowane płcią i, co najważniejsze, kto za to płaci” – powiedziała Saniye Gülser Corat, dyrektor UNESCO ds. równości płci.
„Posłuszne i zniewolone maszyny, które udają kobiety, wchodzą do naszych domów, samochodów i biur. Ich podporządkowana służba wpływa na to, jak ludzie mówią do prawdziwych kobiet i pokazuje, jak kobiety powinny reagować na prośby” – dodała.
W raporcie zaznaczono, że odpowiedzialność za utrwalanie stereotypów ponoszą twórcy aplikacji typu Siri, którzy w zdecydowanej większości są mężczyznami.
W podsumowaniu wskazano, że kobiety obecnie są bardzo słabo reprezentowane w zespołach pracujących nad sztuczną inteligencją – stanowią zaledwie 12 proc. badaczy i 6 proc. kadry programistów.
UNESCO proponuje, by programiści obdarzyli cyfrowych asystentów głosem androgenicznym, by uniemożliwić wskazanie „płci oprogramowania”. Badacze wskazali też, że na rynku zastosowano już pierwsze rozwiązania tego typu.
Krytycy raportu UNESCO nie zgadzają się z jego wnioskami. Podkreślają, że każdy z asystentów cyfrowych Apple’a, Amazona czy Microsoftu ma również męskie wersje głosowe i to użytkownicy, a nie programiści, są winni dyskryminacji. Zazwyczaj jednak jej nie zauważają.
„Przetestowaliśmy wiele głosów za pomocą naszego wewnętrznego programu, a ten głos sprawdził się najlepiej. Wybrali go sami klienci” – tak na zarzuty odpowiedzieli z kolei inżynierowie, którzy pomogli zaprojektować Alexę, w wywiadzie dla „PC Magazine”.
Jak pisze Christine Rosen, dziennikarka magazynu „Commentary”: „To badania rynkowe, a nie seksistowski spisek ze strony firm technologicznych, doprowadziły do instalacji kobiecych głosów w urządzeniach z obsługą AI”. Rosen powołuje się na badania Uniwersytetu Stanforda, które dowodzą, że człowiek z natury preferuje głosy kobiet.
Źródła: UNESCO, „Commentary”, „PC Magazine”, „Womankind”, PAP