Nauka
Serce ma swój „mózg”. Naukowcy badają jego rolę i funkcje
20 grudnia 2024
Coraz częściej ludzie wykorzystują sztuczną inteligencję do podejmowania decyzji dotyczących życia. Sztuczna inteligencja pomaga na przykład w dokonywaniu wyborów w zakresie zatrudnienia oraz wspiera lekarzy w stawianiu diagnoz. Co ciekawe, twórcy AI nie do końca rozumieją, dlaczego ich system podejmuje takie, a nie inne decyzje. Ale co, jeśli pochodzenie kulturowe wpływa na oczekiwane wyjaśnienia ze strony sztucznej inteligencji?
Systemy AI są często tak złożone obliczeniowo, że nawet ich projektanci nie znają w pełni sposobu podejmowania przez nie decyzji. Właśnie dlatego powstała tzw. „wyjaśnialna sztuczna inteligencja” (ang. XAI, Explainable Artificial Intelligence).
Zobacz też:
XAI to zbiór metod i strategii pozwalających ludziom zrozumieć, na jakiej podstawie sztuczna inteligencja dokonuje decyzji. Systemy te pomagają inżynierom AI monitorować i korygować przetwarzanie danych przez ich modele. Jednak nie wszystkie systemy sztucznej inteligencji są wyjaśnialne.
W obszarach o wysokim stopniu odpowiedzialności możemy spodziewać się, że XAI stanie się powszechne. Na przykład niedawno przyjęta europejska ustawa o sztucznej inteligencji, zakłada, że obywatele mają prawo do uzyskania wyjaśnienia dotyczącego decyzji podjętej przez AI, która wpływa na ich prawa.
Istnieją dwa powszechne sposoby wyjaśniania czyichś działań. Jeden z nich odnosi się do przekonań i pragnień danego człowieka. To wyjaśnienie internalistyczne, skupione na tym, co dzieje się w czyjejś głowie. Drugi, eksternalistyczny sposób, odnosi się do norm społecznych, zasad lub innych czynników zewnętrznych.
Aby zobaczyć różnicę, możemy pomyśleć o zatrzymaniu się kierowcy na czerwonym świetle. Można powiedzieć: „kierowca uważa, że światło jest czerwone i nie chce naruszać przepisów ruchu drogowego, więc zdecydował się zatrzymać”. Jest to wyjaśnienie internalistyczne. Możemy też powiedzieć, że „światła są czerwone, a przepisy ruchu drogowego wymagają, aby kierowcy zatrzymywali się na czerwonym świetle, więc kierowca się zatrzymał”. To wyjaśnienie eksternalistyczne.
Wiele badań psychologicznych sugeruje, że internalistyczne wyjaśnienia są preferowane wśród społeczeństw, w których ludzie postrzegają siebie jako bardziej niezależnych. Są to przede wszystkim społeczeństwa zachodnie. Natomiast wyjaśnienia eksternalistyczne są popularne w społeczeństwach z Afryki lub Azji południowej, gdzie ludzie często postrzegają siebie jako współzależnych.
Preferencje w wyjaśnianiu zachowań są istotne dla skuteczności XAI. Sztucznej inteligencji, która oferuje diagnozę medyczną, może towarzyszyć wyjaśnienie takie jak: „ponieważ twoje objawy to gorączka, ból gardła i ból głowy, klasyfikator uważa, że masz grypę”. Jest to internalizm, gdyż wyjaśnienie odwołuje się do „wewnętrznego” stanu sztucznej inteligencji.
Diagnoza może zawierać wyjaśnienie, które nie wspomina o stanie wewnętrznym, takie jak: „ponieważ twoje objawy to gorączka, ból gardła i ból głowy, w oparciu o szkolenie w zakresie diagnostycznych kryteriów włączenia, klasyfikator stwierdza, że masz grypę”. To eksternalizm, ponieważ wyjaśnienie opiera się na „zewnętrznych” czynnikach, takich jak kryteria włączenia. Podobnie moglibyśmy wyjaśnić zatrzymanie się na światłach, odwołując się do zasad ruchu drogowego.
Jeśli ludzie z różnych kultur preferują różne rodzaje wyjaśnień, ma to znaczenie dla projektowania inkluzywnych systemów XAI. Badania sugerują jednak, że twórcy nie zawsze biorą pod uwagę potencjalne różnice kulturowe w preferencjach dotyczących wyjaśnień.
Jeśli ustalenia dotyczące wyjaśnialnych systemów sztucznej inteligencji odnoszą się tylko do jednej grupy populacji, systemy te mogą nie spełniać oczekiwań innych osób. To może obniżyć zaufanie do sztucznej inteligencji. Aby rozwiązać problem uprzedzeń kulturowych w XAI, programiści i psychologowie powinni współpracować, aby zbadać istotne różnice kulturowe.
Polecamy: Sztuczna inteligencja nie zna empatii. Blisko jej do psychopaty
Uczeni powinni ocenić, czy ich próba badawcza reprezentuje szerszą populację. Ponieważ sztuczna inteligencja jest wykorzystywana na całym świecie do podejmowania istotnych decyzji, systemy muszą dostarczać wyjaśnień, które są akceptowalne dla ludzi z różnych kultur.
W obecnej sytuacji istnieje ryzyko, że duże grupy, które mogłyby skorzystać z potencjału wyjaśnialnej sztucznej inteligencji, mogą zostać pominięte w badaniach nad XAI.
To może Cię również zainteresować: