Nauka
Roboty sprzątające AI i ChatGPT. Sztuczna inteligencja na co dzień
20 listopada 2024
Wielkie korporacje coraz częściej finansują badania nad swoimi produktami, co rodzi pytania o ich niezależność. Ostatnie kontrowersje wokół badań nad wpływem algorytmów na fake newsy pokazały, jak trudno oddzielić wyniki naukowe od interesów firm, które je sponsorują. Czy mamy do czynienia z próbą manipulacji wizerunkiem, podobną do taktyk stosowanych niegdyś przez koncerny tytoniowe?
Przez niemal dekadę naukowcy gromadzili dowody na to, że najbardziej popularny portal społecznościowy wzmacnia treści niskiej jakości oraz fake newsy. Dlatego zaskoczeniem było badanie opublikowane w 2023 roku w czasopiśmie Science, które wykazało, że algorytmy tegoż wielkiego portalu/serwisu społecznościowego (z ostrożności procesowej nie podajemy nazwy) nie były głównymi czynnikami napędzającymi dezinformację podczas wyborów prezydenckich w Stanach Zjednoczonych w 2020 roku.
Co ciekawe, badanie to zostało sfinansowane przez firmę macierzystą tegoż właśnie portalu. Co więcej, kilku jej pracowników było częścią zespołu badawczego. Publikacja przyciągnęła szerokie zainteresowanie mediów i wzbudziło sporo emocji.
Jednak wyniki tego badania zostały ostatnio poddane w wątpliwość przez zespół naukowców, na czele z Chhandakiem Bagchą z Uniwersytetu Massachusetts. Autorzy stwierdzają, że rezultaty mogły być efektem manipulacji algorytmem serwisu w trakcie przeprowadzania analizy. W odpowiedzi autorzy oryginalnego badania przyznali, że ich wyniki „mogłyby być inne”, gdyby serwis inaczej zmienił swój algorytm.
Ta sytuacja ukazuje problemy związane z finansowaniem i nadzorowaniem badań nad własnymi produktami przez duże korporacje technologiczne. Podkreśla również potrzebę większego i niezależnego nadzoru nad mediami społecznościowymi.
Polecamy: Google potajemnie okrada internautów z danych? Padają poważne oskarżenia
Wielkie koncerny technologiczne zaczęły masowo inwestować w badania akademickie nad swoimi produktami. Tak zrobił na przykład właśnie szef wspomnianego portalu/serwisu, dziś najpopularniejszego na Zachodzie medium społecznościowego. Serwis i jej właściciel przekazali setki milionów dolarów ponad 100 uczelniom i uniwersytetom w Stanach Zjednoczonych. To działanie przypomina to, co kiedyś robiły koncerny tytoniowe.
W połowie lat 50. firmy te rozpoczęły kampanię mającą na celu wzbudzenie wątpliwości wobec rosnącej liczby dowodów łączących palenie z poważnymi problemami zdrowotnymi. Nie chodziło o jawne fałszowanie badań, lecz o selektywne finansowanie tych, które przynosiły niejednoznaczne wyniki. Pomogło to utrzymać narrację, że brak jest jednoznacznych dowodów na to, że palenie szkodzi.
Wracając do wspomnianego na wstępnie badania sfinansowanego przez jeden z portal społecznościowych i opublikowanego w Science w 2023 roku. W publikacji twierdzono, że algorytm kanału informacyjnego portalu zmniejszył narażenie użytkowników na fake newsy.
W eksperymencie użytkownicy zostali losowo przydzieleni do grupy kontrolnej lub grupy badawczej. Grupa kontrolna nadal korzystała z algorytmicznego kanału wiadomości portalu. Natomiast w grupie badawczej wiadomości były wyświetlane w odwrotnej kolejności chronologicznej. Celem było porównanie wpływu tych dwóch rodzajów kanałów na narażenie użytkowników na potencjalnie fałszywe informacje.
Choć eksperyment był dobrze zaprojektowany, w jego trakcie firma zmodyfikowała swój algorytm, aby promować bardziej wiarygodne treści. Redukcja dezinformacji, jaką wykazano w badaniu, była najprawdopodobniej wynikiem tych tymczasowych zmian. Jednak kilka miesięcy później, w marcu 2021 roku, firma przywróciła oryginalny algorytm kanału informacyjnego.
W oświadczeniu wyjaśniła, że w tamtym czasie informowała badaczy o zmianach algorytmu.
Polecamy: HOLISTIC NEWS: Czy sztuczna inteligencja nam zagraża? O AI rozmawiamy #PoLudzku
Kontrowersje wokół tego badania powinny skłonić nas do refleksji. Wielkie korporacje kontrolujące media społecznościowe mają niespotykaną dotąd władzę. To one kontrolują dostęp do danych i mogą manipulować badaniami, twierdząc, że algorytmy nie są przyczyną dezinformacji.
Bez jawnej i skrupulatnej kontroli może dojść do sytuacji, w której wątpliwości co do wpływu algorytmów staną się normą, a społeczeństwo zacznie powoli akceptować tę nową rzeczywistość. Czy czeka nas przyszłość, w której nie będziemy w stanie odróżnić prawdy od fałszu? A może po prostu przestaniemy się tym przejmować?
Polecamy: Najpierw Facebook, teraz Google. Wielkie korporacje nie chcą płacić