Prawda i Dobro
Nie krzyczała, nie uciekała. Tak działa psychologiczne uwiedzenie
10 maja 2025
Meta rozpoczęła informowanie europejskich użytkowników Facebooka, że ich publiczne posty i komentarze będą wykorzystywane do trenowania modeli sztucznej inteligencji. Firma wprowadziła formularz, który pozwala sprzeciwić się temu procesowi, jednak istnieje obawa, że wielu internautów nie jest świadomych swoich praw. Brak wyraźnej kampanii informacyjnej może sprawić, że użytkownicy przeoczą możliwość ochrony swoich danych.
Meta, właściciel Facebooka i Instagrama, poinformowała, że od czerwca 2025 roku zacznie trenować swoje modele AI również na podstawie treści publikowanych przez użytkowników z Unii Europejskiej. Dotychczas firma korzystała głównie z danych spoza UE. Teraz także wpisy Europejczyków przynią się do rozwoju jej sztucznej inteligencji. Meta AI analizuje informacje takie jak posty czy komentarze, które użytkownicy udostępnili publicznie, o czym firma informuje już w przesyłanych powiadomieniach.
„SI w Meta to nasz zbiór generatywnych funkcji sztucznej inteligencji, takich jak Meta AI oraz narzędzia kreatywne, wraz z modelami, które je uruchamiają. Obejmuje to także udostępnianie modeli poprzez otwartą platformę w celu wspierania badaczy, deweloperów i innych osób w społeczności SI” – czytamy w komunikacie firmy.
W wiadomościach przesyłanych przez Facebooka wyraźnie zaznaczono, że publiczne treści użytkowników będą wykorzystywane do trenowania Meta AI.
Wraz z informacją firma udostępniła LINK do specjalnego formularza, który pozwala wyrazić sprzeciw wobec tego procesu. (musisz być zalogowany na FB żeby link był aktywny)
Problem w tym, że wielu użytkowników może nie zdawać sobie sprawy z istnienia takiej opcji. Nie wiedzą też, że ich dane mogą trafić do systemów sztucznej inteligencji. Meta AI analizuje informacje niemal niezauważalnie, a świadomość tego, co to faktycznie oznacza, zależy od uważnego przeczytania powiadomienia wysłanego przez giganta mediów społecznościowych.
Meta podkreśla, że jej celem jest zaprojektowanie technologii, która „lepiej rozumie i odzwierciedla kultury, języki i historię” europejskich użytkowników.
Polecamy: Media społecznościowe łamią prawo i szkodzą dzieciom? Meta ma spore kłopoty
Człowiek może bronić się przed tym, by sztuczna inteligencja uczyła się na podstawie jego postów w internecie. Trzeba jednak pamiętać, że nie istnieje rozwiązanie całkowicie skuteczne. Podstawową metodą ochrony jest ograniczenie widoczności publikowanych treści. Większość modeli AI trenuje się na danych publicznych, dlatego ustawienie postów jako prywatnych lub widocznych tylko dla znajomych znacząco zmniejsza ryzyko ich wykorzystania.
Warto również rozważyć unikanie publikowania treści pod własnym imieniem i nazwiskiem, ponieważ anonimowość utrudnia przypisanie wpisów do konkretnej osoby fizycznej. Dodatkowo każdy ma prawo zażądać usunięcia swoich danych z baz firm technologicznych, to tzw. prawo do bycia zapomnianym. Można też ograniczyć aktywność na publicznych forach i w mediach społecznościowych. To właśnie z takich miejsc najczęściej czerpie się dane do trenowania dużych modeli językowych.
Meta rozwija własną technologię generatywnej sztucznej inteligencji, której zadaniem jest wspieranie ludzi w codziennej komunikacji i tworzeniu treści. Modele te, takie jak LLaMA, opierają się na sieciach neuronowych uczonych na miliardach zdań napisanych przez ludzi. Właśnie dlatego analiza treści generowanych przez użytkowników jest tak ważna. Im więcej danych, tym lepiej AI „rozumie” język. To z kolei oznacza, że może skuteczniej odpowiadać na pytania, tworzyć teksty czy wspomagać tworzenie grafik i materiałów promocyjnych.
Meta podkreśla, że jej celem jest zaprojektowanie technologii, która „lepiej rozumie i odzwierciedla kultury, języki i historię” europejskich użytkowników.
Informacja o wykorzystaniu treści pisanych przez użytkowników wywołała pytania o prywatność. Czy AI może uczyć się z naszych postów bez pytania o zgodę? Meta twierdzi, że tak.
„Będziemy wykorzystywać informacje publiczne, takie jak posty i komentarze z kont osób w wieku co najmniej 18 lat. […] Wykorzystamy również Twoje interakcje z funkcjami SI w Meta” – czytamy w komunikatach rozsyłanych przez firmę.
Firma zapewnia, że Meta AI analizuje informacje wyłącznie publiczne, ale warto pamiętać, że raz opublikowane dane mogą być przetwarzane nie tylko przez systemy Mety. Także przez inne modele sztucznej inteligencji.
Użytkownicy z Unii Europejskiej mogą odmówić wykorzystywania swoich publicznych postów i komentarzy do trenowania sztucznej inteligencji, takiej jak Meta AI. Chroni ich przed tym unijne Rozporządzenie o Ochronie Danych Osobowych, czyli RODO. Zgodnie z tymi przepisami każda osoba fizyczna w Unii Europejskiej ma prawo do sprzeciwu wobec przetwarzania swoich danych osobowych. Dotyczy to sytuacji, gdy przetwarzanie to odbywa się na podstawie tzw. uzasadnionego interesu administratora danych.
Właśnie na tej podstawie Meta AI analizuje informacje, które użytkownicy pozostawiają w sieci. Firma, zgodnie z art. 13 i 14 RODO, ma obowiązek poinformować użytkowników o takim zamiarze, co realizuje poprzez rozsyłanie stosownych powiadomień. Choć przetwarzane mają być tylko dane publiczne, to również one podlegają ochronie, jeśli można je powiązać z konkretną osobą.
Szukasz treści, które naprawdę dają do myślenia? Sięgnij po kwartalnik Holistic News!
Polecamy: Fake newsy pod lupą. Kontrowersje wokół social mediów