Prawda i Dobro
Jacek Piekara: Zakładają nam kaganiec. Wolności oddać nie umiem
29 czerwca 2025
Xanthorox to platforma AI, która otwarcie reklamuje się jako narzędzie do popełniania cyberprzestępstw. Nie wymaga umiejętności programowania, wystarczy kilka kliknięć. Chociaż nie udowodniono jej skuteczności, samo istnienie tego typu systemów budzi poważne pytania o przyszłość bezpieczeństwa cyfrowego.
Xanthorox to platforma sztucznej inteligencji, która została zaprojektowana i jest jawnie reklamowana jako narzędzie służące do cyberprzestępstw. Twórca tego narzędzia prowadzi kanał na YouTube i udostępnia instrukcje na Telegramie i Discordzie. Wystarczy wysłać mu wiadomość i zapłacić w kryptowalucie, by uzyskać dostęp do oprogramowania. Czym jest Xanthorox? To AI do oszustw, potrafiące generować fałszywe wiadomości e-mail (phishing), tworzyć złośliwe oprogramowanie, konstruować deepfake’i, a nawet pisać instrukcje konstruowania bomb. Brzmi jak kiepskie i ponure science fiction, ale niestety to rzeczywistość.
Na nagraniach publikowanych przez twórcę narzędzia widać interfejs przypominający ChatGPT, jednak zamiast uprzejmych odpowiedzi, system przekazuje np. instrukcje skonstruowania bomby atomowej. Jej wykonanie w warunkach innych niż profesjonalne laboratoria nie jest możliwe, ale instrukcja ta jest bardzo wymowna.
Polecamy: Jacek Piekara: Zakładają nam kaganiec. Wolności oddać nie umiem
Współczesne narzędzia AI, takie jak Xanthorox, osiągnęły poziom, który pozwala na tworzenie niezwykle przekonujących fałszerstw. Można za ich pomocą podrobić głos, wygląd, styl wypowiedzi. Oznacza to, że przestępca nie musi nawet znać swojej ofiary. Wystarczy, że wie, jak brzmi jej znajomy, partner czy dziecko. I może się pod niego podszyć.
Tak było w przypadku oszustwa w Hongkongu. Pracownik międzynarodowej firmy otrzymał wiadomość od rzekomego dyrektora finansowego. Później dołączył do wideokonferencji, na której obecni byli fałszywi pracownicy, którzy zostali wygenerowani przez sztuczną inteligencję. W ciągu kilkunastu minut przekonali go, by przelał 25 milionów dolarów na konta w Hongkongu.
„Sztuczna inteligencja znacznie ułatwia życie cyberprzestępcom, umożliwiając im bardzo łatwe generowanie złośliwego kodu i kampanii phishingowych” – podkreśla ekspertka Yael Kishon z firmy KELA zajmującej się analizą zagrożeń w wypowiedzi dla portalu Scientific American.
Co gorsza, takie narzędzia sprawiają, że praktycznie każdy może przeprowadzić atak hakerski. Dzięki AI do oszustw można je zautomatyzować, przyspieszyć i spersonalizować. Algorytmy błyskawicznie analizują dane ofiary i tworzą wiadomości lub rozmowy dostosowane do jej języka, zainteresowań i relacji społecznych.
Przeczytaj także: Dlaczego ludzie się buntują? To nie bieda jest prawdziwą iskrą
Nie wiadomo. Twórca platformy twierdzi, że to jedynie projekt edukacyjny. Jednak sprzedał już co najmniej 13 subskrypcji, a cena miesięcznego dostępu wzrosła z 200 do 300 dolarów. Rozgłos wykorzystał jako kampanię marketingową. Czy to tylko reklama? Zdania są podzielone. Yael Kishon mówi wprost: Xanthorox może jednak rozwijać się nadal i w ten sposób może ewoluować w dość potężną platformę. A jeśli tak się stanie, AI do oszustw może zyskać nowy, jeszcze bardziej niebezpieczny wymiar. Autor zapewnia, że jego narzędzie nie służy złym celom. Wprost przeciwnie.
„Xanthorox AI NIE jest »czarną sztuczną inteligencją«. Jest to zaawansowany asystent AI zaprojektowany przede wszystkim do wspierania etycznego hakowania, badań nad cyberbezpieczeństwem oraz tworzenia innowacyjnych narzędzi przez programistów. (…) Naszym celem jest oferowanie bezpiecznej, wydajnej i prywatnej sztucznej inteligencji użytkownikom, którzy chcą realizować swoje pomysły i odkrywać granice AI w ramach etycznych i prawnych ram” – czytamy na stronie projektu.
Odpowiedź na nowe zagrożenia już się pojawia. Firmy takie jak Microsoft, Norton, Bitdefender czy Malwarebytes rozwijają oprogramowanie, które potrafi wykrywać deepfake’i, filtrować podejrzane wiadomości i cofać skutki ataków ransomware. Istnieją już systemy, które identyfikują generowane przez AI głosy i obrazy, ostrzegając użytkownika przed potencjalnym oszustwem.
Być może najlepszym sposobem na walkę z AI jest inne AI? Systemy bezpieczeństwa oparte na sztucznej inteligencji mogą szybko wykrywać ataki, nawet zanim dotrą do użytkownika. Jednak nie każdy ma dostęp do zaawansowanych technologii. Dlatego eksperci podkreślają znaczenie edukacji, szczególnie wśród seniorów, którzy są częstym celem ataków.
Współczesne zagrożenia nie wymagają już hakerów z dark webu. Wystarczy, że ktoś wykorzysta AI do oszustw, aby w kilka minut wygenerować fałszywy głos, wiadomość e-mail lub film, który skutecznie wprowadzi ofiarę w błąd.
Xanthorox nie musi być najbardziej zaawansowanym narzędziem przestępczym, żeby zauważyć pewną zmianę epoki. Pokazuje łatwość, z jaką dziś można stworzyć, kupić i wykorzystać AI do oszustw.
Największym zagrożeniem nie jest jednak to, że pojawiają się nowe formy ataków. Problemem jest to, że stare metody są dzisiaj znacznie lepsze dzięki sztucznej inteligencji. AI nie wymyśliła cyberprzestępczości. Ale sprawiła, że może ją dziś popełnić każdy.
Polecamy: Sztuczna inteligencja w szkole. Walczyć z nią czy zaakceptować?