Zagrożenia AI: Cyberprzestępcy wykorzystują modele językowe do kradzieży kryptowalut!
Cyberprzestępcy wykorzystują złośliwe oprogramowanie oparte na sztucznej inteligencji do kradzieży kryptowalut. Google ostrzega przed aktualnymi zagrożeniami i wzmacnia środki bezpieczeństwa.

Zagrożenia AI: Cyberprzestępcy wykorzystują modele językowe do kradzieży kryptowalut!
Niedawny raport Google Threat Intelligence Group podkreśla niepokojący trend w cyberprzestępczości, polegający na tym, że cyberprzestępcy coraz częściej korzystają z modeli dużych języków (LLM), aby uczynić złośliwe oprogramowanie bardziej inteligentnym i elastycznym. Dokument, którego szczegóły można znaleźć w Crypto News, opisuje pięć różnych rodzin złośliwego oprogramowania wykorzystującego sztuczną inteligencję, zaprojektowanego specjalnie do atakowania celów o dużej wartości, takich jak kryptowaluty.
Nowatorskie rodziny szkodliwego oprogramowania potrafią napisać się na nowo w czasie rzeczywistym, wykorzystując narzędzia LLM, takie jak kodery Gemini i Qwen2.5, do generowania, modyfikowania lub ukrywania szkodliwego kodu. Stanowi to znaczący postęp, ponieważ złośliwe oprogramowanie jest teraz w stanie dynamicznie dostosowywać swoje zachowanie.
Techniki i wzorce ataku
Godnym uwagi przykładem tego rozwoju jest rodzina szkodliwego oprogramowania PROMPTFLUX, która wykorzystuje tak zwany proces „myślącego robota”. Proces ten co godzinę wywołuje API Gemini w celu aktualizacji kodu VBScript. Inna rodzina, PROMPTSTEAL, powiązana z rosyjską grupą APT28, wykorzystuje model Qwen na Hugging Face do generowania wymaganych poleceń Windows. Ta metoda „tworzenia kodu na czas” stanowi znaczącą zmianę w porównaniu z tradycyjnym złośliwym oprogramowaniem, które działa zgodnie z zakodowaną na stałe logiką.
Raporty pokazują, że te ataki oparte na sztucznej inteligencji są już aktywne i wymierzone w szczególności w drogie aktywa, takie jak zasoby kryptowalut. Szczególnie niepokojący aspekt jest tożsamość sprawców: północnokoreańska grupa UNC1069, znana również jako Masan, wykorzystuje technologie sztucznej inteligencji do dokonywania kradzieży kryptowalut. Wykorzystują te technologie do odpytywania portfeli kryptowalutowych, tworzenia skryptów phishingowych i opracowywania ukierunkowanych ataków socjotechnicznych.
Google reaguje na zagrożenie
Google podjął już działania w odpowiedzi na to zagrożenie. Firma wyłączyła konta powiązane z powyższymi działaniami i wdrożyła bardziej rygorystyczne środki bezpieczeństwa. Obejmuje to ulepszone mechanizmy monitorowania API i szybsze filtry do wykrywania i łagodzenia potencjalnych ataków.
Rozwój złośliwego oprogramowania wykorzystującego sztuczną inteligencję nie tylko rodzi pytania dotyczące cyberbezpieczeństwa, ale także podkreśla pilną potrzebę bycia świadomym tych zagrożeń i podjęcia odpowiednich działań. Połączenie zaawansowanej technologii i działalności przestępczej może w dłuższej perspektywie doprowadzić do znacznych strat w sektorze aktywów cyfrowych.