
ESET Research ogłosił właśnie odkrycie, które może otworzyć zupełnie nowy rozdział w historii cyberprzestępczości. Chodzi o ransomware nazwane PromptLock – pierwsze tego typu złośliwe oprogramowanie, które wykorzystuje sztuczną inteligencję do generowania swojego kodu w czasie rzeczywistym. Jeszcze niedawno takie połączenie brzmiało jak science fiction, dziś staje się faktem.
Największą nowością w PromptLock jest to, że nie polega na statycznym kodzie przygotowanym przez twórców, ale na lokalnie uruchamianym modelu generatywnym. Zamiast kontaktować się z serwerami w chmurze, cała sztuczna inteligencja działa bezpośrednio na urządzeniu ofiary. To sprawia, że proces tworzenia złośliwych skryptów pozostaje praktycznie niewidoczny dla tradycyjnych systemów zabezpieczeń, które często monitorują właśnie ruch sieciowy. Sam kod wykonywany jest w języku Lua, a do jego tworzenia służą specjalnie przygotowane prompty – czyli zestawy poleceń, które model AI przekształca w działający skrypt.
W praktyce PromptLock potrafi przeskanować komputer, wybrać pliki, które warto wykradać lub zaszyfrować, a następnie zabezpieczyć je algorytmem SPECK 128-bit. Co ciekawe, w jego kodzie znajduje się również funkcja niszczenia danych, choć na ten moment pozostaje ona nieaktywna. Całość została napisana w języku Go, co zapewnia mu przenośność i możliwość działania zarówno na Windowsie, macOS, jak i na Linuksie.
Choć ESET podkreśla, że mamy do czynienia z dowodem koncepcji, a nie z realnie wykorzystywanym atakiem, sam fakt powstania takiego narzędzia powinien być dla branży sygnałem ostrzegawczym. PromptLock pokazuje bowiem, że sztuczna inteligencja może wkrótce stać się częścią arsenału cyberprzestępców.
Dlaczego to ważne? Przede wszystkim dlatego, że dzięki AI bariera wejścia w świat cyberprzestępczości jeszcze bardziej się obniża. Do stworzenia działającego ransomware nie trzeba już zaawansowanych umiejętności programistycznych – wystarczy odpowiednio przygotowany prompt. Co więcej, każde uruchomienie PromptLocka może skutkować wygenerowaniem innego skryptu, co w praktyce utrudnia wykrywanie i analizę. Tradycyjne metody ochrony, oparte na sygnaturach czy heurystyce, mogą być wobec takiej zmienności po prostu nieskuteczne.
To odkrycie powinno być sygnałem alarmowym nie tylko dla specjalistów IT, ale i dla wszystkich użytkowników. Sztuczna inteligencja, która do tej pory była postrzegana głównie jako narzędzie wspierające biznes i rozwój technologii, staje się również elementem świata cyberzagrożeń. Kluczem do obrony będzie adaptacja – od stosowania rozwiązań opartych na analizie behawioralnej, przez ograniczanie uprawnień użytkowników, po nieustanną edukację i budowanie świadomości.
– Przy zastosowaniu tego typu ataku, tradycyjne antywirusy i systemy oparte na sygnaturach, czyli uczenie zachowań wirusów według określonego schematu, nie będą skuteczne. Sztuczna inteligencja w opisywanym modelu może zachowywać się inaczej za każdym razem atakując to samo środowisko, co znacząco utrudnia wykrycie. Poza tym ataki oparte o AI będą uczyły się naszego środowiska – analizowały dane i wybierały co chcą zaatakować/ukraść/zaszyfrować– mówi ekspert ds. cyberbezpieczeństwa, Michał Giziński.
PromptLock jest na razie eksperymentem, ale trudno nie odnieść wrażenia, że patrzymy właśnie na zwiastun przyszłości. Jeśli dziś AI potrafi tworzyć ransomware na potrzeby proof-of-concept, jutro może zostać wykorzystane w prawdziwych kampaniach wymierzonych w firmy i użytkowników indywidualnych. A wtedy walka z cyberzagrożeniami wejdzie na zupełnie nowy poziom.
– W mojej ocenie na tę chwilę jedyna, w miarę skuteczna metoda, na te ataki to SOC(Security Operations Center), który na bieżąco analizuje ruch w sieci i wykrywa anomalie – podsumowuje Giziński.
Najnowsze komentarze