Badacze bezpieczeństwa z Palo Alto Networks Unit 42 odkryli, że duże modele językowe (LLM) skutecznie generują modyfikacje złośliwego kodu JavaScript w praktycznie nieograniczonej objętości, sprawiając jednocześnie, że kod jest mniej rozpoznawalny przez programy antywirusowe. Przykładowo sztuczna inteligencja utworzyła ponad 10 tysięcy kopii kodu, który w 88% przypadków udawał się uniknąć wykrycia. Jednak ta moneta ma też drugą stronę.
„Chociaż narzędzia LLM są trudne do stworzenia szkodliwego oprogramowania od podstaw, przestępcy mogą z łatwością wykorzystać je do nadpisania lub ukrycia istniejącego szkodliwego oprogramowania, co utrudni jego wykrycie” – stwierdzili w nowym raporcie badacze z Palo Alto Networks Unit 42. „Przestępcy mogą nakłonić LLM do przeprowadzenia transformacji, które wyglądają znacznie bardziej naturalnie, przez co takie oprogramowanie jest trudniejsze do wykrycia”.
Nie oznacza to, że tę sytuację zignorowano. Twórcy LLM wprowadzają środki bezpieczeństwa, aby zapobiec wykorzystywaniu modeli do celów destrukcyjnych. Jednak napastnicy wprowadzili już narzędzia takie jak WormGPT, aby zautomatyzować tworzenie przekonujących wiadomości e-mail phishingowych i rozwój nowego złośliwego oprogramowania.
Badacze z Jednostki 42 Palo Alto Networks, której nazwa, nawiasem mówiąc, została zaczerpnięta z „Przewodnika autostopem po galaktyce” Douglasa Adamsa, gdzie liczba 42 jest odpowiedzią na „główne pytanie o życie, wszechświat i całą resztę”, ” przetestował działanie LLM jako złośliwego kodu modyfikującego. Odkryli, że sztuczna inteligencja stworzyła 10 000 odmian kodu, których nie mogły wykryć narzędzia takie jak Innocent Until Proven Guilty (IUPG) i PhishingJS. Co więcej, złośliwy kod okazał się bardziej naturalny i pozornie nieszkodliwy niż ten zmodyfikowany przy użyciu standardowego mechanizmu obfuscator.io. Jednak zdolność kodu do wyrządzania szkód po zaciemnieniu za pomocą sztucznej inteligencji nie zmniejszyła się.
Sztuczna inteligencja nie jest oryginalna w swoich metodach zacierania śladów. Wykorzystuje wiele standardowych technik: zmianę nazw zmiennych, dzielenie linii, wstawianie dodatkowego kodu, usuwanie niepotrzebnych spacji, a nawet całkowite przepisywanie kodu. I tak 10 000 razy z rzędu, co zmusza oprogramowanie antywirusowe do uznania nowych wersji za nieszkodliwe. To naprawdę niepokojące – zauważają naukowcy. Jednakże taki mechanizm może być przydatny do uczenia algorytmów potrafiących znaleźć nieznane wcześniej modyfikacje złośliwego kodu. Wzmocnienie ataków stymuluje rozwój obrony. Jedna sztuczna inteligencja tworzy wirusy, druga je łapie. W tym schemacie wydaje się, że osoba może „oferować muszle” tylko najpierw w jedną stronę, a potem w drugą.