Nowe badanie IEEE wykazało, że hakowanie sztucznie inteligentnych robotów jest tak proste, jak oszukiwanie chatbotów. Naukowcom udało się zmusić roboty do wykonywania niebezpiecznych czynności za pomocą prostych poleceń tekstowych.
Według HotHardware, choć hakowanie urządzeń takich jak iPhone czy konsole do gier wymaga specjalnych narzędzi i umiejętności technicznych, hakowanie dużych modeli językowych (LLM), takich jak ChatGPT, jest znacznie łatwiejsze. Aby to zrobić, po prostu utwórz skrypt, który oszuka sztuczną inteligencję, aby uwierzyła, że żądanie mieści się w granicach tego, co dozwolone lub że zakazy można tymczasowo zignorować. Na przykład wystarczy, że użytkownik przedstawi zakazany temat w ramach pozornie nieszkodliwej bajki na dobranoc, aby model wywołał nieoczekiwaną reakcję, zawierającą instrukcje dotyczące tworzenia niebezpiecznych substancji lub urządzeń, które powinny być natychmiast blokowane przez system.
Okazało się, że hakowanie LLM jest na tyle proste, że poradzą sobie z nim nawet zwykli użytkownicy, a nie tylko specjaliści od cyberbezpieczeństwa. Dlatego amerykańskie stowarzyszenie inżynierów Instytut Inżynierów Elektryków i Elektroników (IEEE) wyraziło poważne obawy po opublikowaniu nowych badań, które wykazały, że w podobny sposób można zhakować roboty sterowane sztuczną inteligencją. Naukowcy udowodnili, że cyberataki tego rodzaju mogą np. powodować, że pojazdy autonomiczne celowo potrącają pieszych.
Wśród wrażliwych urządzeń znalazły się nie tylko projekty koncepcyjne, ale także powszechnie znane. Na przykład roboty Figura, które niedawno zademonstrowano w fabryce BMW, czy psy-roboty Spot firmy Boston Dynamics. Urządzenia te wykorzystują technologie podobne do ChatGPT i można je oszukać za pomocą określonych żądań, prowadząc do działań całkowicie sprzecznych z ich pierwotnym przeznaczeniem.
Podczas eksperymentu badacze zaatakowali trzy systemy: robota Unitree Go2, autonomiczny pojazd Clearpath Robotics Jackal oraz symulator samochodu autonomicznego NVIDIA Dolphins LLM. Włamanie wykorzystało narzędzie, które zautomatyzowało proces tworzenia złośliwych żądań tekstowych. Wynik był przerażający – w ciągu kilku dni udało się zhakować wszystkie trzy systemy ze 100% skutecznością.
W swoim badaniu IEEE cytuje także naukowców z Uniwersytetu Pensylwanii, którzy zauważyli, że sztuczna inteligencja w niektórych przypadkach nie tylko wykonywała złośliwe polecenia, ale także wydawała dodatkowe zalecenia. Na przykład zaproponowano, że roboty zaprogramowane do wyszukiwania broni będą wykorzystywać meble jako improwizowany sposób wyrządzania ludziom krzywdy. Eksperci podkreślają, że pomimo imponujących możliwości współczesnych modeli AI, pozostają one jedynie mechanizmami predykcyjnymi, bez możliwości zrozumienia kontekstu czy konsekwencji swoich działań. Dlatego kontrola i odpowiedzialność za ich wykorzystanie muszą pozostać w rękach ludzkich.