Firma stojąca za ChatGPT, OpenAI, oświadczyła, że utworzyła jednostkę mającą oceniać i badać modele sztucznej inteligencji pod kątem tego, co określa jako „ryzyko katastrofalne”.
Zespołem o nazwie Gotowość kierował dyrektor Center for Deployable Machine Learning w Massachusetts Institute of Technology Aleksander Madry – jak podaje profesjonalny portal społecznościowy LinkedIn, stanowisko to objął w firmie jeszcze w maju. Misją jednostki jest monitorowanie, przewidywanie i ochrona przed zagrożeniami stwarzanymi przez powstające systemy sztucznej inteligencji, począwszy od ich siły perswazji (jak w przypadku wiadomości e-mail phishingowych) po generowanie złośliwego kodu. Niektóre kategorie zagrożeń na szczęście nie pojawiły się jeszcze w realnym obszarze: obejmują one zagrożenia chemiczne, biologiczne, radiacyjne i nuklearne.
Dyrektor generalny OpenAI Sam Altman wielokrotnie wyrażał obawy, że sztuczna inteligencja może „doprowadzić do wyginięcia ludzkości”, a utworzenie odpowiedniego działu w firmie odzwierciedla to stanowisko. Firma jest również otwarta na badanie „mniej oczywistych” obszarów ryzyka związanego ze sztuczną inteligencją – dodał Altman. Każdy może skontaktować się z firmą i wyrazić swoje obawy – autorzy dziesięciu najlepszych prac otrzymają nagrodę pieniężną w wysokości 25 tys. dolarów lub pracę w OpenAI. „Wyobraźmy sobie, że daliśmy Ci nieograniczony dostęp do modeli OpenAI Whisper, Voice, GPT-4V i DALLE3, a Ty okazałeś się złoczyńcą. Rozważmy najbardziej unikalne, choć prawdopodobnie potencjalnie katastrofalnie błędne, scenariusze wykorzystania modelu” – głosi jedno z pytań konkursowych.
Zadaniem działu gotowości będzie sformułowanie „polityki rozwoju świadomej zagrożeń”, dokumentu szczegółowo opisującego podejście OpenAI do tworzenia narzędzi do oceny i monitorowania modelu sztucznej inteligencji, wysiłki mające na celu łagodzenie zagrożeń oraz strukturę zarządzania nadzorującą rozwój modelu. Zespół będzie uzupełniał inne aspekty prac OpenAI w obszarze bezpiecznej sztucznej inteligencji, koncentrując się na fazach przed i po wdrożeniu modelu.
Altman i Ilya Sutskever, główny naukowiec i współzałożyciel OpenAI, uważają, że sztuczna inteligencja o świadomości wyższej niż ludzka może pojawić się w ciągu najbliższych dziesięciu lat i nie jest pewne, czy będzie ona życzliwa. Dlatego też firma uważa za konieczne zbadanie możliwości jego ograniczenia.