Firma Anthropic zajmująca się sztuczną inteligencją współpracuje z Departamentem Energii Stanów Zjednoczonych w celu przeprowadzenia unikalnych testów swojego modelu Claude 3 Sonnet. Celem eksperymentu jest sprawdzenie zdolności sztucznej inteligencji do „nieudostępniania” potencjalnie niebezpiecznych informacji związanych z energią jądrową, w szczególności z tworzeniem broni.
Jak dowiedziała się firma Axios, eksperci z Narodowej Administracji Bezpieczeństwa Jądrowego (NNSA) przy Departamencie Energii USA od kwietnia tego roku sprawdzają model Claude 3 Sonnet, aby upewnić się, że nie nadaje się on do tworzenia broni atomowej. Podczas „czerwonych żądań” eksperci manipulują systemem, próbując go „złamać”.
Anthropic twierdzi, że takie testy, przeprowadzane w ściśle tajnym środowisku, są pierwszymi tego rodzaju i mogą utorować drogę do podobnych relacji z innymi agencjami rządowymi. „Podczas gdy przemysł amerykański przoduje w opracowywaniu zaawansowanych modeli sztucznej inteligencji, rząd federalny zdobywa unikalną wiedzę specjalistyczną niezbędną do oceny systemów sztucznej inteligencji pod kątem konkretnych zagrożeń bezpieczeństwa narodowego” – powiedziała Marina Favaro, szefowa polityki bezpieczeństwa narodowego w Anthropic.
Przedstawiciele NNSA również podkreślali wagę pracy w tym kierunku. Wendin Smith, zastępca administratora NNSA, powiedział, że sztuczna inteligencja to „kluczowa technologia wymagająca ciągłej uwagi w kontekście bezpieczeństwa narodowego”.
Anthropic planuje kontynuować współpracę z rządem w celu opracowania silniejszych środków bezpieczeństwa dla swoich systemów. Program pilotażowy, w ramach którego testowany jest także nowszy Claude 3.5 Sonnet, potrwa do lutego 2024 roku. Firma obiecuje udostępniać wyniki testów laboratoriom naukowym i innym organizacjom.