Władze UE opublikowały wczoraj pierwszy projekt kodeksu postępowania dotyczącego modeli sztucznej inteligencji ogólnej (AGI), znanych również jako „silna sztuczna inteligencja” i „sztuczna inteligencja na poziomie ludzkim”. Dokument, który zostanie ukończony do maja przyszłego roku, zawiera wytyczne dotyczące zarządzania ryzykiem, plan zapewnienia zgodności oraz sposoby uniknięcia przez firmy wysokich kar.
Europejska „ustawa o sztucznej inteligencji” weszła w życie 1 sierpnia, pozostawiając miejsce na utrwalenie przyszłych przepisów dotyczących ogólnej sztucznej inteligencji. Niniejszy projekt dokumentu stanowi pierwszą próbę wyjaśnienia, czego oczekuje się od zaawansowanych modeli; Zainteresowane strony mają czas na przekazanie informacji zwrotnych i zaproponowanie ulepszeń, zanim przepisy wejdą w życie.
Modele AI ogólnego przeznaczenia definiuje się jako systemy trenowane z całkowitą mocą obliczeniową większą niż 10²⁵ flopów. Firmy, które mają zostać objęte dokumentem, to OpenAI, Google, Meta✴, Anthropic i Mistral – lista ta może się wydłużać.
Kodeks obejmuje kilka aspektów ogólnych twórców sztucznej inteligencji: przejrzystość, zgodność z prawami autorskimi, ocenę ryzyka oraz ograniczanie ryzyka technicznego i zarządzania. Twórcy sztucznej inteligencji powinni ujawnić roboty internetowe używane do uczenia modeli – jest to ważne dla właścicieli praw autorskich i twórców treści. Ocena ryzyka obejmuje środki mające na celu zapobieganie cyberprzestępczości, włączenie dyskryminujących materiałów do zestawów szkoleniowych i utratę kontroli nad sztuczną inteligencją.
Od twórców sztucznej inteligencji oczekuje się opracowania ram bezpieczeństwa i ochrony (SSF). Dokument ten pomoże w ustrukturyzowaniu polityk tak, aby ograniczały zagrożenia i łagodziły je proporcjonalnie do poszczególnych ryzyk systemowych. Proponowane przez UE regulacje obejmują także obszary techniczne, w tym ochronę tych modeli, zapewnienie odpornej na błędy kontroli dostępu i ciągłą ponowną ocenę ich skuteczności. Sekcja opisująca mechanizmy interakcji z władzami przewiduje wdrożenie odpowiedzialności przez samych deweloperów: wymagana jest stała ocena ryzyka i, w razie potrzeby, zaangażowanie zewnętrznych ekspertów. Naruszenie ustawy o sztucznej inteligencji grozi surową grzywną w wysokości do 35 milionów euro lub 7% globalnych rocznych zysków, w zależności od tego, która wartość jest większa. Strony, których dotyczy projekt ustawy, mogą zgłaszać uwagi do 28 listopada; sfinalizowanie dokumentu nastąpi do 1 maja 2025 r.