Google ustali nowe wymagania dotyczące moderowania treści dla aplikacji na Androida korzystających ze sztucznej inteligencji. Od początku przyszłego roku twórcy takich aplikacji muszą wdrożyć funkcję zgłaszania obraźliwych lub kontrowersyjnych materiałów bezpośrednio w interfejsie użytkownika. Zmiany te dotkną nie tylko chatboty oparte na sztucznej inteligencji, ale także aplikacje tworzące treści wizualne i dźwiękowe. Inicjatywa ma na celu zwalczanie nieodpowiednich treści, w tym deepfakes i dezinformacji.
Google wyjaśniło, że nowa polityka nie będzie miała zastosowania do wszystkich aplikacji AI. Wpłynie to na chatboty, aplikacje do tworzenia obrazów, treści głosowych i wideo. Aplikacje, które przechowują wyłącznie treści wygenerowane przez sztuczną inteligencję lub wykorzystują sztuczną inteligencję do podsumowywania materiałów tekstowych, pozostaną poza zakresem nowych przepisów.
Google koncentruje się na określonych kategoriach treści, które wymagają ścisłej moderacji. Na tej liście znajdują się fałszywe filmy lub obrazy utworzone bez zgody osób na nich przedstawionych, a także nagrania prawdziwych osób wykorzystane w oszukańczych celach.
Ponadto spółka będzie szczególnie czujna w przypadku rozpowszechniania fałszywych lub wprowadzających w błąd informacji związanych z wyborami. Nie mniej rygorystyczne kontrole zostały wprowadzone w przypadku aplikacji, w których generatywna sztuczna inteligencja jest wykorzystywana przede wszystkim do zaspokajania potrzeb seksualnych, a także do tworzenia złośliwego kodu.
W swoim ogłoszeniu Google podkreślił, że generatywna sztuczna inteligencja to szybko rozwijająca się kategoria aplikacji, sugerując, że w miarę dalszego rozwoju technologii firma może ponownie rozważyć swoją politykę dotyczącą sztucznej inteligencji. Oprócz nowych zasad dotyczących treści generowanych przez sztuczną inteligencję Google rozszerzyło także zasady dotyczące uprawnień do zdjęć i filmów w Sklepie Play, ograniczając dostęp aplikacji na Androida do danych.
„Zdjęcia i filmy na urządzeniach użytkowników to ich dane osobowe i poufne, wymagające najwyższej odpowiedzialności” – podkreśliła firma w swoim oświadczeniu. „Takie dane stwarzają potencjalne zagrożenie dla użytkowników w przypadku wycieków lub innych form wykorzystania”. Ograniczanie dostępu do nich nie tylko zwiększa poziom bezpieczeństwa użytkowników, ale także zmniejsza obciążenie programistów w zakresie przetwarzania wrażliwych informacji.”