Na szczycie Snapdragon Summit Qualcomm zaprezentował najnowocześniejsze procesory zarówno do komputerów stacjonarnych, jak i telefonów. Ich cechą charakterystyczną są wbudowane akceleratory algorytmów sztucznej inteligencji – twórca skupia się na lokalnym działaniu sieci neuronowych.
Snapdragon X Elite dla platform PC i Snapdragon 8 Gen 3 dla platform telefonicznych są wyposażone w potężne jednostki przetwarzania neuronowego (NPU), które mogą lokalnie uruchamiać Snapdragon X Elite dla komputerów PC i modele AI klasy Snapdragon 8 Gen 3 Stable Diffusion. „Wkraczamy w erę sztucznej inteligencji, w której generatywna sztuczna inteligencja na urządzeniach będzie odgrywać kluczową rolę w zapewnianiu wydajnych, szybkich, spersonalizowanych, wydajnych, bezpiecznych i wysoce zoptymalizowanych doświadczeń. Snapdragon ma wyjątkową pozycję, aby kształtować i wykorzystywać potencjał sztucznej inteligencji na urządzeniach, a generatywną sztuczną inteligencję zobaczysz praktycznie wszędzie, gdzie Snapdragon się znajduje” – powiedział dyrektor generalny Qualcomm, Cristiano Amon.
Na komputerze z systemem Windows programista zademonstrował lokalne uruchamianie chatbotów z wydajnością 30 tokenów na sekundę. W smartfonach generator obrazu oparty na modelu Stable Diffusion lokalnie tworzy obraz w ciągu około jednej sekundy. Firma zademonstrowała tę technologię na prototypowym urządzeniu jeszcze wcześniej – zeszłej zimy. Qualcomm twierdzi, że uruchamianie generatywnych modeli AI lokalnie na urządzeniu zapewnia personalizację, prywatność, bezpieczeństwo, oszczędność energii, responsywność i niski koszt. W przypadku Stable Diffusion oznacza to sekundę na wygenerowanie obrazu zamiast minuty w chmurze, a także prywatność, ponieważ nie ma wymiany danych z zasobami zewnętrznymi.
Wielu partnerów firmy obiecało optymalizację swoich platform AI pod kątem chipów Qualcomm, w tym Baidu, Bloom, Meta✴, Microsoft, OpenAI, RWKV i Youdao. Urządzenia oparte na platformach Snapdragon X Elite i Snapdragon 8 Gen 3 trafią na rynek na początku przyszłego roku.