Nowa generacja chipów Intel Meteor Lake będzie zawierać nie tylko rdzenie centralnego procesora i podsystemu graficznego, ale także debiutujący w tej linii koprocesor NPU (Neural Processing Unit), zoptymalizowany pod algorytmy sztucznej inteligencji.
Obecność jednostek NPU w chipach Intel Meteor Lake umożliwi laptopom lokalne przetwarzanie oprogramowania opartego na sztucznej inteligencji, takiego jak Stable Diffusion lub chatboty oparte na modelach językowych, bez utraty wydajności lub nadmiernego zużycia energii. Podsystem ten pomógł nawet ośmiokrotnie poprawić efektywność energetyczną obciążeń AI. Intel zademonstrował już działanie tego koprocesora na targach Computex 2023, choć wówczas nosił on nazwę VPU (Versatile Processing Unit).
Jednostka NPU jest częścią chipletu SoC procesorów Intel Meteor Lake i zawiera dwa silniki Neural Compute Engine, z których każdy może zająć się własnym obciążeniem lub połączyć siły w jednym dużym zadaniu. Twórcy oprogramowania innych firm mogą korzystać z interfejsów API zgodnych ze standardami branżowymi, co upraszcza wdrażanie platformy, twierdzi Intel. NPU jest całkowicie niezależnym podsystemem, do tego stopnia, że pojawia się w Menedżerze Zadań Windows jako osobne urządzenie obliczeniowe wraz z CPU i GPU.
Intel zademonstrował możliwości Meteor Lake w pracy z algorytmami AI na przykładzie generatora obrazów Stable Diffusion. Zintegrowany procesor graficzny wykonał zadanie testowe w 14,5 sekundy, wykazując zużycie energii na poziomie 37 W. NPU wykonało to samo zadanie nieco dłużej – 20,7 s, ale wymagało jedynie 10 W mocy. Możliwe jest także łączenie zasobów – łącznie GPU i NPU wykonały zadanie w 11,3 s, a moc była niższa niż w pierwszym przypadku – 30 W.
Intel nie był już pierwszy w tym segmencie: na pokładzie platformy Apple M1 znalazł się podsystem Neural Engine obsługujący algorytmy AI wykorzystywane w przetwarzaniu obrazu i oprogramowaniu rzeczywistości rozszerzonej; Podobny klaster mają także mobilne chipy AMD Ryzen 7000 „Phoenix” – producent nazywa je Ryzen AI.