Dziś sztuczna inteligencja stała się synonimem platform chatbotów opartych na chmurze, takich jak Bing Chat, Google Bard, Windows Copilot i ChatGPT. Jednak przed oficjalną premierą procesorów Meteor Lake 14 grudnia Intel będzie próbował przekonać konsumentów, że sztuczna inteligencja może (i powinna) działać lokalnie na ich komputerach. Nowa generacja układów obejmie nie tylko rdzenie procesora i podsystem graficzny, ale także koprocesor AI NPU (Neural Processing Unit). Intel przyciągnął ponad 100 producentów oprogramowania, którzy opracowali ponad 300 funkcji AI do jego wykorzystania.
Zmiana sposobu, w jaki klienci myślą o korzystaniu ze sztucznej inteligencji, może stanowić wyzwanie, ponieważ większość konsumentów nie zastanawia się, czy narzędzie AI działa w chmurze, czy na komputerze stacjonarnym. Intel stara się zmienić tę sytuację na wszelkie możliwe sposoby, począwszy od konferencji Intel Innovation po raporty finansowe. Firma zachęca programistów do wykorzystania w swoich aplikacjach koprocesora sztucznej inteligencji NPU i oferuje zestaw deweloperski OpenVINO o otwartym kodzie źródłowym.
Nie wszyscy programiści koniecznie będą głośno opowiadać o wszystkich możliwościach AI swojego oprogramowania. Jednak Intel zidentyfikował kilku partnerów, którzy są gotowi zrobić taki krok, a wśród nich są Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit i Zoom .
Niektóre firmy wymieniały już korzyści płynące ze stosowania NPU. Dlatego Deep Render twierdzi, że NPU pozwoli ich algorytmowi na pięciokrotnie wydajniejszą kompresję wideo. Topaz Labs, które wykorzystuje sztuczną inteligencję do poprawy jakości zdjęć i filmów, planuje wykorzystać jednostki NPU do przyspieszenia swoich modeli głębokiego uczenia się. XSplit użyje NPU do poprawy wydajności aplikacji Vcam w celu usuwania tła obrazu z kamery internetowej i manipulowania nim.
Większość firm uważa, że chociaż jednostka NPU może być najbardziej energooszczędnym sposobem przyspieszania niektórych funkcji sztucznej inteligencji, najszybszym sposobem osiągnięcia tego celu będzie użycie NPU, procesora graficznego i procesora razem na komputerze lokalnym. W rzeczywistości odpowiada to punktowi widzenia samego Intela.
Niektórzy programiści łączą przetwarzanie lokalne z sztuczną inteligencją w chmurze. Na przykład narzędzie Wypełnianie generatywne firmy Adobe wykorzystuje chmurę do generowania nowych scen na podstawie opisów tekstowych użytkownika, ale dodawanie tych scen do obrazu odbywa się na komputerze PC.
Oczywiście w obliczu boomu na sztuczną inteligencję Intel postara się zrobić wszystko, aby słynne hasło „Intel Inside” zamieniło się dla konsumenta w „AI Inside”.