Nvidia podała, że jej konsumenckie akceleratory graficzne GeForce RTX wykazują znacznie wyższą wydajność w zadaniach AI w porównaniu do wyspecjalizowanych procesorów neuronowych w najnowszych procesorach centralnych. Te ostatnie zdaniem Nvidii nadają się jedynie do podstawowych zadań AI.
Nvidia przeprowadziła niedawno prezentację, w której pokazała możliwości swoich konsumenckich kart graficznych GeForce RTX w zadaniach związanych ze sztuczną inteligencją. Nvidia wierzy, że jej procesory graficzne mogą zapewnić doskonałą wydajność w aplikacjach AI w porównaniu z dedykowanymi jednostkami przetwarzania neuronowego (NPU) znajdującymi się w wielu współczesnych procesorach mobilnych firm Intel, AMD, Apple i Qualcomm. Te wbudowane akceleratory AI oferują wydajność na poziomie 10–45 TOPS (biliard operacji na sekundę). Według Nvidii jej karty graficzne są w stanie dostarczyć od 100 do 1300 TOPS, w zależności od modelu.
Na poparcie tej tezy zaprezentowano wyniki testów, w których porównano karty graficzne GeForce RTX z chipem Apple M3 Max zainstalowanym na najnowszym MacBooku Pro i posiadającym NPU o wydajności 18 TOPS. W testach mierzono wydajność popularnych aplikacji do przetwarzania obrazu i wideo wykorzystujących sztuczną inteligencję, takich jak Stable Diffusion, Arnold, Blender i innych. Test wykazał, że laptop wyposażony w mobilną kartę graficzną GeForce RTX 4090 przewyższa MacBooka Pro z M3 Max ponad 5-krotnie. Co więcej, według Nvidii nawet mobilna karta graficzna średniej klasy RTX 4050 przewyższa tego samego MacBooka Pro ponad 2 razy. Średnio mobilny RTX 4090 przewyższał M3 Max o 5x, a mobilny RTX 4050 przewyższał M3 Max o 50-100%.
W innym teście porównawczym zmierzono prędkość w modelach wielkojęzycznych (LLM). Tutaj GeForce RTX 4090 również znacząco przewyższył chip Apple’a, nawet gdy wzrósł rozmiar przetwarzanych pakietów danych. GeForce RTX 4090 był o 42% szybszy od M3 Max.
Według Nvidii wyniki testów wyraźnie pokazują, że wydajność procesorów graficznych w zadaniach AI może być wielokrotnie większa niż wyspecjalizowanych procesorów neuronowych (NPU). Firma zaproponowała nawet podzielenie sprzętu AI na trzy kategorie – podstawową sztuczną inteligencję, sztuczną inteligencję premium i ciężką sztuczną inteligencję. Ostatnia kategoria odnosi się do wydajnych rozwiązań serwerowych opartych na procesorach graficznych, które są w stanie dostarczyć tysiące TOPS. Według Nvidii konsumenckie karty graficzne są w stanie obsłużyć sztuczną inteligencję premium, ale wbudowane jednostki NPU wystarczą tylko w przypadku podstawowej sztucznej inteligencji.
Zdaniem ekspertów jest jednak zbyt wcześnie, aby mówić, że procesory graficzne całkowicie zastąpią NPU w komputerach nastawionych na pracę z AI. Na przykład Microsoft w swojej definicji komputera PC ze sztuczną inteligencją (AI PC) wymaga zarówno procesora graficznego, jak i NPU. Ponadto nie zapominaj o efektywności energetycznej, ponieważ wydajne procesory graficzne zużywają znacznie więcej energii w porównaniu do zoptymalizowanych procesorów neuronowych.
Ogólnie rzecz biorąc, w miarę rozwoju narzędzi opartych na sztucznej inteligencji i zwiększania się złożoności rozwiązywanych przez nie problemów moc obliczeniowa wyspecjalizowanych jednostek NPU może okazać się niewystarczająca. Oznacza to, że rola wydajnych procesorów graficznych będzie tylko rosnąć.
Na koniec zauważamy, że Nvidia nie przegapiła okazji do porównania swoich kart graficznych z rozwiązaniami konkurencji. W teście generowania obrazu sztucznej inteligencji desktopowy GeForce RTX 4090 wykazał się niemal 3-krotną przewagą nad flagowym akceleratorem graficznym AMD Radeon RX 7900 XTX. Jednocześnie wszystkie modele linii GeForce RTX, począwszy od RTX 4070 Super, przewyższały najpotężniejszą kartę graficzną AMD.