Intel pokazał akcelerator AI Gaudi3, który w 2024 roku będzie konkurencją dla AMD i NVIDIA

Redaktor NetMaster
Redaktor NetMaster
2 min. czytania

W ramach wydarzenia AI Everywhere, podczas którego zaprezentowano konsumenckie procesory mobilne Core Ultra i chipy serwerowe Xeon Scalable piątej generacji, dyrektor generalny firmy Intel Pat Gelsinger rzucił także okiem na Gaudi3, dedykowany akcelerator obliczeniowy AI, który ma zostać wydany w 2024 roku . Stanie się tańszą alternatywą dla rozwiązań firm NVIDIA i AMD.

Według Gelsingera, Gaudi3 jest obecnie testowany w laboratoriach firmy. Szef Intela pokazał nowy produkt składający się z płytki drukowanej i ogromnego procesora graficznego, otoczonego ośmioma szybkimi modułami pamięci HBM3 (Gaudi2 jest wyposażony w sześć układów pamięci HBM3). Według Gelsingera Gaudi3 będzie znacznie bardziej produktywny niż jego poprzednik. Pobór mocy Gaudi2 wynosi około 600 W i takiego samego lub nieco większego zużycia energii można spodziewać się po Gaudi3.

Intela Gaudi2

Intel przyznaje, że Gaudi3 pod względem czystej wydajności nie będzie w stanie dorównać tym samym akceleratorom NVIDIA H100, nadchodzącym w drugiej połowie 2024 roku akceleratorom H200, czy późniejszemu Blackwell B100. Jednak segment obliczeń AI stale rośnie, dlatego Intel uważa, że ​​nie wszystkie przypadki wymagają tak ogromnych i energochłonnych rozwiązań, jak te oferowane przez konkurencję.

Firma jest przekonana, że ​​będzie w stanie konkurować na rynku akceleratorów AI, oferując ciekawą alternatywę o atrakcyjnym stosunku ceny do wydajności. Ten sam Gaudi2 zajął już swoją niszę w segmencie, gdyż rozwiązania NVIDIA są wyprzedane na wiele miesięcy z góry, a akceleratory AMD serii MI200 produkowane są w bardzo małych ilościach. Dzięki temu sprzedaż akceleratorów Gaudi dynamicznie rośnie.

Akceleratory Gaudi3 będą oferowane nie tylko jako osobne moduły, ale także jako część gotowych instancji chłodzonych cieczą. Aby to osiągnąć, Intel współpracuje z Vertiv, firmą dostarczającą krytyczne rozwiązania dla infrastruktury cyfrowej. Swoją drogą, NVIDIA też od dawna z nim współpracuje.

Udostępnij ten artykuł
Dodaj komentarz