Meta✴, OpenAI, Microsoft i Oracle oświadczyły, że planują zintegrować ze swoimi systemami najnowsze akceleratory sztucznej inteligencji AMD Instinct MI300X. Liderzy branży dali jasno do zrozumienia, że szukają alternatyw dla drogich i rzadkich akceleratorów AI NVIDIA potrzebnych do budowy i wdrażania platform AI, w tym ChatGPT.
Wysoce wydajne akceleratory AMD Instinct MI300X rozpoczną się w sprzedaży na początku przyszłego roku i jeśli okażą się odpowiednie dla firm technologicznych i dostawców usług w chmurze, mogą obniżyć koszty rozwoju modeli AI i wywrzeć presję konkurencyjną na firmę NVIDIA, która ma znaczny udział w tym rynku. Jak zauważyło wczoraj AMD, MI300X opiera się na nowej architekturze CDNA3 i jest w stanie zapewnić bardzo wysoką wydajność. Jednym z jego wyróżników jest 192 GB najnowocześniejszej, szybkiej pamięci HBM3, która świetnie sprawdzi się w przypadku dużych modeli AI.
Szefowa AMD, dr Lisa Su, porównała Instinct MI300X z jednym z najlepszych akceleratorów na rynku – NVIDIA H100. „Ta wydajność bezpośrednio poprawia komfort użytkowania [sieci neuronowych]. Kiedy zadajesz modelce pytanie, chcesz, aby szybciej odpowiedziała, zwłaszcza gdy odpowiedzi stają się bardziej złożone” – powiedziała. Główne pytanie brzmi, czy klienci korzystający ze sprzętu NVIDIA są gotowi poświęcić czas i pieniądze na wdrażanie produktów od innego dostawcy. Firma AMD powiedziała inwestorom i partnerom, że ulepszyła swój pakiet oprogramowania ROCm, aby bezpośrednio konkurować z technologią NVIDIA CUDA, do której twórcy sztucznej inteligencji są już przyzwyczajeni. Kolejnym ważnym aspektem jest cena: akceleratory NVIDIA sprzedawane są za 40 tys. dolarów AMD nie ujawniło jeszcze cen Instinct MI300X, ale według Lisy Su jego produkt powinien być tańszy w zakupie i eksploatacji od odpowiednika NVIDIA.
AMD poinformowało, że podpisało już umowy z niektórymi klientami. Meta✴ planuje wykorzystać nowe akceleratory w generatorach naklejek, edytorze obrazów AI i asystencie AI. CTO Microsoftu, Kevin Scott, powiedział, że dostęp do AMD Instinct MI300X będzie możliwy w ramach usługi internetowej Azure. Nowe chipy będą również wykorzystywane w infrastrukturze chmurowej Oracle. OpenAI poinformowało, że w projekcie Triton wykorzysta chipy AMD – nie jest to duży model językowy jak GPT, ale platforma do badań z dostępem do odpowiednich funkcji sprzętowych.
Na rok 2024 AMD planowało przychody w wysokości 2 miliardów dolarów w segmencie akceleratorów centrów danych, ale stwierdziło, że światowy rynek chipów AI wzrośnie do 400 miliardów dolarów w ciągu najbliższych czterech lat. Aby odnieść sukces na tym rynku, AMD nie będzie musiało nawet pokonywać NVIDIA, zauważył dr Su.