Nie wiadomo dokładnie, czy zapotrzebowanie na usługi Microsoft AI jest duże, czy też firma po prostu nie ma wystarczających zasobów obliczeniowych, ale gigant IT musiał negocjować z Oracle w sprawie zastosowania akceleratorów AI w centrum danych tej ostatniej. Jak donosi The Register, mówimy o wykorzystaniu sprzętu Oracle do „odciążenia” niektórych modeli językowych Microsoft używanych w Bing.
We wtorek firmy ogłosiły zawarcie wieloletniej umowy. Według Microsoftu jednoczesne korzystanie przez firmę zarówno z Oracle Cloud, jak i Microsoft Azure poszerzy możliwości klientów i przyspieszy pracę z usługami wyszukiwania. Współpraca wynika z faktu, że Microsoft potrzebuje coraz większych zasobów obliczeniowych do deklarowanego „wybuchowego wzrostu” swoich usług AI, a Oracle ma do wynajęcia dziesiątki tysięcy akceleratorów NVIDIA A100 i H100.
Usługa Oracle Interconnect zapewnia interoperacyjność z chmurą Microsoft Azure, umożliwiając usługom działającym na platformie Azure interakcję z zasobami Oracle Cloud Infrastructure (OCI). To rozwiązanie było już stosowane wcześniej, ale dla zewnętrznych klientów dwóch firm. Firma Microsoft używa teraz usługi Interconnect wraz z usługą Azure Kubernetes do uruchamiania węzłów AI w chmurze Oracle na potrzeby usługi Bing Chat.
Firma Microsoft zintegrowała chatbota Bing Chat ze swoją usługą wyszukiwania i przeglądarką w lutym. Nie tak dawno temu dodano możliwość np. generowania obrazów bezpośrednio podczas dialogu. Jednocześnie użycie dużych modeli językowych wymaga ogromnej liczby akceleratorów do ich uczenia, ale wnioskowanie wymaga jeszcze większej mocy obliczeniowej.
Oracle twierdzi, że superklastry chmurowe firmy, z których prawdopodobnie będzie korzystał Microsoft, mogą skalować się do 32 768 akceleratorów A100 AI lub 16 384 akceleratorów H100 przy użyciu sieci RDMA o bardzo małych opóźnieniach. Dodatkiem jest pamięć masowa klasy petabajtów. Sam Microsoft unika dokładnego określenia, ile węzłów Oracle potrzebuje firma i wygląda na to, że nie zamierza tego robić w przyszłości.
To nie pierwsza współpraca konkurentów. We wrześniu firma Oracle ogłosiła zamiar hostowania systemów baz danych w centrach danych Azure. Co więcej, już w maju 2023 roku Microsoft i Oracle badały możliwość dzierżawienia od siebie serwerów AI na wypadek, gdyby nagle zabrakło im mocy obliczeniowej dla dużych klientów chmurowych. Wcześniej krążyły plotki, że Microsoft podpisał podobne umowy z CoreWeave i Lambda Labs, do których NVIDIA jest bardziej przychylna w kwestiach dostaw akceleratorów. Po drodze Microsoft szuka bardziej opłacalnych alternatyw dla modeli językowych OpenAI.
Powiązane materiały:
OpenAI i Microsoft są zajęte tworzeniem własnych chipów AI, aby zmniejszyć zależność od firmy NVIDIA Microsoft nazwał obecność akceleratorów AI czynnikiem ryzyka awarii usług Microsoft i Google zwiększają nakłady inwestycyjne na infrastrukturę chmury i sztucznej inteligencji w związku z rosnącym popytem na usługi AI Dziesiątki tysięcy procesorów graficznych na wodach międzynarodowych – Del Complex wymyślił, jak ominąć sankcje i ograniczenia nałożone na sztuczną inteligencję Rosyjscy programiści zaczęli oferować uniwersalne licencje na oprogramowanie – dla Windows i Linux