OpenAI wkrótce zacznie korzystać z akceleratorów AMD, a w 2026 roku wypuści własny układ AI

Redaktor NetMaster
Redaktor NetMaster
2 min. czytania

OpenAI, rozsławione dzięki chatbotowi ChatGPT, od kilku miesięcy współpracuje z firmą Broadcom nad stworzeniem swojego pierwszego akceleratora sztucznej inteligencji, pisze Reuters, powołując się na własne źródła. Według nich, w tym celu OpenAI utworzyło zespół programistów chipów składający się z około 20 osób, w tym czołowych specjalistów, którzy wcześniej brali udział w tworzeniu jednostek przetwarzających tensor (TPU) w Google, m.in. Thomasa Norrie i Richarda Ho.

Szczególną uwagę zwraca się na zdolność akceleratora do obsługi wcześniej wyszkolonych sieci neuronowych, ponieważ analitycy przewidują, że zapotrzebowanie na chipy wnioskowujące może przewyższyć zapotrzebowanie na akceleratory sztucznej inteligencji do modeli szkoleniowych w miarę wdrażania większej liczby aplikacji AI. Produkcja nowego chipa w zakładach tajwańskiego producenta TSMC ma rozpocząć się w 2026 roku.

Źródła agencji dowiedziały się również o planach OpenAI dotyczących rozpoczęcia korzystania z chipów AMD AI wraz z akceleratorami Nvidia za pośrednictwem platformy chmurowej Microsoft Azure w celu zaspokojenia rosnących potrzeb w zakresie infrastruktury AI. Mowa o akceleratorach AMD Instinct MI300.

Akceleratory Nvidii stanowią obecnie ponad 80% udziału w rynku akceleratorów AI. Jednak niedobory i rosnące koszty zmuszają głównych klientów, takich jak Microsoft, Meta✴, a teraz OpenAI, do poszukiwania alternatyw, zarówno wewnętrznie, jak i zewnętrznie. Jednak w najbliższej przyszłości OpenAI będzie w dalszym ciągu opierać się głównie na rozwiązaniach Nvidii, zarówno w zakresie uczenia modeli, jak i wnioskowania.

Udostępnij ten artykuł
Dodaj komentarz