SK hynix przyspieszy tworzenie pamięci HBM4, bo o to poprosił szef Nvidii

Redaktor NetMaster
Redaktor NetMaster
3 min. czytania

SK hynix przyspieszy produkcję nowej generacji układów pamięci HBM do zadań związanych ze sztuczną inteligencją po tym, jak dyrektor generalny Nvidii, Jensen Huang, zapytał południowokoreańskiego dostawcę chipów o możliwość wysyłki próbek nowej pamięci sześć miesięcy wcześniej niż pierwotnie planowano. Decyzja wskazuje na utrzymujący się światowy popyt na zaawansowane półprzewodniki, pisze Bloomberg.

Huang poruszył kwestię przyszłej wysokowydajnej pamięci HBM4 podczas spotkania z prezesem SK Group Chey Tae-wonem, jak sam południowokoreański biznesmen ogłosił w poniedziałek na marginesie szczytu technologicznego SK AI AI, pisze gazeta. Chey wierzy, że Huang odniósł sukces jako lider po części dzięki naciskowi, jaki położył na szybkie wprowadzanie nowych rozwiązań na rynek.

SK hynix informowało już wcześniej, że działa zgodnie z harmonogramem i planuje rozpocząć wysyłkę pamięci HBM4 do swoich klientów w drugiej połowie 2025 roku. Po raz kolejny potwierdziła te plany w październikowym raporcie finansowym. Południowokoreańska firma jest kluczowym dostawcą układów pamięci HBM, które wykorzystywane są w dedykowanych akceleratorach AI firmy Nvidia.

Według Bloomberga losy dostaw pamięci HBM4 w 2025 roku zależą od tego, czy południowokoreański producent chipów zdoła w terminie zakończyć skomplikowany proces kwalifikacji chipów Nvidii. Jednakże według najwyższego menedżera w SK Group „obie strony są na tej samej stronie” w sprawie harmonogramu wydań HBM4. Jednocześnie sama Nvidia podobno nie jest w stanie zaspokoić zapotrzebowania na wystarczającą liczbę chipów AI. Obie firmy pracują nad rozwiązaniem utrzymującego się niedoboru dostaw, powiedział Chey.

W poniedziałek firma SK hynix ujawniła także kilka dodatkowych szczegółów na temat planu działania dotyczącego przyszłego produktu. Producent chipów planuje wypuścić na rynek 16-warstwowe układy pamięci HBM3E na początku 2025 r., a w latach 2028–2030 także układy HBM5 i HBM5E. W zeszłym miesiącu firma odnotowała rekordowe przychody kwartalne i podała, że ​​planuje rozpocząć wysyłkę najbardziej zaawansowanych jak dotąd 12-warstwowych układów pamięci, HBM3E, w czwartym kwartale tego roku.

Samsung Electronics, który stara się dogonić SK hynix w segmencie produkcji chipów AI, poinformował, że planuje masową produkcję chipów pamięci HBM4 w drugiej połowie przyszłego roku. Samsung liczy, że produkty HBM4 pomogą mu konkurować z SK hynix w zakresie dostaw dla Nvidii.

Udostępnij ten artykuł
Dodaj komentarz