„To bardzo mało: rosyjska sztuczna inteligencja będzie musiała zwiększyć liczbę akcelerów GPU siedem razy do 2030 r.

Redaktor NetMaster
Redaktor NetMaster
3 min. czytania

Siła rosyjskich centrów przetwarzania danych dla systemów sztucznej inteligencji powinna wynosić ponad 70 tysięcy obliczeń w równowartości NVIDIA A100 do 2030 r. Jest to napisane przez Vedomosti w odniesieniu do wiceprezydenta Rostelecom, Darii Khalitova. Dodał, że oznacza to predykcyjną agregowaną potrzebę zdolności sprzętowych w klapach (operacje zmiennoprzecinkowe na sekundę), które można spełnić na podstawie układów różnych dostawców.

Inne świadome źródło w dużym zachmurzonym dostawcy powiedziało, że sfera IT jest najbardziej poszukiwana przez akceleratorów NVIDIA A100 i H100. Pierwszy model zapewnia elastyczne możliwości skalowania zadań obliczeniowych, a drugi jest bardziej nowy i, według producenta, przekracza poprzednik w obliczeniach o 3-6 razy. Dyrektor New MTS Web Services, Aleksiej Kuznetsov dodał, że największe na świecie firmy IT używają głównie akceleratorów NVIDIA H100, nowszych B200 lub więcej A100 do szkolenia AI. Zauważył, że rynek rosyjski użył głównie A100.

Eksperci uważają, że dość trudno jest określić dokładną objętość takich akceleratorów w krajowych centrach przetwarzania danych, ponieważ obliczenia AI są prowadzone głównie w własnej infrastrukturze przedsiębiorstw. Zgodnie z obliczeniami Stowarzyszenia Fintech, w ciągu ostatnich 10 lat liderzy rynku zainwestowali co najmniej 650 miliardów rubli na rynek Rosji, dzięki czemu do połowy 2023 r. 95 % firm wprowadziło i technologię do głównych procesów. Stowarzyszenie dodało, że nie ma jeszcze danych na temat bezwzględnych wolumenów rynku AI dla 2024 r., Ale oczekuje się, że wskaźnik ten wyniesie co najmniej 780 miliardów rubli, przy co najmniej 30 %.

Rząd Federacji Rosyjskiej wcześniej przewidział, że rynek AI w kraju osiągnie 1 bilion rubli w 2025 r. Według Rostelecom rynek AI-Acceleratorów wzrośnie 6–7 razy do 2030 r. Według ekspertów ilość inwestycji w tę liczbę GPU będzie zależeć od tego, czy akceleratory będą używane tylko w istniejących centrach danych, w tym w nowych centrach danych. W przypadku nowych obiektów kryterium cenowe będzie udziałem AI w planowanym obciążeniu i regionie umieszczania. Ekspert uważa, że ​​widelec za 70 tysięcy akceleratorów NVIDIA A100 lub analogi do inwestycji w istniejące i nowe centra danych można oszacować na 1,5–2 mld USD.

Według ISS-konsulting, pod koniec ubiegłego roku liczba uporczywych miejsc w rosyjskich ośrodkach osiągnęła w tym roku 82 tysiące. Dbranin CEO Alexei Khakhunov przypomniał sobie, że AI -AClelerators masowo uwalniają tylko NVIDIA i AMD, a H200 są uważane za standard szkolenia. „Jest to w przybliżeniu jak A100, pomnożone przez 15”, powiedział ekspert, dodając, że 70 tysięcy akceleratorów A100 w skali federalnej to bardzo niewiele. „Tesla ma około 350 tysięcy kart H200, tj. Jest to prawie dwa rzędy wielkości mniej [poprzez moc obliczeniową – ok. Ed.] – powiedział Khakhunov. Według niego, obecnie rosyjskie techniki, takie jak Yandex i Sber, mają około 10 tysięcy takich akceleratorów. Oficjalne dane na stronie Yandex wskazują, że trzej superkomputery firmy użyły 3500 akceleratorów A100 na koniec 2021 r.

Udostępnij ten artykuł
Dodaj komentarz