Akcelerator dla akceleratora: Fujitsu wprowadziło oprogramowanie, które może podwoić prędkość przetwarzania zadań AI

Redaktor NetMaster
Redaktor NetMaster
3 min. czytania

Fujitsu ogłosiło dostępność oprogramowania pośredniego zaprojektowanego w celu optymalizacji wykorzystania akceleratorów AI. Jak podano w komunikacie prasowym, rozwiązanie to pozwala na zwiększenie wydajności akceleratorów, co jest szczególnie istotne w kontekście niedoboru tego typu zasobów obliczeniowych.

Oprogramowanie rozróżnia kod wymagający do działania procesora graficznego od kodu, który może działać na samym procesorze, optymalizując alokację zasobów i zarządzanie pamięcią na różnych platformach i aplikacjach AI. Dodatkowo oprogramowanie zarządza priorytetem przeprowadzanych obliczeń, preferując bardziej wydajne procesy. Co ciekawe, alokacja nie opiera się na tradycyjnym podejściu polegającym na opieraniu wyboru zasobów na całym zadaniu.

Źródło obrazu: Fujitsu

Firma ogłosiła rozwiązanie (Adaptive GPU Allocator) w listopadzie 2023 roku. Następnie rozmawiali o konieczności wykorzystania autorskiego frameworku opartego na TensorFlow i PyTorch. Obecne ogłoszenie nie wspomina o tym wyraźnie, ale podaje się, że produkt łączy technologię adaptacyjnej alokacji zasobów każdego pojedynczego akceleratora z pewnego rodzaju optymalizacją opartą na sztucznej inteligencji. Co więcej, nowy produkt umożliwia sprawną realizację nawet tych zadań, które nie mieszczą się w całości w pamięci akceleratora. Podczas testów byliśmy w stanie przetworzyć nawet 150 GB danych AI na GPU z około 30 GB wolnej pamięci RAM.

Fujitsu stwierdziło, że rozwiązanie zwiększyło wydajność obliczeniową sztucznej inteligencji 2,25 razy w testach w świecie rzeczywistym w AWL, Xtreme-D i Morgenrot. Natomiast dwóch dużych klientów, Tradom i Sakura Internet, rozpoczęło już wdrażanie nowego narzędzia. „Rozwiązując problem niedoborów akceleratorów i energii spowodowanych rosnącym globalnym zapotrzebowaniem na sztuczną inteligencję, Fujitsu pragnie przyczynić się do zwiększenia produktywności biznesowej i kreatywności swoich klientów” – stwierdziła firma.

Jednak na razie rozwiązanie może przyspieszyć działanie akceleratorów w jednym serwerze, ale firma pracuje nad tym, aby mogło obsługiwać wiele procesorów graficznych zainstalowanych w kilku serwerach. Innymi słowy, nie pozwoli to jeszcze przyspieszyć całego klastra AI, ale nadal jest wygodnym sposobem na „wyciśnięcie więcej” z serwera GPU, zauważył zasób The Register.

Powiązane materiały:

Fujitsu stworzy superkomputer zettaflop AI Fugaku Next 144 rdzenie, chiplety, SRAM i opakowania 3D: Fujitsu podzieliło się szczegółami na temat nadchodzących procesorów MONAKA Arm Fujitsu wprowadziło nowe narzędzia do pracy z generatywnymi modelami AI klasy korporacyjnej Były menadżer Linux Foundation ujawnił powody wydalenia rosyjskich programistów z listy twórców jądra Linuksa 11 uczestników z Rosji zostało „ekskomunikowanych” z rozwoju jądra Linuksa

Źródła:

fujitsu.com Rejestr

Udostępnij ten artykuł
Dodaj komentarz