Pracuj dla nas: AWS udostępni naukowcom klastry 40 tysięcy akceleratorów Trainium AI

Redaktor NetMaster
Redaktor NetMaster
3 min. czytania

AWS zamierza przyciągnąć więcej osób do tworzenia aplikacji i frameworków AI przy użyciu rodziny akceleratorów Tranium firmy Amazon. Jak podaje The Register, w ramach nowej inicjatywy Build on Trainium, dysponującej dofinansowaniem w wysokości 110 mln dolarów, środowisko akademickie otrzyma klastry UltraClaster, w tym aż do 40 tys. akceleratorów.

W ramach programu Build on Trainium planowane jest udostępnienie klastra przedstawicielom uczelni wyższych zajmujących się rozwojem nowych algorytmów AI, które mogą zwiększyć efektywność wykorzystania akceleratorów i poprawić skalowanie obliczeń w dużych systemach rozproszonych . Nie określono, na jakiej generacji chipów, Trainium1 czy Trainium2, zostaną zbudowane klastry.

Źródło obrazu: AWS

Jak wyjaśnia sam blog AWS, badacze mogą wymyślić nowe architektury modeli AI lub nową technologię optymalizacji wydajności, ale mogą nie mieć dostępu do zasobów HPC na potrzeby dużych eksperymentów. Co równie ważne, oczekuje się, że owoce pracy będą dystrybuowane za pośrednictwem modelu open source, dzięki czemu skorzysta na tym cały ekosystem uczenia maszynowego.

Jednak altruizm ze strony AWS jest niewielki. Po pierwsze, na wybrane projekty zostanie wydane 110 milionów dolarów w formie pożyczek w chmurze, nie jest to pierwszy raz. Po drugie, firma faktycznie próbuje przenieść część swoich zadań na inne osoby. Niestandardowe chipy AWS, w tym akceleratory AI do uczenia i wnioskowania, pierwotnie miały na celu poprawę efektywności wewnętrznych zadań firmy. Jednak frameworki niskiego poziomu itp. Oprogramowanie nie jest przeznaczone do swobodnego korzystania przez szerokie grono osób, jak ma to miejsce na przykład w przypadku NVIDIA CUDA.

Innymi słowy, aby spopularyzować Trainium, AWS potrzebuje oprogramowania łatwiejszego do nauki i jeszcze lepszych, gotowych rozwiązań problemów z aplikacjami. To nie przypadek, że Intel i AMD mają tendencję do oferowania programistom gotowych frameworków, takich jak PyTorch i TensorFlow, zoptymalizowanych pod kątem ich akceleratorów, zamiast próbować zmuszać ich do programowania dość niskiego poziomu. AWS robi to samo z produktami takimi jak SageMaker.

Projekt jest w dużej mierze możliwy dzięki nowemu interfejsowi Neuron Kernel Interface (NKI) dla AWS Tranium i Inferentia, który zapewnia bezpośredni dostęp do zestawu instrukcji chipa i umożliwia badaczom budowanie zoptymalizowanych jąder obliczeniowych dla nowych modeli, optymalizację wydajności i ogólnie innowacje. Jednak naukowcy – w przeciwieństwie do zwykłych programistów – często są zainteresowani pracą z systemami niskiego poziomu.

Powiązane materiały:

Google ogłasza dostępność akceleratorów TPU v6 Trillium AI Druga generacja akceleratorów M**a MTIA AI jest trzykrotnie szybsza od pierwszej Microsoft wprowadził 128-rdzeniowy procesor Arm Cobalt 100 i akcelerator AI Maia 100 własnej konstrukcji Huawei skrzyżował dysk SSD z taśmą w napędzie MED: w związku z sankcjami firma nie może już polegać na dostawach dysków twardych Prawie 3 kW na 16 mkw. zobacz: nowy interfejs termiczny zapowiada przełom w chłodzeniu

Źródła:

Rejestr amazon.com

Udostępnij ten artykuł
Dodaj komentarz