Dostawca usług w chmurze Amazon Web Services (AWS) ogłosił wprowadzenie nowego modelu konsumpcji, bloków pojemności EC2 dla ML, zaprojektowanego dla przedsiębiorstw, które chcą zarezerwować dostęp do akceleratorów obliczeniowych w celu obsługi krótkotrwałych obciążeń AI.
Rozwiązanie Amazon EC2 Pojemność Blocks for ML umożliwia klientom zarezerwowanie dostępu do „setek” akceleratorów NVIDIA H100 w EC2 UltraClusters, które zostały zaprojektowane z myślą o wysokowydajnych obciążeniach związanych z uczeniem maszynowym. Klienci po prostu wskazują żądany rozmiar klastra, datę rozpoczęcia i zakończenia dostępu. Zwiększa to przewidywalność dostępności zasobów sztucznej inteligencji, eliminując jednocześnie potrzebę płacenia za dostęp do wydajności, gdy nie jest ona używana. AWS również na tym zyskuje, ponieważ takie podejście pozwala lepiej wykorzystać istniejące zasoby.
Bloki pojemności EC2 oferują klastry od 1 do 64 instancji EC2 P5 z łącznością z adapterem Elastic Fabric Adapter (EFA) drugiej generacji. Klastry można rezerwować na okres od 1 do 14 dni, nie później jednak niż z ośmiotygodniowym wyprzedzeniem. Dzięki temu idealnie nadają się do szkolenia i dostrajania modeli sztucznej inteligencji, krótkoterminowych eksperymentów lub do obsługi szczytowych wolumenów popytu, na przykład podczas wprowadzania nowego produktu na rynek, twierdzi AWS.
Holger Mueller, analityk w Constellation Research Inc., zauważył, że kreatywne podejście AWS maksymalizuje efektywność istniejących zasobów akceleratorów, na które obecnie jest największe zapotrzebowanie, a dostęp do nich jest kosztowny. Według niego podejście to zapożyczono z epoki komputerów mainframe i po raz pierwszy zastosowano w latach 70. XX wieku, kiedy dostęp był rozłożony w czasie pomiędzy setki użytkowników o różnym obciążeniu pracą.
Klienci mogą używać konsoli AWS, interfejsu CLI lub pakietu SDK do wyszukiwania i rezerwowania dostępnych klastrów. Dzięki blokom pojemności EC2 klienci płacą tylko za zarezerwowany czas. Rozwiązanie jest dostępne w regionie AWS US East (Ohio). Dzięki temu rozwiązaniu dostępnemu w przyszłości zwiększymy liczbę regionów i lokalnych AWS.
Powiązane materiały:
AWS ogłasza dostępność podstawowych rozwiązań: szeroki wybór podstawowych modeli sztucznej inteligencji i dostosowywanie do potrzeb klienta Gdyby tylko nie poszli do Microsoftu i Google: Amazon wyda 100 milionów dolarów, aby pomóc klientom opanować generatywną sztuczną inteligencję AWS przygląda się nowym akceleratorom AMD Instinct MI300 AI AWS ogłosiło dostępność instancji Inf2 EC2 opartych na autorskich akceleratorach AI Inferentia2 Rosyjscy programiści zaczęli oferować uniwersalne licencje na oprogramowanie – dla Windows i Linux