Google pokazało systemy z własnymi TPU, na których trenowane są modele Gemini i Apple Intelligence AI

Redaktor NetMaster
Redaktor NetMaster
5 min. czytania

W dużym laboratorium w siedzibie Google w Mountain View w Kalifornii znajdują się setki szaf serwerowych obsługujących zadania inne niż wyszukiwarka Google Cloud i inne obciążenia. Testowane są tutaj jednostki przetwarzające Tensor (TPU) opracowane przez samego Google. Dziennikarzom CNBC udało się zajrzeć do wnętrza tego laboratorium.

TPU TPU Google pojawiły się w 2015 roku, a klientom chmurowym udostępniono w 2018 roku – służą w szczególności do uczenia modeli Apple Intelligence i Google Gemini. Google był pierwszym dostawcą usług w chmurze, który zbudował własne chipy AI – Amazon ogłosił Inferentię dopiero trzy lata później, a Microsoft zaprezentował Maię dopiero pod koniec 2023 roku. Ale ten prymat nie pomógł Google stać się liderem w wyścigu generatywnej sztucznej inteligencji: Gemini pojawiło się ponad rok po OpenAI ChatGPT. Jednocześnie oferty z zakresu sztucznej inteligencji pomogły Google Cloud nabrać dynamiki: według najnowszego raportu kwartalnego Alphabet ten segment firmy wykazał wzrost o 29%, a kwartalne przychody po raz pierwszy przekroczyły 10 miliardów dolarów.

Na pomysł stworzenia własnego chipa Google wpadło, gdy w 2014 roku zastanawiało się, jakie zasoby powinien posiadać, aby wszyscy użytkownicy usług firmy mogli korzystać z interfejsu głosowego przynajmniej przez 30 sekund dziennie. Jak się okazało, liczbę komputerów w centrach danych trzeba było podwoić. Google TPU pomogło zwiększyć wydajność niektórych zadań nawet 100-krotnie. Firma nadal korzysta zarówno z tradycyjnych procesorów, jak i procesorów graficznych Nvidia. Ale Google TPU to układ scalony specjalnego przeznaczenia (ASIC) przeznaczony tylko do określonego rodzaju zadań. Firma ma do dyspozycji jeszcze jeden taki chip – Video Coding Unit, który służy do przetwarzania wideo.

Google, wzorując się na Apple, zaczął wykorzystywać własne chipy w urządzeniach własnej konstrukcji: w smartfonach Pixel 9 jest to procesor Tensor G4 czwartej generacji, a w słuchawkach Pixel Buds Pro 2 jest to Tensor A1. Jednak dużym wyróżnikiem Google jest jego serwerowy TPU, który ma obecnie 58% udziału w rynku wśród własnych akceleratorów sztucznej inteligencji w chmurze. Procesory graficzne Nvidii są bardziej elastyczne, ale także droższe i brakuje ich w dzisiejszym środowisku, kiedy boom na sztuczną inteligencję spowodował gwałtowny wzrost akcji firmy, która teraz konkuruje z Apple i Microsoftem o miano najcenniejszej spółki publicznej na świecie. Prawdziwy test TPU Google nastąpi, gdy w przyszłym roku platforma Apple Intelligence zostanie udostępniona na iPhone’ach i komputerach Mac.

Opracowanie alternatywy dla akceleratorów Nvidii to niemal wyczyn. Proces jest tak skomplikowany i kosztowny, że nawet Google nie jest w stanie zrobić tego samodzielnie. Od czasu wprowadzenia pierwszego TPU firma skorzystała ze wsparcia producenta chipów Broadcom, który pomaga Meta✴ w rozwiązaniu tego samego problemu. W pełni opracowany projekt chipa wysyłany jest do wykonawcy półprzewodników – TSMC, który produkuje 92% zaawansowanych produktów półprzewodnikowych na świecie.

W tym roku Google wypuści szóstą generację Trillium TPU; Ponadto w kwietniu ubiegłego roku firma ogłosiła Axion, swój pierwszy centralny procesor, który pojawi się pod koniec roku. Google nie jest tu pierwszy: Amazon wypuścił Graviton w 2018 r., chińska Alibaba poszła w jego ślady w 2021 r., a Microsoft wprowadził chip Cobalt 100 w listopadzie ubiegłego roku. Wszystkie oparte są na architekturze Arm, która jest bardziej elastyczna i energooszczędna niż x86, w którą zaangażowane są Intel i AMD.

Wydajność ma kluczowe znaczenie: według prognoz do 2027 r. serwery AI będą zużywać rocznie tyle samo energii, co Argentyna. Z najnowszego raportu środowiskowego Google wynika, że ​​emisje firmy w latach 2019–2023. wzrosła o 50%, częściowo ze względu na rozwój centrów danych AI. Chłodzenie serwerów do trenowania i uruchamiania AI wymaga ogromnych ilości wody, dlatego od trzeciej generacji Google TPU chłodzenie odbywa się bezpośrednio na chipie – Nvidia sięgnęła po ten sam schemat z najnowszym Blackwellem. I pomimo towarzyszących trudności, sprzęt AI Google’a nadal cieszy się dużym zainteresowaniem, a firma nie zauważyła jeszcze jego osłabienia.

Udostępnij ten artykuł
Dodaj komentarz