Boom na sztuczną inteligencję trwa. Największe firmy technologiczne inwestują ogromne środki w rozwój tego obszaru i w nowe centra obliczeniowe. Jednak szybki rozwój infrastruktury obliczeniowej powoduje poważny wzrost zużycia energii, co może stać się pewnym problemem w najbliższej przyszłości. ChatGPT potrzebuje obecnie około 564 MWh dziennie, co wystarczyłoby do zasilenia 18 000 amerykańskich domów. A całkowite zużycie energii w centrach danych AI będzie tylko rosło. Eksperci przewidują, że do 2027 roku sztuczna inteligencja może zużywać od 85 do 134 TWh rocznie. Dlatego wiodący gracze rynkowi już rozważają opcje z małymi reaktorami jądrowymi, które będą wykorzystywane wyłącznie do zasilania centrów danych.
Głównym problemem nowego algorytmu jest to, że będzie wymagał nowego sprzętu. A wiodący producenci sprzętu, w tym Nvidia, mogą nie być tym zainteresowani. Dobra wiadomość jest taka, że istnieją już plany opracowania specjalnych interfejsów API sprzętu i oprogramowania dla nowej metody, nie ma jednak wzmianki o zaangażowanych firmach.
Źródło: TechSpot