Nowy artykuł: Obliczenia neuromorficzne: przypadek Loihi

Redaktor NetMaster
Redaktor NetMaster
24 min. czytania

Najwyższy punkt Loihi (dokładniejsza pisownia, odzwierciedlająca specyfikę fonetyki rdzennych mieszkańców, to Lö’ihi, „długi”) wznosi się ponad otaczające dno oceanu na ponad 3 km i jest oddalony od powierzchni o mniej niż 1 km . Góra ta, choć ukryta pod wodą, swoim zarysem – nawet obecnością wyraźnie zaznaczonej kaldery – bardzo przypomina znajdujące się już na powierzchni aktywne szczyty wulkaniczne archipelagu: Kilauea i Mauna Loa. Jeśli teoria hotspotów, dobrze uzasadniona przez geologów, jest słuszna, to po pewnym czasie Loihi wyrośnie, stając się kolejną pełnoprawną wyspą – początkowo oczywiście małą, potem coraz większą – na grzbiecie hawajskim.

Analogia do komputerów neuromorficznych jest tu dość wyraźna: na razie one, podobnie jak wulkan nazwany na cześć chipa Intela, znajdują się w stanie „pod wodą”; w najlepszym razie na etapie przedprodukcyjnym, czy wręcz laboratoryjnych prototypów, a w najgorszym po prostu nie wychodząc poza koncepcje czysto spekulatywne. Z biegiem czasu oczekuje się jednak, że „wyjdą na powierzchnię” – w postaci produktów w pełni gotowych do masowej produkcji i powszechnego zastosowania. Tymczasem nawet sam mikroprocesor Loihi, który w 2021 roku dotarł do drugiej generacji (a trzecia, jak chciałbym wierzyć, jest już gdzieś w drodze), stanowi swego rodzaju kompromis pomiędzy neuromorficznością prawdziwie sprzętową i całkowicie programową – kompromis, który w pełni zasługuje na mniej niż naszą pełną uwagę.

Zespół badawczy Wolf Mountain zawierający cztery chipy Loihi pierwszej generacji: łącznie 512 rdzeni neuromorficznych, czyli 524 288 sztucznych neuronów i 520 milionów synaps (źródło: Intel)

⇡#Silikon ratuje życie

Oficjalna prezentacja pierwszego neuromorficznego procesora Loihi odbyła się w 2017 roku – właśnie jako chip dla badaczy zainteresowanych nowym kierunkiem rozwoju IT z praktycznego punktu widzenia i potrzebujących podstawy sprzętowej do sprawdzenia swoich hipotez. Wyprodukowany według standardów technologicznych „14 nm”, pojedynczy krzemowy chip Loihi zajmował powierzchnię 60 mm² i zawierał 2,1 miliarda tranzystorów. Aby kontrolować przepływ danych pomiędzy węzłami sieci neuronowej (orkiestracja), na tym samym podłożu ulokowano trzy rdzenie procesora Lakemont x86, przy czym liczba samych rdzeni neuronowych osiągnęła 128 – 1024 sztucznych neuronów po 1024 synaps każdy. Każdy rdzeń miał 208 KB pamięci SRAM, a stan bieżący (stan lokalny) każdego neuronu opisywany był 24-bitową liczbą. Główną cechą architektury Loihi i jej następcy Loihi 2 jest to, że implementują asynchroniczne sieci neuronowe typu spike (SNN), o czym mówiliśmy w poprzednim materiale o komputerach neuromorficznych. Zamiast manipulować ustalonymi poziomami sygnałów wejściowych (interpretując te poziomy jako współczynniki do późniejszego sumowania ważonego), neurony sieci impulsowych reagują na rzeczywiste impulsy – sam fakt ich przybycia koduje pewne dane.

Asynchroniczny charakter SNN zaimplementowanego w Loihi oznacza brak wspólnego „wiodącego rytmu”, jednolitego dla całej struktury neuronowej, wyłącznie według cykli zegarowych, których impulsy sygnałowe mogą, ale nie muszą, docierać do synaps neuronów: tutaj sygnały propagują pomiędzy węzłami sieci bez odniesienia do ogólnego harmonogramu. Od czasu do czasu, zgodnie ze swoim specyficznym stanem, indywidualny neuron generuje ten sam impuls, który nadał nazwę tego typu sieciom neuronowym – pojedynczy impuls, analogiczny do potencjału czynnościowego neuronu biologicznego – i wysyła go do swoich sąsiadów poprzez bezpośrednie kontakty zwane synapsami (podobieństwo do synaps biologicznych jest czysto funkcjonalne; krzemowa implementacja komputera neuromorficznego nie przewiduje żadnych przerw synaptycznych ani neuroprzekaźników, przynajmniej na obecnym etapie rozwoju technologii). To, kiedy dokładnie każdy konkretny neuron wygeneruje kolejny impuls, zależy od wspomnianej już funkcji jego stanu (stanu lokalnego). W ten sposób budowana jest dynamiczna, silnie połączona sieć, w której – w odróżnieniu od warstw perceptronowych „zwykłych” głębokich sieci neuronowych (które po prostu nazywa się sztucznymi, bez bliższego określenia: sztuczną siecią neuronową, SSN) – węzły oddziałują indywidualnie, wymieniając ujednolicone impulsy jednobitowe.

Schematyczny diagram działania pojedynczego rdzenia neuromorficznego w ramach procesora Loihi (źródło: Intel)

Neuron w sieci SNN, który otrzymuje takie impulsy od swoich sąsiadów, gromadzi je i po osiągnięciu pewnego progu uruchamia się, generując i wysyłając kolejny potencjał czynnościowy do neuronów już z nim połączonych. Dystrybucja ta odbywa się również poprzez asynchroniczną sieć na chipie (NoC), która zapewnia dostarczanie odpowiednich sygnałów do rdzeni neuromorficznych (sztucznych neuronów), a protokół komunikacyjny zapewnia skalowanie tej sieci do 4096 rdzeni na jednym chipie (w Loihi pierwszej generacji jest ich jednak tylko 128), a przy zastosowaniu adresowania hierarchicznego – aż 16 384 chipy. Każde jądro neuromorficzne (indywidualny sztuczny neuron) ma swoją własną funkcję stanu; zmienia się podczas procesu uczenia się sieci neuronowej i ostatecznie określa dokładnie, kiedy (tj. po otrzymaniu jakiej liczby impulsów wejściowych) dany rdzeń wygeneruje własny impuls. Rdzenie neuromorficzne Loihi zawierają „silnik uczący”, za pomocą którego można dostosować znaczenie każdej z synaps, a zintegrowane komórki pamięci SRAM umożliwiają rejestrowanie ustawień, które nabywają podczas treningu, aktualizując je w miarę poprawy wykonywania przez sieć neuronową powierzonych mu zadań – czy to rozpoznawanie wzorców, czy sterowanie mechanizmem robotycznym.

To pod tym względem, jak argumentowali twórcy pierwszej generacji Loihi, ich pomysł był lepszy od konkurentów istniejących w momencie jego pojawienia się, spośród których najbardziej znanym jest neuroprocesor IBM o nazwie TrueNorth (projekt rozwojowy który rozpoczął się w 2008 roku pod patronatem znanej agencji DARPA). TrueNorth – podobnie jak Neurogrid opracowany na Uniwersytecie Stanforda, system BrainScaleS z Uniwersytetu w Heidelbergu i projekt neurosymulatora SpiNNaker z Uniwersytetu w Manchesterze oparty na ponad 1 milionie rdzeni ARM9 – z powodzeniem emuluje zasadniczo wielokanałowe równoległe działanie biologicznych neuronów struktur poprzez utworzenie dedykowanych kanałów danych pomiędzy jądrami neuromorficznymi, z których każde jest wyposażone w wiele setek i tysięcy synaps. Jednak sama izolacja tych kanałów – do czego sprowadza się uczenie sieci neuronowej, czyli tworzenie struktury połączeń synaptycznych w sztucznym „mózgu” – odbywa się w trybie offline, najczęściej podczas emulacji działania układu neuromorficznego system na superkomputerze von Neumanna. Loihi, ze względu na swoją bardziej wyrafinowaną architekturę z rozproszoną pamięcią synaptyczną, nadaje się zarówno do treningu, jak i do wykonywania wyuczonych wcześniej wzorców zachowań – i w tym sensie w momencie swojego pojawienia się uznawana była za wyjątkową.

Po lewej stronie znajduje się model matematyczny w pełni połączonej sieci neuronowej; po prawej stronie schemat jego realizacji w wydzielonym rdzeniu neurosynaptycznym chipa IBM TrueNorth poprzez dość prostą sieć „dendrytów” i „aksonów”, których wybrane punkty przecięcia tworzą połączenia synaptyczne (źródło: IEEE)

⇡#Drugie podejście

Jaki sens ma tworzenie komputerów neuromorficznych na bazie krzemu – skoro tak samo jest z organizacją przepływów danych pomiędzy ich poszczególnymi węzłami w ramach sieci hybrydowej (hybrydowej, bo nawet jeśli w obrębie jednego neurochipu sieć synaptyczna jest „uczciwie” zorganizowana na poziomie poziom okablowania magistrali, wówczas transfer danych pomiędzy sąsiednimi układami możliwy jest tylko poprzez przełączniki) musimy zastosować dość klasyczne interkonekty półprzewodnikowe i rdzenie procesorów von Neumanna – architekturę x86 czy ARM?

A chodzi o to, że w porównaniu z procesorami von Neumanna porównywalnymi pod względem technologicznym standardów produkcji, neuromorficzne, a nawet krzemowe, okazują się znacznie bardziej energooszczędne w rozwiązywaniu szeregu stosowanych problemów: generowaniu pojedynczych impulsów, nawet przy dużej częstotliwości , okazuje się znacznie bardziej ekonomiczne niż zasilanie stałym napięciem klasycznych półprzewodnikowych VLSI. Przykładowo, jedną z metod analizy regresji jest badanie wpływu jednej lub większej liczby zmiennych niezależnych na jedną zmienną zależną – LASSO (operator najmniejszego absolutnego skurczu i selekcji), wymaga do swojej implementacji na pierwszej generacji Loihi trzech rzędów dziesiętnych o wiele mniej energii niż przy zastosowaniu wirtualnej sieci neuronowej w pamięci maszyny von Neumanna działającej na procesorach wyprodukowanych według tych samych standardów „14 nm”. I wiele codziennych problemów sprowadza się do tego rodzaju wieloparametrowych problemów związanych z badaniem zależności – od oceny zapotrzebowania konsumentów na określony produkt o danych cechach (pod warunkiem udanego matematycznego sformalizowania różnicy między tymi cechami a średnią rynkową) po wspomnianą już maszynę rozpoznawanie obrazu.

Powierzchnia nieopakowanej matrycy półprzewodnikowej Loihi 2 (źródło: Intel)

We wrześniu 2021 roku Intel zaprezentował opinii publicznej drugą generację swojego neuromorficznego chipa – Loihi 2. Przy dwukrotnie zminiaturyzowanym tempie produkcji – „Intel 4”, co w przybliżeniu odpowiada „7 nm” w terminologii TSMC – wyszło prawie o połowę mniej size ( 31 mm²), jednak liczba znajdujących się w nim sztucznych neuronów wzrosła ośmiokrotnie – z około 130 tysięcy do około 1 miliona. Wraz z wydaniem nowego produktu powstało dla niego wyspecjalizowane środowisko programistyczne Lava, oparte na Javie i dystrybuowane jako Open Source, został również opublikowany na Githubie. Tym samym każdy programista zainteresowany obliczeniami neuromorficznymi ma teraz możliwość stworzenia własnego kodu dla Loihi 2, przetestowania i sprawdzenia jego gotowości do pracy na emulacji w pamięci systemu von Neumanna, a następnie zastanowienia się nad możliwością uruchomienia go na odpowiednią platformę sprzętową. Mikrokod, działający na poziomie neuromorficznych rdzeni chipów x86 orkiestrujących funkcjonowanie, pozwala na przypisanie zmiennych i wykonanie szeregu instrukcji w postaci krótkich programów w języku asemblera: według Intela „zapewnia to dostęp do pamięci na poziomie poszczególnych neuronów, do ilości zgromadzonej na dany moment sygnału wejściowego synaptycznego, do liczników kroków w przypadku obliczeń ograniczonych w czasie” i, ogólnie rzecz biorąc, znacznie zwiększa elastyczność sieci neuronowych zorganizowanych w oparciu o taki sprzęt. Ponadto chipy Loihi 2 umożliwiają nie tylko płaską, ale także trójwymiarową kolokację dzięki specjalnie zmodyfikowanym połączeniom między chipami – i biorąc pod uwagę fakt, że rozpraszanie ciepła komputera neuromorficznego jest znacznie mniejsze niż komputera Von Procesor Neumanna o tych samych wymiarach, wykonany według podobnych standardów produkcji, warstwy opakowania Loihi 2, przynajmniej w teorii, potrafią być dość szczelne.

Co ciekawe, jeszcze na początku 2019 roku, na światowej konferencji w San Francisco poświęconej półprzewodnikom, impulsowe komputery neuromorficzne zostały dość ostro skrytykowane przez Yanna LeCuna, ówczesnego pracownika Facebooka*, wieloletniego i zagorzałego apologety głębokiego uczenia się – krytykowanego za to, że pomimo całej jej niezaprzeczalnej skuteczności „wciąż nie zaproponowano dla tej technologii algorytmów, które przyniosłyby naprawdę przydatne wyniki praktyczne: i po co tworzyć chipy dla algorytmów, które nie działają?” W odpowiedzi Mike Davies, szef działu badań neuromorficznych firmy Intel, wypowiadając się dosłownie za nim, zażartował, że „propogacja wsteczna nie ma korelacji z mózgiem”, zatem „głębokie uczenie się”, będące podstawą dzisiejszej niezwykle popularnej generatywnej sztucznej inteligencji, nie istnieje szkolenia, ale raczej kosztowna procedura optymalizacji pod względem sprzętu i energii. Jako przykład Davis przytoczył pewien problem klasyfikacji stosowanej (jest to dokładnie idealny obszar zastosowania analizy regresji), w którym maszyna jeszcze w pierwszej generacji Loihi dawała wynik o 8% większy dokładne i czterdziestokrotnie szybsze od jednego z najbardziej zaawansowanych w tamtym czasie systemów głębokiego uczenia się, działających na potężnym (znowu jak na tamte czasy) akceleratorze grafiki serwerowej.

Stos 3D neuromorficznych płyt obliczeniowych Kapoho Point, każda z ośmioma chipami Loihi 2 – cztery na górze i cztery na dole (źródło: Intel)

Aby być uczciwym, zauważamy, że krzemowe komputery neuromorficzne, zwłaszcza te z małą liczbą rdzeni neuronowych, pomimo całej ich funkcjonalnej bliskości do biologicznego prototypu, mają dość obiektywne problemy z dokładnością. Pod koniec 2018 roku badacze z Applied Brain Research opublikowali raport, z którego wynika, że ​​algorytm rozpoznawania mowy, działający na różnych systemach sprzętowych i programowych z sieciami neuronowymi, rzeczywiście został wykonany na Loihi pierwszej generacji szybciej niż wiele innych i przy znacznie mniejszym zużyciu energii konsumpcji, ale pod względem trafności (obliczono sumę zarówno poprawnych identyfikacji frazy testowej, jak i poprawnych odmów rozpoznania jej w celowo zniekształconym zestawie dźwięków) dały mu platformy von Neumanna z generatywnymi sieciami neuronowymi zbudowanymi na zasadach głębokiego uczenia się dobry początek.

Mike Davis, podobnie jak inni zwolennicy komputerów neuromorficznych, nie wstydzą się tego: twierdzą, że im bardziej rozbudowana jest sieć jąder neuronowych, tym dokładniejsze będą udzielane przez nią odpowiedzi – w końcu nawet słoń ze swoimi 4- Mózg o wadze 5 kg jest w stanie rozwiązać znacznie bardziej złożone zadania niż niektóre nicienie posiadające kilkaset komórek nerwowych. Co więcej, entuzjaści neuromorfiki są przekonani, że gdy tylko roboty przeznaczone do bezpośredniej, autonomicznej interakcji z obiektami świata rzeczywistego zaczną być wyposażane w takie systemy, rozpocznie się ich złoty wiek. „Mózg ewoluował, aby kontrolować kończyny” – wspomina Davis; w rzeczywistości wysoka responsywność impulsowej sieci neuronowej na zaburzone sygnały zewnętrzne (bodźce) naprawdę dość dokładnie odpowiada cechom behawioralnym biologicznej tkanki nerwowej.

Architektura pojedynczego chipa neuromorficznego Loihi 2 (źródło: Intel)

⇡#Problemy i rozwiązania

Od około dwóch lat wielowarstwowe (głębokie) sieci neuronowe ze wzmocnieniem odwrotnym, głębokie sieci neuronowe, dzięki sukcesom ChatGPT, Midjourney, Canva i wielu innych projektów, stały się dla zdecydowanej większości ludzkości synonimem sieci neuronowych w ogóle, spychając na bok SNN i już kilka znanych chwil, głęboko w cień. A to nie mogło nie wpłynąć na rozwój samych impulsowych sieci neuronowych. W 2023 roku ten sam Mike Davis w wywiadzie dla EE Times nie był już tak kategoryczny w ocenie niezaprzeczalnej wyższości neuromorfiki nad głębokim uczeniem: „Loihi 2 stała się lepsza od pierwszej wersji pod wieloma bardzo ciekawymi względami. Zaczęło się zacierać granice pomiędzy podejściem czysto neuromorficznym a tradycyjną architekturą akceleratora AI, co popchnęło nas do zbadania nowych i interesujących algorytmów. Najlepsze podejście niekoniecznie jest tym, które najbardziej odpowiada biologicznej sieci neuronowej. To niesamowite, co natura była w stanie osiągnąć, wykorzystując jedynie zunifikowane potencjały czynnościowe, ale jestem pewna, że ​​wzmacniając podejście czysto biologiczne poprzez dodanie propagacji wstecznej, osiągniemy naprawdę nowe, ekscytujące możliwości”.

I nie są to tylko słowa: jedną z kluczowych cech Loihi 2 jest jego gotowość do pracy z impulsami o różnej amplitudzie, co zasadniczo zaprzecza wspomnianemu już dogmatowi neurobiologicznemu „wszystko albo nic”: oznacza to, że niezależnie od siły bodźca, reakcja w postaci potencjałów czynnościowych jest zawsze tego samego typu pod względem wielkości impulsu nerwowego, jedyną różnicą, która może się różnić, jest liczba takich impulsów w szeregu i czas trwania „ciszy” odstępy je oddzielające. Z matematycznego punktu widzenia przejście na sygnały o wielu amplitudach oznacza, że ​​impulsy wymieniane pomiędzy sztucznymi neuronami w Loihi 2 nie są już kodowane przez wartości binarne, jak w biologicznej tkance nerwowej i w Loihi pierwszej generacji, ale przez liczby całkowite pewna głębia bitowa. To właśnie takie podejście pozwala na poziomie mikrokodu sterującego tymi neuronami wykonywać operacje arytmetyczne na odbieranych przez nie sygnałach i programowo sterować wykonywaniem instrukcji – tworząc w przyszłości hybrydowe (pomiędzy głębokimi SNN i SNN) sieci neuronowe z różne modele neuronów.

Schemat percepcji i sekwencyjnego przetwarzania dźwięku przez narządy słuchu i różne części mózgu (źródło: Wikimedia Commons)

Ale to już jest dość interesujące: zamiast niewolniczej imitacji naturalnej sieci nerwowej – która powstała w procesie ewolucji, ściśle rzecz biorąc, bez jasno określonego celu, jakim jest ostateczne zapewnienie gatunkowi Homo sapiens możliwości tworzenia sztucznych sieci neuronowych – badacze mają teraz możliwość projektowania określonych typów neuronów, zoptymalizowanych do rozwiązywania różnego rodzaju problemów, a następnie łączenia ich w ramach wspólnej sieci w celu optymalizacji jej działania jako całości. Znów widać tu wyraźne echo z niejednorodnością struktury biologicznego mózgu, którego różne części pełnią swoje funkcje. Oznacza to, że na tak sztucznie udoskonalonym (Davis używa terminu „wzmocniony”) podłożu sprzętowym znacznie efektywniejsze będzie zaimplementowanie modeli sieci neuronowych możliwie najbardziej zbliżonych do rzeczywistości pod względem cech funkcjonalnych, nawet jeśli nie odtwarzają się one to strukturalnie.

Żywym przykładem jednego z tych modeli są sztuczne neurony, które działają na zasadzie „rezonowania i ognia”, to znaczy aktywują się w odpowiedzi na bodziec o określonej częstotliwości, zbliżonej do ich własnej częstotliwości, jako układ oscylacyjny. Takie neurony modeluje się za pomocą rezonatorów Hopfa (w oparciu o matematyczną bifurkację Andronowa-Hopfa), co pozwala na stosunkowo skromną bazę sprzętową odbierać niezwykle szeroki zakres częstotliwości dźwięków dostępnych organizmom żywym. To właśnie przy użyciu Loihi 2 rezonatory te są wdrażane w hybrydowych sieciach neuronowych w najbardziej opłacalny sposób – mając oczywiście na myśli budżet energetyczny. Zaproponowane rozwiązanie ma dość praktyczne znaczenie: w przypadku automatycznych systemów rozpoznawania mowy niezwykle istotna jest normalizacja przychodzącego strumienia audio – w przeciwnym razie potrzebny jest dodatkowy czas na przystosowanie systemu do odbierania dźwięków, które są zbyt ciche lub zbyt głośne, co często prowadzi do utraty danych. strata. Rezonatory Hopfa o różnych częstotliwościach, połączone w sztuczny ślimak (część ucha wewnętrznego odpowiedzialna za pierwotną percepcję akustyczną), usuwają z porządku obrad problem normalizacji.

Najbardziej ogólna zasada działania RNN: po lewej stronie schematyczny diagram działania takiej sieci z pętlą transmisji danych o stanie poprzedniej iteracji; po prawej reprezentacja sieci rekurencyjnej w postaci łańcucha FNN realizujących sekwencyjnie to samo zadanie, ale z przeniesieniem informacji o stanie poprzedniej iteracji do kolejnej (źródło: Wikimedia Commons)

Na tle ostatnich sukcesów wielowarstwowych (głębokich) sieci neuronowych, zwłaszcza opartych na architekturze transformatorowej, ich rekurencyjna sieć neuronowa (RNN), do której, ściśle rzecz biorąc, zaliczają się sieci SNN, od dawna pozostaje poza bliższą uwagą badaczy. W przeciwieństwie do prostych sieci neuronowych z wyprzedzeniem (FNN), w których dane są przetwarzane wyłącznie w jednym przebiegu, sieci rekurencyjne wdrażają przetwarzanie wieloprzebiegowe, a wyniki poprzednich iteracji są zapisywane w pamięci lokalnej, co czyni je niemal idealnymi, w szczególności do zadań takich jak tłumaczenie maszynowe lub generowanie mowy. Wyszkolony na określonych sekwencjach danych, RNN tworzy model uczenia maszynowego, który może przewidzieć z dużą dokładnością (lub, w przypadku mowy, z dużym prawdopodobieństwem), jaki powinien być następny element w już rozpoczętej sekwencji.

Obecnie zasadniczo tę samą funkcjonalność realizują FNN z transformatorami – w architekturze kodowania-dekodowania opartej na „warstwach uwagi”. Twórcy Intela spodziewają się kontynuacji łączenia RNN, zaimplementowanych w chipach Loihi pierwszej i drugiej generacji, z najlepszymi osiągnięciami FNN – m.in. stosunkowo dużą szybkością uczenia (rekurencyjne sieci neuronowe gromadzą informacje, dostosowując swoje parametry w trakcie uczenia, znacznie wolniej) oraz stosunkowo małą ilość pamięci lokalnej (bardzo dobrze uczą się kontynuować krótkie sekwencje, średniodługie sekwencje gorzej, a z długimi radzą sobie wyjątkowo niepewnie). W wywiadzie dla EE Times w 2023 r. Mike Davis mówił o pragnieniu swojego zespołu, aby znaleźć sposób na przekształcenie sieci typu punkt-punkt w sieci rekurencyjne – przy jednoczesnym zachowaniu wszystkich oczywistych dziś korzyści płynących z tych pierwszych, bez uszczerbku dla niezaprzeczalnych osiągnięć sieci ten ostatni.

To, czy Intel odniesie sukces, jest trudnym pytaniem, zwłaszcza biorąc pod uwagę jego obecną sytuację finansową. Dodatkowo przypomnijmy, że według różnych szacunków powstanie podwodnego wulkanu Loihi, od którego wzięła się nazwa obiecującego chipa SNN, zajmie od 10 do 100 tysięcy lat – dobrze byłoby, gdyby ewolucja neuromorficznego krzemu żetony przebiegały w nieco szybszym tempie. A jeśli w najbliższej przyszłości Loihi 3 faktycznie się pojawi, jest szansa, że ​​obecnie wygórowane zapotrzebowanie na energię modeli uczenia maszynowego uda się znacząco złagodzić. Przynajmniej w odniesieniu do szeregu bardzo poważnych zadań użytkowych, w szczególności robotycznych, które w aspekcie możliwie najszerszego wdrożenia systemów prawdziwie autonomicznych okażą się już całkiem godnym wynikiem.

⇡#Powiązane materiały

Koreańscy naukowcy stworzyli hybrydę pamięci RAM i flash o wyjątkowo niskim zużyciu energii.Wstrzyknięcie protonów zamieni ferroelektryk w podstawę krzemowego „mózgu”.Obliczenia niekonwencjonalne: Brytyjscy naukowcy zamierzają stworzyć komputer z grzybów.Kaspersky zaprezentował Platformę Neuromorficzną, platformę do opracowywania rozwiązań na chipie neuromorficznym rosyjskiego Ałtaju.Intel Labs wprowadziło akcelerator neuromorficzny Kapoho Point – 8 milionów neuronów elektronicznych na 10-centymetrowej płytce.

    ⇣ Spis treści Silikon jest ratunkiem Drugi bieg Problemy i rozwiązania Powiązane materiały Komentarz ( ) Wieczorne 3DNews W każdy dzień powszedni wysyłamy podsumowanie wiadomości bez zbędnych bajerów i reklam. Dwie minuty na przeczytanie – i jesteś świadomy głównych wydarzeń. Powiązane materiały Po co nam sieci 6G, skoro 5G wciąż nie jest powszechne? Warsztaty rysunkowe AI, część ósma: więcej życia! Na tropie nie zmartwychwstałego „Świtu” To nie jest silikon! Albo dlaczego krzem jest tak trudny do zastąpienia Od żeberek do pierścieni, a potem do CMOS: perypetie ewolucji tranzystorów Warsztaty rysunkowe AI, część szósta: inteligentne narzędzia do detalowania (Hires. fix, ADetailer, ControlNet)

Udostępnij ten artykuł
Dodaj komentarz