Nowy artykuł: To nie jest silikon! Część trzecia: przez nanorurki do magicznych baniek

Redaktor NetMaster
Redaktor NetMaster
31 min. czytania

Największą uwagę w kontekście perspektyw zastąpienia chipów krzemowych przyciąga oczywiście tak najnowszy wynalazek jak licznik promieni na gumowym wybiegu – opracowanie Martina van Hecke i Lennarda Kwakernaaka z Uniwersytetu w Lejdzie w Amsterdamie. Na razie to tylko prototyp – ale już potrafi liczyć do dziesięciu, a nawet zapamiętywać sekwencję wydawanych mu poleceń. Podstawą miernika wiązki była płaska gumowa płyta, w której wycięto rowki, tak aby wąskie przegrody występowały na przemian z szerokimi. Stosując metody termochemiczne, wąskie paski gumy poddaje się lekkiemu wydłużaniu zgodnie ze zmienną chiralnością: pierwszy z kilkunastu w stanie początkowym wygina się lekko w prawo, a wszystkie pozostałe w lewo. Szerokie paski są cięte mniej więcej do środka po prawej stronie, po czym całą płytkę licznika umieszcza się w uchwycie, którego górne i dolne sztywne pręty mogą poruszać się w pionie, lekko ściskając gumowy blok – jak na tym filmie.

Następnie pozostaje już tylko dociskanie płytek uchwytu: pierwsze naciśnięcie powoduje, że wąska przegroda po lewej stronie (pierwsza) wygina się jeszcze bardziej w prawo, przez co wypycha sąsiednią szeroką przegrodę w prawo. A to z kolei zmusza znajdującą się za nią wąską przegrodę (już drugą od lewej) do „stanu przełączania”: jeśli wcześniej była zakrzywiona w lewo, to po interakcji z szerokim sąsiadem zatrzaskuje się wypukłością do Prawidłowy. Przy następnym naciśnięciu płytek mocujących druga wąska przegroda przesunie szeroką przegrodę w prawą stronę, przenosząc siłę na następną wąską przegrodę i tak dalej. Wygląda to raczej niepozornie, ale dalsze plany van Hecke i Kwakernaaka obejmują stworzenie nie tylko liniowych, ale i dwuwymiarowych liczników wiązek – łącznie z implementacją najprostszych bramek logicznych (NOT, AND, OR itp.), które sprawią, że można dążyć do opracowania w przyszłości w pełni funkcjonalnego komputera wiązki…

Sukcesywne ściskanie komputera belki wzdłuż osi wyciętych w nim przegród prowadzi do wzrostu liczby płyt zakrzywionych w prawo – ściśle po jednej (źródło: Uniwersytet w Lejdzie)

…które oczywiście w żaden sposób nie zastąpią krzemowych chipów VLSI – choćby ze względu na znacząco makroskopowe rozmiary jej ogniw elementarnych i niewiarygodnie wolne tempo pracy jak na standardy obecnych komputerów. Ale mówiąc poważnie (chociaż sam ten artykuł to wcale nie primaaprilisowy żart; to po prostu atmosfera w Amsterdamie, czy co?), to pracuj nad materiałami znacznie bardziej naukowymi, które mogą stać się podstawą rozwoju mikroelektroniki w tym medium i długoterminowy, realizowany jest w różnych kierunkach. W tym te najbardziej nietrywialne.

⇡#Wiertarka do obliczeń

Zalety krzemu były już omawiane nie raz w dwóch poprzednich materiałach poświęconych innym półprzewodnikom, które zwróciły uwagę badaczy. (Poli)krystaliczny Si dobrze nadaje się do masowej, stosunkowo niedrogiej produkcji, można go łatwo domieszkować prostymi dodatkami w celu utworzenia stref przewodnictwa p i n (niezbędnych do formowania tranzystorów CMOS in-line metodami fotolitograficznymi) i łatwo tworzy podczas bezpośredniego oddziaływania z powietrzem atmosferycznym tlenek jest niezawodnym „wolnym” dielektrykiem itp. Jednak im mniejsze stają się procesy technologiczne, tym wyższe częstotliwości robocze coraz bardziej produktywnych mikroukładów, tym trudniej jest inżynierom mikroelektronikom wymyślić sposoby na pokonanie tego problemu. dwie kluczowe wady krzemu jako podstawy małych struktur CMOS o dużej gęstości. Mianowicie zarówno dość niska przewodność cieplna tego materiału, jak i niska ruchliwość w nim dziur – nośników ładunku dodatniego.

Wyhodowany laboratoryjnie sześcienny kryształ arsenku boru w świetle widzialnym (A) i skaningowym mikroskopie elektronowym (B), długość podziałki 500 µm (źródło: Science)

W połowie 2022 roku grupa badaczy z Massachusetts Institute of Technology, University of Houston, University of Texas w Austin i szeregu innych amerykańskich ośrodków badawczych opublikowała w czasopiśmie Science uzasadnienie stosowania arsenku boru (BA) w sześcienna sieć krystaliczna (oznaczona jako c-BA) jako obiecujący półprzewodnik. Obiecujący w tym sensie, że pewnego dnia może mieć szansę stać się podstawą dalszego rozwoju branży mikroprocesorów, nie obok krzemu, jak rozważaliśmy już SiC czy GaN, ale zamiast niego. Prawie wszystkie kluczowe parametry półprzewodnika są znacznie lepsze w przypadku c-BA niż w przypadku Si: na przykład przewodność cieplna w temperaturze pokojowej, około 1400 W/(m·K), w przypadku tego pierwszego jest o rząd wielkości wyższa niż w przypadku drugie (i teoretycznie można je zwiększyć do 2200 w tych samych jednostkach), co oznacza, że ​​zorganizowanie odprowadzania ciepła z mikroukładu c-BAs będzie znacznie łatwiejsze niż z klasycznego krzemowego. Nawiasem mówiąc, arsenek galu, o którym również mówiliśmy, ma wyjątkowo niską przewodność cieplną – zaledwie 45 W/(m·K) – co znacznie komplikuje jego praktyczne zastosowanie do realizacji systemów obliczeniowych o dużej wydajności.

Pasmo wzbronione sześciennego arsenku boru (zwanego w skrócie sześciennego arsenku boru), 2,02 eV, jest prawie dwukrotnie większe niż w przypadku krzemu, ale ponad dwa razy mniejsze niż w przypadku diamentu (5,4 eV). W szczególności to właśnie nadmierna wartość tego parametru – zauważają naukowcy – utrudnia domieszkowanie diamentu dodatkami niezbędnymi do wytworzenia tranzystorów CMOS, w przypadku c-BA jest to znacznie łatwiejsze. Jednak być może najbardziej interesującą właściwością sześciennego arsenku boru z praktycznego punktu widzenia jest odwrotny (w stosunku do krzemu i wielu innych badanych dziś półprzewodników) stosunek ruchliwości elektronów i dziur: odpowiednio 1400 i 2100 cm²/(V s). Przewodność otworów w tym przypadku jest wyższa niż przewodność elektronowa, ale ich wartości są dość porównywalne. Inny półprzewodnik z dominującą przewodnością dziurową, AlSb, badany wcześniej przez inżynierów mikroelektroników, wykazuje znacznie niższe bezwzględne wartości ruchliwości: odpowiednio 200 i 400 cm²/(V s) dla elektronów i dziur.

To prawda, że ​​entuzjastycznemu opisowi niezwykłych właściwości sześciennego arsenku boru towarzyszyła publikacja w „Science” z małym, ale znaczącym zastrzeżeniem: wszystkie te niezwykłe cechy obiecującego półprzewodnika odkryte dosłownie na czubku pióra nie zostały jeszcze zademonstrowane w praktyce . Innymi słowy, badacze częściowo modelowali matematycznie zachowanie elektronów i dziur w idealnej sześciennej strukturze BA, częściowo przeprowadzili eksperymenty na kryształach o wielkości kilku milimetrów, wyhodowanych w wyniku wieloetapowego osadzania z fazy gazowej, i upewnili się, że praca w tym kierunku ma sens . Teraz pozostało tylko nauczyć się, jak uzyskać sześcienny arsenek boru bez zanieczyszczeń i znaczących naruszeń struktury krystalicznej w objętościach wystarczających do dokładniejszych badań stosowanych.

Sieć krystaliczna sześciennego arsenku boru (źródło: Uniwersytet Michigan)

Co, jak się okazuje, jest nietrywialnym problemem fizykochemicznym: chociaż hodowanie c-BA jest stosunkowo łatwe, powstałe kryształy są zbyt niejednorodne – jeśli zastosujesz metody wymagające zwiększenia skali przemysłowej – lub zbyt małe, jeśli delikatnie osadzisz warstwę poprzez warstwę substancji z fazy gazowej przy ciągłej kontroli jakości na poziomie mikro. Brak ustalonej metody ciągłej produkcji sześciennego arsenku boru powoduje z kolei trudności czysto materiałoznawcze. Przykładowo, nadal nie jest jasne, jak mocne i trwałe są c-BA (w mniej lub bardziej makroskopowych objętościach), jaka jest jego odporność na promieniowanie w dużych ilościach itp. Naukowcy, którzy odkryli dla siebie i dla siebie wyjątkowe właściwości tej substancji świat nazywa go „pod wieloma względami najlepszym znanym półprzewodnikiem” (cytat z oryginalnej pracy), ale przyznają, że poszukiwanie sposobu na masową produkcję sześciennego arsenku boru o czystości, która jest obecnie dostępna dla krzemu, to „dziesięć dziewiątek” lub ponad 99,99999999% — samo w sobie może zająć lata, jeśli nie dekady.

Jest jednak prawdopodobne, że prace badawcze nad ustaleniem ciągłej produkcji c-BA będą przebiegać w szybszym tempie – materiał ten może bowiem zainteresować nie tylko twórców VLSI. Również w 2022 roku w czasopiśmie naukowym Matter ukazała się publikacja grupy z Uniwersytetu Kalifornijskiego w Santa Barbara i Uniwersytetu w Houston na temat niezwykłych właściwości fotoelektronicznych sześciennego arsenku boru. W trakcie długiego i dobrze zbadanego zjawiska efektu fotoelektrycznego, promieniowanie elektromagnetyczne padające na powierzchnię materiału o określonych właściwościach generuje przepływ elektronów – na których w szczególności opiera się cała energia słoneczna. Strumień fotonów zawiera cząstki o różnej energii, a wytwarzane przez nie elektrony również różnią się prędkością i generalnie intuicyjnie jest, że im więcej wysokoenergetycznych elektronów da się wychwycić po ich pojawieniu się, tym większa jest efektywność zamiany światła na prąd .

Jednak w zdecydowanej większości materiałów nadających się do budowy ogniw słonecznych elektrony o wysokiej energii pozostają w stanie wolnym jedynie przez bardzo krótki czas; bardzo szybko zużywają swoją energię na ogrzanie próbki, przez którą się rozprzestrzeniają. Natomiast wolne elektrony, niosące niskie energie, dłużej pozostają swobodne – i to dzięki nim następuje przeniesienie ładunku. To właśnie ta cecha w dużej mierze decyduje o niezwykle niskiej wydajności najpopularniejszych obecnie produkowanych masowo paneli słonecznych – niecałe 23% energii padającego światła zamieniane jest na energię elektryczną. W przypadku sześciennego arsenku boru sytuacja jest odmienna: wysokoenergetyczne elektrony generowane w wyniku efektu fotoelektrycznego żyją – nie przestając się szybko poruszać – znacznie dłużej niż w materiale, z którego produkowane są obecnie fotokomórki masowo. Jeśli zatem (w świetle nieustającej obecnie pasji do OZE) producenci paneli fotowoltaicznych włączą się również w prace nad przemysłową produkcją c-BA, istnieje duże prawdopodobieństwo osiągnięcia wyników akceptowalnych dla rynku masowego szybciej niż obecnie oczekiwany.

Taki „dziko rosnący” sześcienny arsenek boru wyraźnie nie nadaje się jako seryjny przedmiot do przemysłowego cięcia na płytki (źródło: Uniwersytet w Houston)

Przecież zainteresowanie udoskonaleniem produkcji krzemu na potrzeby rodzącej się wówczas elektroniki (jeszcze bez przedrostka „mikro”) zaczęło się niemal sto lat temu, kiedy w połowie lat 30. XX w. Russell Ohl, elektrochemik w osławionej firmie Bell Telephone Labs odkrył, że im wyższa czystość kryształów krzemu, na których zbudowano prostowniki w obwodach detektorów ówczesnych radarów, tym wyższa czułość systemu radarowego. Oczekuje się, że – biorąc pod uwagę postęp inżynierii materiałowej, inżynierii i elektroniki w ogóle w ciągu ostatnich dziesięcioleci – podobny cykl badawczo-rozwojowy mający na celu wprowadzenie do masowej produkcji sześciennego arsenku boru o pożądanym poziomie czystości i regularności struktury krystalicznej zostanie ukończony w ciągu bardzo rozsądne ramy czasowe. Przecież historia c-BA dopiero się zaczyna – materiał ten został po raz pierwszy zsyntetyzowany przez grupę Zhifenga Rena na Uniwersytecie w Houston dopiero w 2015 roku, a jego właściwości półprzewodnikowe zaczęto właściwie badać dopiero w 2018 roku.

⇡#W dół rury!

Średniowieczne twierdze próbowano budować tam, gdzie łatwiej było je obronić ze względu na naturalne fałdy terenu: niemal idealną lokalizacją dla zamku było wysokie wzgórze w zakolu rzeki, której zakole wokół murów również było zamknięte przez sztuczną fosę z wodą. Z tego punktu widzenia Kreml moskiewski nie jest położony w najbardziej logiczny sposób – rzeka płynie tylko wzdłuż jego południowej ściany. Dzieje się tak jednak dopiero teraz: aż do drugiej dekady XIX w. dzisiejsze „suche” kontury Kremla otaczała rzeka Neglinka (plus rów wypełniony jej wodami) – do 1819 r. była ona całkowicie ukryta pod ziemią i ogrodzona w ceglanym tunelu. Powodów było kilka, między innymi kapryśny charakter tego dopływu rzeki Moskwy, który czasem prawie wysychał, czasem swobodnie wylewał, nie tylko wiosną, ale także po niemal każdym mniej lub bardziej ulewnym deszczu.

Schematyczna ilustracja tranzystora z jednościenną nanorurką węglową jako kanałem (źródło: Infineon)

Z podobnymi problemami borykają się nie tylko budowniczowie zmuszeni do budowy nowej infrastruktury miejskiej w sąsiedztwie średniowiecznych twierdz, ale także inżynierowie mikroelektronicy przy organizacji przepływu nośników ładunku przez kanał pomiędzy źródłem a drenem tranzystora półprzewodnikowego. Wspominaliśmy już w poprzednich artykułach na temat złożoności produkcji mikroprocesorów o takim zjawisku jak zmniejszenie efektywnej długości kanału na skutek dyfuzji zanieczyszczeń poza obszary fizycznie zajmowane na podłożu krzemowym przez strefy źródła i drenu – obszary domieszkowane pewnymi dodatkami zmieniającymi ich właściwości elektrochemiczne. Innymi słowy, kanał, który naturalnie tworzy się na grubości półprzewodnika, narażony jest, podobnie jak płytkie i gliniaste koryto rzeki, na ryzyko przepełnienia i rozlania (w tym przypadku nie wody, ale nośników ładunku) podczas próby przepuszczać przez nią zbyt imponującą porcję energii. A co jeśli zamkniesz kanał, podobnie jak tę samą Neglinkę, w rurze – zwiększając w ten sposób przepustowość pojedynczego tranzystora i czyniąc go odpowiednim do przesyłania wyższych prądów?

To właśnie ten pomysł stał się podstawą obwodu tranzystora polowego z nanorurkami węglowymi – CNTFET (FET z nanorurek węglowych). W takim tranzystorze źródło i dren ładunku są reprezentowane przez końce metalowych elektrod, a kanał jest utworzony przez samą łączącą je rurkę węglową o średnicy od 0,7 nm do 2 nm z dwuwymiarowym (tj. składający się z pojedynczej warstwy atomów, a zatem w rzeczywistości ściany „bez grubości”. Subtelność polega na tym, że o właściwościach fizycznych nanorurki – a mianowicie o tym, jakie jest pasmo wzbronione dla znajdujących się w niej elektronów, czyli czy zachowuje się jak metal czy jak półprzewodnik – determinuje mechanika jej wytwarzania: sposób składania i średnica. Jeśli zwiniesz warstwę grafenu o wysokości jednoatomowej wzdłuż linii przechodzącej ściśle przez środki ściśle przylegających do siebie sześcianów jego struktury krystalicznej, otrzymasz tzw. nanorurkę typu zygzakowatego o właściwościach półprzewodnik. Jeżeli linię splotu poprowadzi się przez ten sam rodzaj wierzchołków sześciokątnych komórek znajdujących się w jednej warstwie pod kątem 60°, wówczas powstanie nanorurka typu fotelowego o przewodności metalicznej.

Ponieważ przy składaniu arkusza konieczne jest upewnienie się, że wierzchołki jego komórek składowych pokrywają się z linią łączenia (w przeciwnym razie struktura atomowa nie będzie stabilna), te dwie metody – zygzak i fotel – z rozważań czysto topologicznych okazują się być tylko możliwe; jeśli oczywiście mówimy o tzw. składanie proste – bez skręcania. Znane są także nanorurki spiralne (chiralne) ze skręceniem – posiadające właściwości pośrednie pomiędzy typu zygzakowatego i fotelowego, przy czym najczęściej nanorurki w praktyce otrzymuje się różnymi metodami w postaci mieszaniny wszystkich możliwych odmian – zarówno typu bezpośredniego składania, jak i typu różne chiralne.

O właściwościach nanorurki decyduje kąt chiralności – pomiędzy rzędami sześciokątów atomów węgla a osią, wzdłuż której rurka jest zwinięta (źródło: Semiconductor Digest)

Z punktu widzenia mikroelektroniki nanorurki jako kanał przenoszenia ładunku są niezwykle atrakcyjne: wzdłuż ich osi zapewniona jest doskonała przewodność ze względu na brak oporu ze strony otaczających węzłów komórki kryształowej (ponieważ, przypomnijmy, jest to dwuwymiarowe ), a gęstość prądu przenoszonego przez pojedynczą taką nanostrukturę może już osiągnąć niebotyczne wartości 107 A/cm² – teoretycznie możliwa jest również moc wyjściowa 1013 A/cm². Ta właściwość umożliwiająca przepływ nośników ładunku praktycznie bez oporu nazywana jest „przewodnictwem balistycznym” (transportem balistycznym), zwracając uwagę na jej podobieństwo do nadprzewodnictwa – w efekcie końcowym, ale nie w jego naturze fizycznej. Elektronika zbudowana na CNTFET z pewnością dałaby ogromną przewagę nad tradycyjnymi krzemowymi – gdyby, jak można się domyślić, nie istniały obecnie trudności w rozpoczęciu przynajmniej masowej produkcji nanorurek węglowych o precyzyjnie określonych właściwościach.

Faktem jest, że opanowane dziś mniej lub bardziej in-line metody umożliwiają otrzymanie mieszaniny nanorurek o różnej chiralności, czyli o przewodności zarówno metalicznej, jak i półprzewodnikowej. Inżynierski problem rozdzielania nanorurek metalowych i półprzewodnikowych rozwiązuje się na różne sposoby (zastosowanie specjalnych katalizatorów w celu wytworzenia wymaganej chiralności podczas wzrostu nanostruktur lub rozdzielenie nanorurek według typu po syntezie, ze względu na ich odmienne zachowanie w zawiesinach i żelach) , ale jak dotąd nie ma szybkiej, skutecznej i niedrogiej metody ich produkcji na dużą skalę. Oto jasna ilustracja koncepcji „niedrogiej”: nanorurki węglowe o średnicy 1,2-1,7 nm, długości od 300 nm do 5 mikronów i zawartości zanieczyszczeń 0,01%, obecnie dostępne w Internecie, oferowane są w w postaci roztworu wodnego w cenie 1 tys. dolarów za 1 g. Najlepsze dotychczas stosowane w praktyce metody pozwalają na osiągnięcie czystości separacji nanorurek o wymaganej chiralności na poziomie „czterech dziewiątek” (99,99%). wymaganego typu struktury w objętości końcowej partii), natomiast wydajność nanorurek nadających się do dalszego wykorzystania w produkcji półprzewodników – niezawierających wszelkiego rodzaju zanieczyszczeń i o jednolitej długości – nie przekracza 20%.

Możliwe metody łączenia nanorurki węglowej ze stykiem metalowym: kontakt końcowy – a), kontakt końcowy – i boczny – b), kontakt boczny (źródło: American Physical Society)

Ale to dopiero początek: nie wystarczy uzyskać w wystarczającej ilości kanały nanorurkowe przyszłych tranzystorów – należy je także dokładnie, bez uszkodzeń, odseparować (pod wpływem sił van der Waalsa sąsiednie nanorurki CNT sklejają się z określoną energią do do 500 eV na mikrometr) i umieszcza się na podłożu przyszłego VLSI dokładnie tam, gdzie (prawdopodobnie) są już połączone styki źródła i drenu powstających struktur półprzewodnikowych. Dodatkowo pozbawione defektów nanorurki węglowe są zasadniczo obojętne chemicznie w stosunku do metali – nie są w stanie utworzyć z nimi silnych wiązań chemicznych ze względu na ogromną różnicę wartości energii powierzchniowej: około 1800 mJ/m² dla przetworzonych styków miedzianych – i 27-45 mJ /m² dla CNT o różnych przekrojach i długościach. Z kolei trudności w utworzeniu niezawodnego połączenia z metalem (na końcach jednak mniej zauważalne niż na powierzchni) zmniejszają przepustowość nanorurki węglowej jako ośrodka przenoszenia ładunku elektrycznego, tak że nawet prawdziwe CNTFET, wykonane z niewiarygodnych trudności (a pierwszy obwód półprzewodnikowy z nanorurką został, jak pamiętamy, fizycznie wdrożony przez IBM w 2006 r.) obecnie wykazują znacznie mniej wyjątkowe właściwości, niż przewiduje teoria.

Jeśli (dokładniej chcę wierzyć kiedy) zostanie znaleziony sposób na utworzenie silnego wiązania kowalencyjnego pomiędzy stykiem metalu a nanorurką węglową, postęp w tej dziedzinie mikroelektroniki znacznie przyspieszy. Co więcej, metoda pewnego równomiernego nanoszenia CNT na płytki przedmiotu obrabianego o średnicy 100 i 200 mm i gęstości 100-200 nanorurek na mikron została już praktycznie doprowadzona do poziomu seryjnego zastosowania. Inżynierowie mikroelektronicy borykają się obecnie z problemem zwiększenia wydajności odpowiednich, produkowanych masowo tranzystorów tego typu, co, szczerze mówiąc, nadal jest niezadowalające.

⇡#Wymieszaj – i już nie potrząsaj

Jak już nasi uważni czytelnicy zrozumieli, na świecie jest wiele półprzewodników – i choć niektóre z nich pod wieloma względami są znacznie lepsze od krzemu, to jeszcze przez długi czas pozostaną one podstawą światowego przemysłu mikroelektronicznego. Choćby dlatego, że w ciągu ostatnich trzech ćwierćwiecza (mniej lub bardziej masowa produkcja Si oczyszczonego z zanieczyszczeń z myślą o zastosowaniu w urządzeniach półprzewodnikowych rozpoczęła się pod koniec lat pięćdziesiątych XX wieku) ogromne sumy i niezliczona siła robocza zostały zainwestowane w rozwój i ulepszenie powiązanych technologii – żaden z potencjalnych konkurentów krzemu nie może pochwalić się porównywalną kwotą inwestycji. Jednocześnie im lepiej działają mikroukłady ogólnego przeznaczenia oparte na Si, tym trudniej jest zestawić z nimi pierwsze próbki VLSI na innej bazie elementów, które początkowo okażą się oczywiście mniej zaawansowane i droższe pod względem jednostki gotowego, nadającego się do obróbki produktu. A ten wyścig wskaźników ekonomicznych ma charakter przede wszystkim ekonomiczny; względy abstrakcyjnej produktywności odgrywają tu drugorzędną rolę – istnieje szansa, że ​​przerodzi się to w niekończący się wyścig za przywódcą, który oddala się od swoich prześladowców.

Eksperci pokładają duże nadzieje w obliczeniach neuromorficznych w zakresie zwiększenia efektywności uczenia i wykonywania modeli sztucznej inteligencji (źródło: generacja AI w oparciu o model SDXL 1.0)

Może więc nie powinniśmy szukać dobra w dobrym, a raczej przejść do innych obszarów rozwoju sprzętowych podstaw technologii komputerowej, które ewidentnie przegrywają z krzemowymi urządzeniami półprzewodnikowymi? Wśród takich obszarów pierwsze co przychodzi na myśl to nie liczniki promieni z gumową trakcją, ale komputery neuromorficzne odtwarzające na poziomie sprzętowym z różnym stopniem adekwatności pracę komórek nerwowych w mózgu. Ostatecznie pod względem efektywności energetycznej ten organ, który dał początek ludzkiej cywilizacji, „drugiej naturze” i samym komputerom (a w dodatku zużywający około 20-25 W mocy w szczytowym obciążeniu, nie więcej) jest oczywiście przewyższają systemy obliczeniowe oparte na półprzewodnikach von Neumanna. Czy nie jest bardziej logiczne, zamiast próbować zmieścić jeszcze więcej tranzystorów na calu kwadratowym VLSI nowej generacji, projektować i tworzyć sieci neuronowe podobne do biologicznych i przy ich pomocy rozwiązywać palące problemy obliczeniowe? Co więcej, wśród tych ostatnich, im dalej zajdziemy, tym bardziej związane są one z dziedziną uczenia maszynowego i sztucznej inteligencji, a emulacja sieci neuronowych w pamięci maszyn von Neumanna wymaga zarówno ogromnych zasobów sprzętowych, jak i niesamowitego zużycia energii.

Jednym z obiecujących kierunków, w jakim w ostatnich latach rozwija się sprzętowe przetwarzanie neuromorficzne, jest umownie określane mianem obliczeń memrystorowych. „Warunkowo”, bo „rezystory pamięci” (memrystor = pamięć+rezystor) obejmują niezwykle szeroką – w sensie sposobów fizycznej realizacji – grupę przełączników zdolnych do „zapamiętania” swojego stanu na chwilę przed momentem zaniku napięcia z ich zasilania Łączność . Memrystory zasadniczo zacierają granicę pomiędzy obwodem czysto obliczeniowym maszyny Von Neumanna a jej urządzeniem przechowującym: zbudowany na nich system będzie oczywiście działał szybciej niż tradycyjny, porównywalny pod względem technologicznym – przynajmniej dlatego, że wyeliminuje straty czasu na przeniesienie danych z pamięci RAM do procesora i z powrotem. A im więcej takich ruchów potrzeba, aby rozwiązać konkretny problem (tak, z wyrzutem patrzymy w twoją stronę, generatywne modele AI), tym większy zysk z przejścia na komputery memrystorowe.

Artystyczne przedstawienie sztucznego układu synaptycznego opartego na memrystorze fazy ciekłej – opis w tekście (źródło: EPFL)

Istnieje wiele podejść do tworzenia memrystorów nadających się do masowej produkcji i dobrze skalowalnych w dół. Za jeden z najbardziej obiecujących w tej kohorcie można uznać rozwój Szwajcarskiej Federalnej Szkoły Politechnicznej w Lozannie (École Polytechnique Fédérale de Lausanne, EPFL) w dziedzinie systemów pamięciowych w fazie ciekłej (fluidic memristive devices), w których transfer ładunku odbywa się przeprowadzana jest przez jony, a nie elektrony – tak właśnie ma miejsce i zachodzi (dostosowana do udziału neuroprzekaźników) w szczelinach synaptycznych pomiędzy neuronami w mózgu. Ponadto rolę takich nośników ładunku w mózgu pełnią jony różnych pierwiastków – potasu, magnezu, sodu, wapnia itp. – co znacząco zwiększa zmienność oddziaływań pomiędzy neuronami biologicznymi w porównaniu z ich oczywiście uproszczonymi modelami cyfrowymi, na których obecnych wirtualnych sieci neuronowych komputerów. Być może, gdyby udało się stworzyć neuromorficzny układ memrystorowy z różnymi nośnikami ładunku realizującymi różne funkcje, pozwoli to na bardziej zauważalne zbliżenie wydajności komputera do wydajności ludzkiego mózgu?

Co ciekawe, w pierwszym etapie swoich prac badacze z EPFL wzięli za podstawę stary dobry krzem – i umieścili na krystalicznym podłożu Si miniaturową membranę z azotku krzemu z otworem pośrodku o średnicy zaledwie około 100 nm. Na wierzchu tego odwiertu metodami dobrze rozwiniętymi w procesach fotolitograficznych uformowali cienką warstwę palladu z przenikającą ją promienistą siecią kanałów o przekroju kilku nanometrów, a na dodatek uzupełnili układ o grafitowa pokrywa membranowa. Następnie cały powstały wielowarstwowy chip zanurzono w wodzie destylowanej zawierającej jony potasu i przyłożono do membrany napięcie dodatnie. Pod jego wpływem jony w kanałach warstwy platyny zaczęły przemieszczać się w stronę odwiertu, gromadząc się w nim i tworząc od dołu nadciśnienie na warstwę grafitu. W rezultacie grafit wyginał się lekko ku górze, tworząc niewielkie wybrzuszenie, zwiększając tym samym przewodność całej konstrukcji. Cienka warstwa grafitu (aczkolwiek nie monoatomowego, czyli nie grafenu), pozbawiona znacznej elastyczności, pozostała zakrzywiona nawet po odłączeniu napięcia od chipa: w ten sposób powstałe ogniwo memrystorowe pamiętało swój stan. Przykładając ujemne napięcie, badacze wymusili rozproszenie jonów potasu ze studni przez kanały, a system powrócił do pierwotnego stanu.

W 2019 roku na Uniwersytecie Michigan zademonstrowano eksperymentalny chip zawierający około 5,8 tys. memrystorów (aczkolwiek nie w fazie ciekłej) – zaimplementowano w nim wysoce wydajne perceptrony zorganizowane w dwuwarstwową sieć neuronową (źródło: University of Michigan).

Samo pojedyncze ogniwo, które zmienia swoje właściwości elektryczne w odpowiedzi na przyłożone napięcie, nie pozwala jeszcze na utworzenie obwodów logicznych. Jednak grupa z EPFL połączyła dwie takie struktury w bramkę logiczną – uzyskując ostatecznie możliwość wykonywania podstawowych operacji z punktu widzenia cybernetyki: logicznego AND, OR i NOT. Osiągnięcie szwajcarskich badaczy polega właśnie na tym, że po raz pierwszy dla układu memrystorowego w fazie ciekłej wykazano możliwość tworzenia obwodów logicznych o zasadniczo dowolnej złożoności – podczas gdy wcześniej podobne wyniki uzyskiwały bardziej kłopotliwe i znacznie mniej skomplikowane skalowalne metody. Jest oczywiście coś ważnego, ale gdzie byśmy bez tego byli: mimo niewielkich rozmiarów komórki przeniesienie jej z jednego stanu do drugiego zajmuje tak daleko (stan na marzec 2024 r., kiedy opublikowano wyniki prac w Nature Electronics) około dwóch sekund. Przedział jest po prostu gigantyczny, przywodząc na myśl komputery elektromechaniczne i lampowe z połowy ubiegłego wieku – ale kłopoty się rozpoczęły. Badacze z EPFL nie mają wątpliwości, że za 5, najwyżej 10 lat uda im się dobrać taką kombinację materiałów, z których powstanie ogniwo i jonów, aby aktywować „pęcherzyk” membranowy zmieniający jego właściwości przewodzące, tak aby drobnoziarnista ciecz- fazowe sztuczne sieci neuronowe staną się pod względem wydajności poważnymi konkurentami dla cyfrowych emulatorów podobnych struktur na komputerach von Neumanna – nawet nie dzisiejszych, ale tych, które będą dostępne za te same 5-10 lat.

Jest prawdopodobne, że w dłuższej perspektywie płynne komputery neuronowe rzeczywiście staną się głównym nurtem – przynajmniej w przypadku przetwarzania AI w chmurze, nawet jeśli bardziej zwarta implementacja na poziomie systemów osobistych nie będzie zbyt praktyczna. Biorąc pod uwagę potencjał, jaki otwiera przed inżynierami możliwość wykorzystania różnych jonów i różnych membran (być może nawet do przeniesienia tego samego ogniwa do różnych stanów – nie „0” i „1”, jak teraz, ale powiedzmy „−1”, „0” i „1”), nie będzie dużą przesadą stwierdzenie, że obliczenia neuromorficzne w połowie lat 30. XX wieku, jeśli nie dorównają wydajnością i efektywnością energetyczną pracy ludzkiego mózgu, z pewnością wyprzedzą wieloprocesorowe serwery Von Neumanna w szeregu zadań wymagających dużych zasobów. Możemy się tylko domyślać, jaki poziom złożoności osiągną tego typu problemy w przyszłości i jakie problemy aplikacyjne można rozwiązać za pomocą układów neuromorficznych w fazie ciekłej!

⇣ Spis treści Wiertarka do obliczeń Do tuby! Mieszaj i nie potrząsaj Komentarz ( ) Wieczorne 3DNews W każdy dzień powszedni wysyłamy podsumowanie wiadomości bez żadnych bzdur i reklam. Dwie minuty na przeczytanie – i jesteś świadomy głównych wydarzeń. Powiązane materiały Powstał tranzystor hybrydowy na bazie jedwabiu – obiecujące połączenie krzemu i biotechnologii Procesory do komputera kwantowego z 1 milionem kubitów będą produkowane w USA w fabryce ubiegłego wieku Wprowadzenie pierwszego na świecie nietoksycznego tranzystora, który w pełni nadaje się do recyklingu Profesor MIT podejrzany o szpiegostwo na rzecz Chin przez USA pomógł odkryć „najlepszy materiał” do produkcji półprzewodników Nowy UMM, czyli uniwersalna maszyna memów Historie IT: Elektronika grafenowa: od laboratorium do produkcji

Udostępnij ten artykuł
Dodaj komentarz