Google wymyślił, jak pozbyć się błędów w komputerach kwantowych, ale IBM zakwestionował tę metodę

Redaktor NetMaster
Redaktor NetMaster
4 min. czytania

Naukowcy z Google opublikowali artykuł w Nature, w którym ogłosili przełom w poprawianiu błędów w obliczeniach kwantowych. W eksperymentach na rzeczywistym układzie 72 kubitów uzyskano wynik, którego teoretyczne przeskalowanie do układu miliona kubitów obiecuje uzyskanie bezbłędnych obliczeń o dowolnej złożoności. W rzeczywistości zespół Google uzasadnił możliwość praktycznego wykorzystania komputerów kwantowych.

Wcześniej Google siedział już w kałuży z wypowiedziami na temat postępów w komputerach kwantowych. W 2019 roku ogłosiła, że ​​jako pierwsza osiągnęła wyższość kwantową – w ciągu kilku minut była w stanie rozwiązać problem na systemie kwantowym, który zwykły superkomputer IBM rozwiązałby przez tysiące lat. Wzmianka o systemie IBM była wyraźnie nie na miejscu, ponieważ firma uznała za punkt honoru swoją obronę i szybko odrzuciła roszczenie Google. Dlatego dzisiaj firma zachowała się rozważnie i zgłosiła nowy przełom jako wynik prawdopodobny, ale niekoniecznie osiągalny.

O jakim przełomie mówi Google? Jak wiadomo, stany kwantowe, czyli wartości kubitów – bitów kwantowych – są bardzo niestabilne i „nieśmiałe”. Każdy hałas od wibracji do wibracji termicznych, sygnałów radiowych i cząstek przybywających z kosmosu może zniszczyć te stany. Chłodzenie kriogeniczne, ekrany, betonowe ściany i podłogi mogą wydłużyć stabilność, ale wciąż trwa to bardzo, bardzo krótko – nie dłużej niż 10-15 mikrosekund. Jest tylko jedno wyjście – korygowanie błędów (utraty stabilności, a co za tym idzie danych) w miarę ich pojawiania się, przynajmniej do czasu ukończenia algorytmów obliczeniowych.

Najbardziej obiecująca obecnie jest korekcja błędów za pomocą kodów powierzchniowych, kiedy to z fizycznych kubitów danych i powiązanych z nimi kubitów pomiarowych tworzona jest dwuwymiarowa macierz. Kubity pomiarowe są zawsze o jeden mniej. Przenoszone są do nich stany fizycznych kubitów danych, co umożliwia korygowanie błędów występujących w tych stanach. Na przykład dla macierzy 3×3 będzie 9 kubitów danych i 8 kubitów pomiarowych. Macierz 5×5 będzie zawierała 25 kubitów danych i 24 kubity pomiarowe do korekcji błędów.

W każdym przypadku kombinacja kubitów danych i kubitów pomiarowych będzie reprezentować jeden kubit logiczny z korekcją błędów. W pierwszym przypadku przykładu jeden kubit logiczny będzie wymagał 17 kubitów fizycznych, aw drugim 49 kubitów fizycznych. Ostatnie prace zespołu Google wykazały, że im większa tablica kubitów fizycznych w każdym kubicie logicznym, tym niższy poziom błędów w obliczeniach. Google wcześniej zgłaszał takie ustalenia, a teraz pokazał w praktycznym systemie, że w przypadku matrycy 3×3 stopa błędu wynosi 3,028%, a w przypadku matrycy 5×5 jest mniejsza i równa do 2,914%. Na tej podstawie naukowcy wywnioskowali, że im więcej kubitów fizycznych w każdym kubicie logicznym, tym mniejsze prawdopodobieństwo popełnienia błędu.

Według wyliczeń Google, aby zbudować całkowicie bezbłędny komputer kwantowy, trzeba stworzyć kubity logiczne z tysiąca kubitów fizycznych dla każdego. Praktycznej wartości oczekuje się zatem, gdy zostanie osiągnięty komputer kwantowy o objętości 1000 kubitów logicznych, co wymagałoby „tylko” miliona kubitów fizycznych. I to nie jest marzenie o odległej przyszłości, Google jest pewien. To jest plan ruchu w kierunku celu.

Jednak sceptycy z tego samego IBM przypominają, że podczas skalowania dowolnych systemów błędy każdego podsystemu mają tendencję do kumulowania się i nie jest faktem, że w przypadku systemu składającego się z miliona kubitów suma błędów systemowych nie zacznie przeważać nad zdolność platformy do korygowania błędów obliczeniowych.

Udostępnij ten artykuł