×
1 Wybierz Certyfikaty EITC/EITCA
2 Ucz się i zdawaj egzaminy online
3 Zdobądź certyfikat swoich umiejętności informatycznych

Potwierdź swoje umiejętności i kompetencje IT w ramach europejskich ram certyfikacji IT z dowolnego miejsca na świecie, całkowicie online.

Akademia EITCA

Standard poświadczania umiejętności cyfrowych opracowany przez Europejski Instytut Certyfikacji IT, mający na celu wspieranie rozwoju społeczeństwa cyfrowego

ZALOGUJ SIĘ NA SWOJE KONTO

STWÓRZ KONTO ZAPOMNIAŁEŚ HASŁA?

ZAPOMNIAŁEŚ HASŁA?

ACH, CHWILA, TERAZ JUŻ PAMIĘTAM!

STWÓRZ KONTO

MASZ JUŻ KONTO?
EUROPEJSKA AKADEMIA CERTYFIKACJI INFORMATYCZNEJ - POŚWIADCZENIE PROFESJONALNYCH KOMPETENCJI CYFROWYCH
  • ZAREJESTRUJ SIĘ
  • ZALOGUJ
  • INFO

Akademia EITCA

Akademia EITCA

Europejski Instytut Certyfikacji Informatycznej - EITCI Institute

Dostawca Certyfikacji

Instytut EITCI ASBL

Bruksela, Belgia, Unia Europejska

Zarządzanie ramami Europejskiej Certyfikacji IT (EITC) na rzecz wspierania profesjonalizmu IT i społeczeństwa cyfrowego

  • CERTYFIKATY
    • AKADEMIE EITCA
      • KATALOG AKADEMII EITCA<
      • EITCA/CG GRAFIKA KOMPUTEROWA
      • EITCA/IS BEZPIECZEŃSTWO IT
      • EITCA/BI INFORMATYKA BIZNESOWA
      • EITCA/KC KLUCZOWE KOMPETENCJE
      • EITCA/EG E-ADMINISTRACJA
      • EITCA/WD PROJEKTOWANIE STRON
      • EITCA/AI SZTUCZNA INTELIGENCJA
    • CERTYFIKATY EITC
      • KATALOG CERTYFIKATÓW EITC<
      • GRAFIKA KOMPUTEROWA
      • PROJEKTOWANIE STRON WWW
      • PROJEKTOWANIE 3D
      • OPROGRAMOWANIE BIUROWE
      • CERTYFIKAT BITCOIN BLOCKCHAIN
      • CERTYFIKAT WORDPRESS
      • CERTYFIKAT PLATFORM CLOUDNOWY
    • CERTYFIKATY EITC
      • TECHNOLOGIE INTERNETOWE
      • TECHNIKI KRYPTOGRAFICZNE
      • TECHNOLOGIE BIZNESOWE
      • SYSTEMY TELEPRACY
      • PROGRAMOWANIE
      • RYSUNEK PORTRETOWY
      • CERTYFIKATY ROZWOJU SIECI
      • CERTYFIKATY DEEP LEARNINGNOWY
    • CERTYFIKATY DZIEDZINOWE
      • ADMINISTRACJA PUBLICZNA W UE
      • NAUCZYCIELE I EDUKATORZY
      • SPECJALIŚCI BEZPIECZEŃSTWA IT
      • PROJEKTANCI I ARTYŚCI GRAFIKI
      • BIZNESMENI I MENEDŻEROWIE
      • DEWELOPERZY BLOCKCHAIN
      • PROJEKTANCI STRON WWW
      • EKSPERCI CLOUD AINOWY
  • PROMOWANE
  • SUBSYDIUM
  • JAK TO DZIAŁA?
  •   IT ID
  • O EITCA
  • KONTAKT
  • MOJE ZAMÓWIENIE
    Twoje obecne zamówienie jest puste.
EITCIINSTITUTE
CERTIFIED

Jaki dokładnie problem rozwiązano dzięki osiągnięciu supremacji kwantowej?

by Mirka Hermuta / Środa, 11 czerwca 2025 / Opublikowano w Artificial Intelligence, EITC/AI/TFQML Kwantowe Uczenie Maszynowe TensorFlow, Supremacja kwantowa, Wyjaśnienie supremacji kwantowej

Supremacja kwantowa to kamień milowy odnoszący się do eksperymentalnej demonstracji, w której programowalny procesor kwantowy wykonuje dobrze zdefiniowane zadanie obliczeniowe w czasie niewykonalnym dla żadnego znanego klasycznego komputera. Eksperyment zgłoszony przez Google w 2019 r., przeprowadzony na 53-kubitowym nadprzewodzącym procesorze o nazwie „Sycamore”, jest pierwszą zaakceptowaną demonstracją tego kamienia milowego. Zadanie, które wykonał Sycamore, jest często parafrazowane jako „próbkowanie z rozkładu wyjściowego losowego obwodu kwantowego”. Dokładny problem obliczeniowy, jego formalne sformułowanie i powody, dla których uważa się, że jest poza praktycznym zasięgiem klasycznych maszyn, są badane poniżej krok po kroku.

1. Teoretyczne ujęcie losowego próbkowania obwodów (RCS)

1.1. Definicja formalna
Losowy obwód kwantowy C działający na n kubitach został narysowany z publicznie znanego rozkładu D obwodów. Każdy obwód ma ustaloną głębokość d (liczba cykli bramek) i określony zestaw bramek; w przypadku demonstracji Sycamore'a d = 20 cykli, a zestaw bramek składał się z dowolnych obrotów pojedynczego kubitu i dwukubitowych bramek fSIM rozmieszczonych na dwuwymiarowej siatce. Problem obliczeniowy jest następujący:

Wejście: opis obwodu C ∼ D na n kubitach.
Zadanie: wygeneruj m niezależnych ciągów bitów s₁, …, s_m ∈ {0,1}ⁿ, których łączny rozkład jest ε-bliski (w całkowitej odległości wariacyjnej) rozkładowi wyjścia kwantowego P_C(z) = |⟨z|C|0ⁿ⟩|².

Wymaganie „ε-close” zabrania trywialnych lub ewidentnie błędnych rozwiązań, takich jak wyprowadzanie jednolitego losowego ciągu. Jest ono wyraźne: dystrybucja wyjściowa musi mieć statystyczną odległość do P_C, która przechodzi określone testy wierności (liniowy benchmarking krzyżowej entropii w eksperymencie Google).

1.2. Klasyfikacja złożoności
Problemy próbkowania są zazwyczaj analizowane w ramach klas złożoności dystrybucyjnej. RCS można sformułować jako problem obietnicy w klasie BQP nad dystrybucjami (BQPSamp). Ważnym przypuszczeniem jest to, że przybliżenie P_C do błędu mnożenia do 1/poly(n) jest średnio #P-trudne. Zgodnie z twierdzeniem Stockmeyera o zliczaniu, wydajny klasyczny próbnik, który daje nawet skromne przybliżenia mnożenia, załamałby hierarchię wielomianową (PH) do jej trzeciego poziomu. Stałe założenie, że PH nie załamuje się, prowadzi społeczność do postrzegania RCS jako klasycznie nierozwiązywalnego przy dużych n i d.

2. Realizacja eksperymentalna na Sycamore

2.1. Sprzęt komputerowy
Sycamore wykorzystuje planarne nadprzewodzące transmonowe kubity. Każdy kubit sprzęga się pojemnościowo z czterema najbliższymi sąsiadami ułożonymi na półprostokątnej sieci. Impulsy napięcia i mikrofal zapewniają obroty pojedynczego kubitu wokół dowolnych osi, podczas gdy strojone sprzęgacze realizują dwukubitową bramkę splątania fSIM (uogólniony √iSWAP, po którym następują człony kontrolowanej fazy).

2.2. Budowa obwodu
Wykonano dwadzieścia cykli, każdy cykl zawierał:

• Dla każdego kubitu, obrót pojedynczego kubitu sparametryzowany jako Rz(θ₁)Rx(θ₂)Rz(θ₃). Kąty zostały narysowane pseudolosowo z wartościami racjonalnymi o wysokiej precyzji, znanymi zarówno eksperymentatorom, jak i weryfikatorom.
• W cyklach naprzemiennych stosowano wzór bramek fSIM pomiędzy rozłącznymi zbiorami sąsiadujących kubitów w taki sposób, że każda krawędź sieci była aktywowana dwukrotnie w ciągu 20 cykli.

Wynikiem jest obwód o „dużej głębokości i małej lokalizacji” wykazujący rozkład Portera-Thomasa prawdopodobieństw wyjściowych.

2.3. Procedura pobierania próbek
Po wykonaniu 20-cyklicznego obwodu, wszystkie 53 qubity zostały zmierzone w bazie obliczeniowej. Każdy przebieg dostarczył 53-bitowy ciąg binarny. Sekwencja eksperymentalnych ciągów bitów jest próbką z P_C.

3. Weryfikacja prawidłowego pobrania próbek

3.1. Test porównawczy entropii krzyżowej (XEB)
W przypadku obwodów do 14 kubitów klasyczna symulacja jest nadal możliwa. Google zmierzył liniową dokładność entropii krzyżowej F_XEB = (2ⁿ)〈P_C(s)〉_m − 1, gdzie 〈·〉_m oznacza średnią empiryczną dla m próbek. Idealne urządzenie kwantowe pobierające próbki idealnie z P_C dałoby F_XEB = 1. Jednorodnie losowy próbnik daje F_XEB ≈ 0. Urządzenie Sycamore osiągnęło F_XEB ≈ 0.002 dla pełnych obwodów 53-kubitowych, co jest zgodne z dokładnością bramki na cykl powyżej 99.9%.

3.2. Weryfikacja wycinka cyklu
Dzięki skróceniu kilku ostatnich cykli zespół stworzył płytsze wersje obwodów, które nadal nadawały się do symulacji w sposób klasyczny, i potwierdził, że XEB płynnie ekstrapoluje wraz z głębokością, co daje pewność co do szacunków dokładności dla eksperymentu na pełnej głębokości.

4. Klasyczny wysiłek symulacyjny

4.1. Algorytm hybrydowy Schrödingera-Feynmana
Własne symulatory Google'a wykorzystywały 4-petabajtowe ślady pamięci rozłożone na 512 rdzeniach TPU i 4096 węzłach superkomputera Summit, aby obliczyć idealne amplitudy dla obwodów do 42 kubitów i 20 cykli. Ekstrapolacja wykorzystania zasobów sugerowała, że ​​symulacja 53 kubitów na pełnej głębokości wymagałaby dni do miesięcy w istniejących systemach eksaskalowych i setek petabajtów pamięci RAM.

4.2. Konkurencyjne symulacje (IBM, Alibaba itp.)
Badacze z IBM zastosowali strategię kontrakcji sieci tensorowej i twierdzili, że ten sam rozkład można było pobrać w ciągu około 2.5 dnia na Summit. Szacunek ten pomijał koszt wejścia/wyjścia zapisu terabajtów danych amplitudy i opierał się na sztuczkach partycjonowania, które zawodzą w przypadku obwodów o nieco większej głębokości lub nieregularnych układach kubitów. Dalsze testy porównawcze potwierdziły szacunki Google, że bezpośrednia klasyczna symulacja o porównywalnej wierności zajęłaby stulecia na obecnych superkomputerach, gdyby była przeprowadzana naiwnie. Nawet jeśli dostrojone algorytmy skrócą 10¹¹ s o dwa rzędy wielkości, luka w czasie wykonywania pozostaje kilka milionów razy większa od 200-sekundowego zegara ściennego Sycamore.

5. Dlaczego losowe próbkowanie obwodów uważa się za trudne

5.1. Rzadkość Portera-Thomasa
Amplitudy wyjściowe chaotycznych obwodów kwantowych podlegają rozkładowi wykładniczemu. W związku z tym niewielkie zmiany amplitud w znacznym stopniu zmieniają prawdopodobieństwa, co sprawia, że ​​przybliżone próbkowanie jest niezwykle wrażliwe na szum obliczeniowy.

5.2. Średnia twardość obudowy
Jozsa i Van den Nest wykazali, że klasyczna symulacja losowo narysowanego obwodu z uniwersalnych zestawów bramek jest średnio tak trudna, jak symulacja najtrudniejszych obwodów, zakładając własność antykoncentracji. Aaronson i Chen udowodnili ponadto, że mnożnikowe przybliżenia amplitud pozostają #P-trudne w przypadku średnim dla obwodów wykazujących antykoncentrację, co spełnia RCS.

5.3. Złożoność drobnoziarnista
Przy założeniu, że nie istnieje klasyczny algorytm działający w czasie 2^{αn} dla przybliżonych rozkładów wyjściowych przy stałej głębokości powyżej 40–50 cykli, hipoteza równoległa do hipotezy czasu wykładniczego wyjaśnia skalowanie wykładnicze obserwowane w obu klasycznych podejściach wykorzystujących sieci tensorowe i ścieżki Feynmana.

6. Dydaktyczny przykład miniaturowy

6.1. Losowy obwód trójkubitowy
Wybierz głębokość obwodu d = 2 cykle:
Cykl 1: losowe obroty pojedynczego kubitu na każdym kubicie, po których następuje bramka CZ pomiędzy q₀-q₁.
Cykl 2: nowe obroty pojedynczego kubitu, po których następuje CZ pomiędzy q₁-q₂.
Klasycznie obliczenie wszystkich ośmiu amplitud wymaga 2³ = 8 liczb zespolonych, trywialnych dla współczesnych komputerów. Próbkowanie 1000 ciągów bitów jest natychmiastowe. Dla 53 kubitów potrzeba amplitud 2⁵³ ≈ 9×10¹⁵; buforowanie tylko tych niezaniedbywalnych jest niemożliwe, ponieważ rozkład Portera-Thomasa zapewnia, że ​​większość amplitud leży powyżej 2^{−53}. Tak więc zabawka z trzema kubitami podkreśla wykładniczy wzrost, zachowując jednocześnie analogiczną strukturę obwodu.

6.2. Ilustracja skalowania sieci tensorowej
Kontrakcja sieci 3×3 na przykładzie trzech kubitów dzieli się na dziewięć tensorów rzędu 2; film do 53 kubitów na siatce niekwadratowej zwiększa indeksy i wiązania, przy czym koszt kontrakcji skaluje się ~χ^w, gdzie χ jest wymiarem wiązania (~2), a w jest szerokością drzewa (≈n). Przekłada się to na 2^{53} po wyeliminowaniu optymalizacji o stałym czynniku.

7. Związek z TensorFlow Quantum (TFQ) i uczeniem maszynowym

Osiągnięcie Sycamore nie wykorzystywało technik uczenia maszynowego w podstawowym zadaniu próbkowania, ale jego metodologia silnie wpłynęła na hybrydowe przepływy pracy klasyczno-kwantowe eksponowane w ramach takich jak TFQ. Losowe próbkowanie obwodów stało się standardową warstwą odniesienia w TFQ, przydatną do:

• Testowanie wytrzymałościowe optymalizatorów gradientu stochastycznego działających na obwodach kwantowych wariacyjnych w warunkach szumu sprzętowego.
• Generowanie syntetycznych zbiorów danych w celu kalibracji kwantowych generatywnych sieci przeciwstawnych, wykorzystując rozkład Portera-Thomasa jako cel.
• Tworzenie map cech, których wartości jądra przybliżają jądra wielomianów wysokiego stopnia, które są klasycznie niedostępne, co jest korzystne dla pewnych konstrukcji maszyn wektorów nośnych.

Naukowcy mogą zatem zbadać, w jaki sposób wskaźniki szkoleniowe pogarszają się wraz ze wzrostem głębokości, co odzwierciedla spadek wierności obserwowany w eksperymencie supremacji.

8. Częste nieporozumienia, wyjaśnienia i ograniczenia

8.1. Przydatność rozwiązanego problemu
RCS nie ma bezpośredniego zastosowania przemysłowego. Jego znaczenie jest fundamentalne: stanowi punkt odniesienia, w którym urządzenia kwantowe przewyższają klasyczne odpowiedniki w co najmniej jednym wyraźnym zadaniu obliczeniowym.

8.2. „Rozwiąż” kontra „próbka”
Sycamore nie obliczał odpowiedzi na problem algebraiczny lub optymalizacyjny; generował próbki. Walidacja opierała się na własnościach statystycznych, a nie na deterministycznej równości.

8.3. „53-kubitowy komputer kwantowy pokonuje superkomputer”
Ta narracja jest często przesadzona. Twierdzenie o supremacji obowiązuje przy założeniu braku nieznanego, drastycznie lepszego klasycznego algorytmu dla przybliżonego RCS i przy progach błędów ustalonych przez eksperyment. Praktyczne, skorygowane o błędy komputery kwantowe do szerokich zastosowań nadal wymagają rzędów wielkości więcej logicznych kubitów.

9. Rozwój po supremacji

9.1. Replikacje międzyplatformowe
Zespoły fotoniczne (np. seria Jiuzhang USTC) przeprowadziły próbkowanie bozonów Gaussa przy użyciu ponad 100 fotonów, co pokazuje, że kryterium supremacji można spełnić w wielu modalnościach fizycznych, dostosowując zadanie próbkowania do natywnych możliwości sprzętu.

9.2. Przyrostowe ulepszenia w klasycznych symulatorach
Kondensacja sieci tensorowej, rozkłady stabilizatorów niskiego rzędu i metody osadzania amplitudy rozszerzyły wykonalne rozmiary symulacji, przesuwając klasyczną granicę z około 43 do 48 kubitów na podobnych głębokościach. Każdy postęp zwęża, ale nie zamyka luki.

9.3. W kierunku przewagi kwantowej dla użytecznych algorytmów
Trwają prace nad przeniesieniem chemii i przepływów pracy optymalizacji kombinatorycznej na sprzęt Noisy Intermediate-Scale Quantum (NISQ). Supremacy zmotywowało do udoskonalenia technik łagodzenia błędów, np. probabilistycznego usuwania błędów i weryfikacji symetrii, które zostały najpierw przetestowane pod kątem obciążeń na obwodach losowych.

10. Najważniejsze wnioski dla praktyków

• Problemem obliczeniowym w teorii supremacji kwantowej jest losowe próbkowanie obwodów: generowanie ciągów bitów z dokładnego rozkładu wyjściowego publicznie określonego, pseudolosowego obwodu kwantowego.
• Twardość formalna wynika ze średniej twardości przypadku #P i domniemanej stabilności hierarchii wielomianów.
• 53-kubitowy procesor Sycamore'a wykonywał 20-cykliczne obwody w ciągu około 200 sekund, podczas gdy najbardziej znane klasyczne algorytmy wymagały astronomicznego czasu i pamięci przy porównywalnej dokładności.
• Weryfikacja obejmuje analizę porównawczą entropii krzyżowej, a nie porównywanie parami ciągów bitów.
• Problem ten jest cenny jako punkt odniesienia i kamień milowy w metodologii, chociaż nie wykonuje klasycznych, użytecznych obliczeń.

Inne niedawne pytania i odpowiedzi dotyczące EITC/AI/TFQML Kwantowe Uczenie Maszynowe TensorFlow:

  • Jakie są główne różnice pomiędzy klasycznymi i kwantowymi sieciami neuronowymi?
  • Jakie są konsekwencje osiągnięcia supremacji kwantowej?
  • Jakie są zalety stosowania algorytmu Rotosolve w porównaniu z innymi metodami optymalizacji, takimi jak SPSA, w kontekście VQE, szczególnie w zakresie płynności i wydajności zbieżności?
  • W jaki sposób algorytm Rotosolve optymalizuje parametry ( θ ) w VQE i jakie są kluczowe etapy procesu optymalizacji?
  • Jakie jest znaczenie sparametryzowanych bramek rotacyjnych (U(θ)) w VQE i jak są one zwykle wyrażane w kategoriach funkcji trygonometrycznych i generatorów?
  • Jak obliczana jest wartość oczekiwana operatora ( A ) w stanie kwantowym opisanym przez ( ρ ) i dlaczego to sformułowanie jest ważne dla VQE?
  • Jaka jest rola macierzy gęstości ( ρ ) w kontekście stanów kwantowych i czym różni się ona dla stanów czystych i mieszanych?
  • Jakie są kluczowe kroki związane z konstruowaniem obwodu kwantowego dla dwukubitowego hamiltonianu w TensorFlow Quantum i w jaki sposób te kroki zapewniają dokładną symulację układu kwantowego?
  • W jaki sposób pomiary przekształcane są w bazę Z dla różnych składników Pauliego i dlaczego ta transformacja jest konieczna w kontekście VQE?
  • Jaką rolę pełni klasyczny optymalizator w algorytmie VQE i jaki konkretny optymalizator jest stosowany w opisanej implementacji TensorFlow Quantum?

Zobacz więcej pytań i odpowiedzi w EITC/AI/TFQML TensorFlow Quantum Machine Learning

Więcej pytań i odpowiedzi:

  • Pole: Artificial Intelligence
  • Program: EITC/AI/TFQML Kwantowe Uczenie Maszynowe TensorFlow (przejdź do programu certyfikacji)
  • Lekcja: Supremacja kwantowa (przejdź do odpowiedniej lekcji)
  • Wątek: Wyjaśnienie supremacji kwantowej (przejdź do powiązanego tematu)
Tagged under: Artificial Intelligence, Złożoność obliczeniowa, Porównanie entropii krzyżowej, Komputery kwantowe, Losowe próbkowanie obwodu, Kubity nadprzewodzące
Strona Główna » Artificial Intelligence » EITC/AI/TFQML Kwantowe Uczenie Maszynowe TensorFlow » Supremacja kwantowa » Wyjaśnienie supremacji kwantowej » » Jaki dokładnie problem rozwiązano dzięki osiągnięciu supremacji kwantowej?

Centrum Certyfikacji

MENU UŻYTKOWNIKA

  • Moje Konto

KATEGORIA CERTYFIKATU

  • Certyfikaty EITC (105)
  • Certyfikaty EITCA (9)

Czego szukasz?

  • Wprowadzenie
  • Jak to działa?
  • Akademie EITCA
  • Dotacja EITCI DSJC
  • Pełny katalog EITC
  • Zamówienie
  • Promowane
  •   IT ID
  • Recenzje EITCA (średnia publikacja)
  • O EITCA
  • Kontakt

Akademia EITCA jest częścią europejskich ram certyfikacji IT

Europejskie ramy certyfikacji IT zostały ustanowione w 2008 roku jako europejski i niezależny od dostawców standard szeroko dostępnej internetowej certyfikacji umiejętności i kompetencji cyfrowych w wielu obszarach profesjonalnych specjalizacji cyfrowych. Ramy EITC są regulowane przez Europejski Instytut Certyfikacji Informatycznej (EITCI), nienastawiony na zysk urząd certyfikacji wspierający rozwój społeczeństwa informacyjnego i niwelujący lukę w umiejętnościach cyfrowych w UE.

Uprawnienie do Akademii EITCA 90% wsparcia EITCI DSJC Subsydium

90% opłat za Akademię EITCA dotowane w rejestracji przez

    Biuro Sekretarza Akademii EITCA

    Europejski Instytut Certyfikacji IT ASBL
    Bruksela, Belgia, Unia Europejska

    Operator Ram Certyfikacji EITC/EITCA
    Nadzorująca Standard Europejskiej Certyfikacji IT
    Uzyskiwania dostępu formularza kontaktowego lub zadzwoń +32 25887351

    Obserwuj EITCI na X
    Odwiedź Akademię EITCA na Facebooku
    Współpracuj z Akademią EITCA na LinkedIn
    Obejrzyj filmy EITCI i EITCA na YouTube

    Finansowane przez Unię Europejską

    Finansowane przez Europejski Fundusz Rozwoju Regionalnego (EFRR) i Europejski Fundusz Społeczny (EFS) w serii projektów od 2007 r., obecnie regulowanych przez Europejski Instytut Certyfikacji Informatycznej (EITCI) od 2008 r.

    Polityka bezpieczeństwa informacji | Polityka DSRRM i RODO | Polityka ochrony danych | Rejestr czynności przetwarzania | Polityka BHP | Polityka antykorupcyjna | Współczesna polityka dotycząca niewolnictwa

    Przetłumacz automatycznie na swój język

    Regulamin usług | Polityka prywatności
    Akademia EITCA
    • Akademia EITCA w mediach społecznościowych
    Akademia EITCA


    © 2008-2025  Europejski Instytut Certyfikacji IT
    Bruksela, Belgia, Unia Europejska

    WRÓĆ
    CZAT Z POMOCĄ
    Czy masz jakieś pytania?