Fehlerkorrektur bei Quantencomputern: Durchbruch?
Das Google Quantum AI Team hat eine Methode zur Fehlerkorrektur bei Quantencomputern entwickelt, mit der sie die Fehlerraten nach eigenen Angaben um den Faktor 100 reduzieren können. Die Studie ist am 15.07.2021 im Fachjournal „Nature“ erschienen (siehe Primärquelle).
Professor für Technische Physik, Technische Universität München (TUM)
„Das große Ziel derzeitiger Bestrebungen im Bereich der Quantentechnologien ist es, einen fehlertoleranten universellen Quantencomputer zu bauen, um damit Probleme lösen zu können, die mit herkömmlichen klassischen Computern nicht berechnet werden können. Eines der wichtigsten Bestandteile eines solchen universellen Quantencomputers ist die Fehlerkorrektur, bei der mehrere physikalische Qubits zu einem logischen Qubit zusammengefasst werden, das weniger fehleranfällig ist als die zugrunde liegenden physikalischen Qubits selbst.“
„Damit dies funktioniert, benötigen wir einerseits gute Qubits, also hochwertige Materialien und Fabrikationstechnologien, zum anderen hochpräzise Ansteuerungsmethoden zur Durchführung von Qubit-Operationen und zur Qubit-Auslese. Da aber schon geringste Störeinflüsse einen Quantenzustand zerstören können, braucht es aber auch eine geeignete Methode zur Fehlerkorrektur, die es uns ermöglicht, Fehler zu erkennen, ohne den Quantenzustand selbst zu zerstören.“
„Obwohl die Technologie in den letzten Jahren enorme Fortschritte gemacht hat, sind aktuelle Quantenprozessoren noch nicht in der Lage, Algorithmen auf logischen Qubits auszuführen – hauptsächlich, weil die erforderlichen niedrigen Fehlerraten sowohl für die Kontrolle als auch die Auslese der Qubits noch nicht erreicht werden konnten.“
„Die präsentierten Ergebnisse weisen zwar nur geringe Verbesserungen der Fehlerraten auf, insbesondere bei der Messung gegenüber Vorgängermodellen des Google-Quantenprozessors; das Hauptergebnis ist aber vielmehr konzeptioneller Natur: In dem Manuskript zeigt Google AI, dass für einen spezifischen Fehlerkorrekturmechanismus durch das Hinzunehmen weiterer physikalischer Qubits Fehler in einem daraus gebildeten logischen Qubit exponentiell unterdrückt werden können.“
„Dies ist insofern ein wichtiges Ergebnis, als dass damit ein wichtiger Aspekt von Fehlerkorrektur gezeigt wird, nämlich dass Fehler in einem zukünftigen Quantencomputer tatsächlich im Prinzip stark unterdrückt werden können. Dies konnte hier für den sogenannten ‚Wiederholungscode‘ gezeigt werden, einen der einfachsten Fehlerkorrekturmechanismen, bei dem diese exponentielle Unterdrückung von Fehlern schon bei relativ moderaten Güten von Qubits und Operationen sichtbar wird. Dieser Code ist jedoch noch nicht geeignet, um ein logisches Qubit vor allen möglichen Fehlerquellen gleichzeitig zu schützen. Dies kann erst durch komplexere Codes wie den Surface-Code realisiert werden, wozu aber noch weitere Verbesserungen an der Plattform vorgenommen werden müssen.“
„Bei ihren Untersuchungen zu korrelierten Fehlern stoßen die Forscher von Google interessanterweise auch auf ‚globale‘ Fehler, also Fehler, die alle Qubits gleichzeitig betreffen, mit einer Abklingzeit von mehreren zehn Millisekunden – eine sehr lange Zeit relativ zur Operationszeit des Quantencomputers. Diese Fehler werden auf hoch energetische Strahlung wie zum Beispiel kosmische Strahlung zurückgeführt, eine wichtige Erkenntnis hin zu einem besseren Verständnis der relevanten Fehlermechanismen, die auch unter anderem am KIT in der Gruppe von Ioan Pop untersucht werden.“
„Zusammenfassend zeigen die Autoren eindeutig, dass durch die Erweiterung der Codegröße des Wiederholungscodes Fehler exponentiell unterdrückt werden können. Es wird aber auch klar, dass noch viele weitere Verbesserungen hinsichtlich Qubit-Kohärenz und Kontrolle notwendig sind, um einen lauffähigen fehlerkorrigierten Quantencomputer basierend auf praxisrelevanten Fehlerkorrekturcodes wie dem Surface-Code realisieren zu können.“
Direktor des Bereichs Quantum Control, Peter Grünberg Institut (PGI-8), Forschungszentrum Jülich GmbH (FZJ)
„Die Studie ist für mich von vergleichbarer Wichtigkeit wie das Paper zur Quantenüberlegenheit 2019 [1]. Während das damalige Ergebnis zwar aus akademischer Sicht wichtig war und einen Durchbruch gezeigt hat, war es noch nicht praktisch nutzbar. Das ist hier anders, die in der aktuellen Studie vorgestellten Methoden zur Fehlerkorrektur sind ein großer Schritt zur Praxisanwendung. Daher sind die Ergebnisse meiner Meinung nach sehr wichtig.“
„Die in der Studie angewandten Methoden sind in der Theorie zwar bekannt und etabliert. Die Realisierung der Methoden und der Nachweis, dass die Methoden auch praktisch anwendbar sind und auch über mehrere Zyklen der Fehlerkorrektur funktionieren, ist aber ein großer Fortschritt.“
„Ohne Fehlerkorrektur kann es keinen funktionierenden Quantencomputer geben. Die Vorteile der Quanteninformationsverarbeitung sind nur nutzbar, wenn die Information sich auch über die gesamte Laufzeit der durchgeführten Rechnung wie eine Quanteninformation verhält – die Quantenkohärenz also erhalten bleibt, bis die Rechnung durchgeführt wurde. Diese Kohärenz ist sehr fragil, Dekohärenz führt dazu, dass man den Vorteil durch die Quantenzustände verliert. Daher müssen Fehler sehr schnell korrigiert werden.“
„Es gibt noch andere Ansätze zur Fehlerkorrektur als den in der Studie vorgestellten – zum Beispiel passive Fehlerkorrektur, etwa durch ‚decoherence-free subspaces‘ oder ‚noiseless subsystems‘. Diese Ansätze haben zwar gegebenenfalls theoretische Vorteile, befinden sich aber seit mehreren Jahren noch im Stadium der Grundlagenforschung. In puncto Realisierbarkeit liegt der in der aktuellen Studie vorgestellte Ansatz also vorn, er ist der erste, der die Praktikabilität der Fehlerkorrektur nachgewiesen hat. Man sieht beispielsweise auch, dass Microsoft lange auf einen Ansatz mit topologischen Qubits gesetzt hat, aufgrund des begrenzten technologischen Fortschritts in dem Bereich aber jetzt wieder technologieoffener an das Thema heranzugehen scheint. Momentan erwarte ich nicht, dass kurzfristig ein vergleichbares Niveau der Genauigkeit mit alternativen Ansätzen zur aktiven Fehlerkorrektur erreicht wird.“
„Google ist damit angeblich zwei Größenordnungen näher an der notwendigen Genauigkeit zum Ausschöpfen des Potenzials von Quantencomputern als vorher. In der Tat kann ein Quantenbit mit der vorgestellten Fehlerkorrektur bis zu 100-mal länger im Status der Quantenüberlagerung gehalten werden. Es verbleiben aber weitere Herausforderungen. Die Fehlerkorrektur muss noch mit Operationen kombiniert werden. Qubits müssen miteinander verbunden werden, um logische Operationen zwischen ihnen durchführen zu können. Die Skalierung auf größere Zahlen physikalischer Qubits und logischer Qubits sowie die Kopplung zwischen diesen Qubits muss gewährleistet werden. Dann wird man in der Lage sein, eine wirklich fehlertolerante Rechnung durchzuführen. Das ist noch eine Stufe komplizierter als das, was in dieser Studie gezeigt wurde.“
„Die Fehlerrate hängt auch davon ab, wie man die Kopplung zwischen diesen Qubits realisiert. Daher kann man zum jetzigen Zeitpunkt auch noch nicht sicher sagen, ob eine Reduktion der Fehlerrate um den Faktor 100 ausreicht, oder ob man den Faktor 1.000 oder 10.000 benötigt.“
Auf die Frage, inwiefern es überraschend oder wichtig ist, dass die Rate der Fehlerkorrektur exponentiell mit der Anzahl der verwendeten Qubits ansteigt:
„Dass die Rate der Fehlerkorrektur mit Anzahl der verwendeten Qubits exponentiell ansteigt, ist nicht überraschend. Das war theoretisch erwartet. Trotzdem ist es schön, zu sehen, dass sich diese theoretische Annahme bewahrheitet hat. Denn dieser exponentielle Anstieg ist für die Realisierung eines kompletten, funktionierenden Quantencomputers unabdingbar.“
Professor für Theoretische Physik, Center for Quantum Physics, Universität Innsbruck, und Forschungsleiter am Institut für Quantenoptik und Quanteninformation, Österreichische Akademie der Wissenschaften, Innsbruck, Österreich
„Fehlerkorrektur ist ein notwendiger und entscheidender Schritt auf dem Weg zum skalierbaren und fehlertoleranten Quantencomputer. Es ist die Voraussetzung, um auf Quantencomputern auch tatsächlich Quantenalgorithmen zu implementieren, welche den Erwartungen und Hoffnungen gerecht werden, dass Quantencomputer Probleme lösen, die über die Möglichkeiten eines klassischen Computers hinausgehen.“
„Fehlerkorrektur auf dem Quantencomputer ist konzeptuell und theoretisch ein wohl entwickeltes Gebiet der Quanteninformation. Die große Herausforderung ist, dies auf Quantenhardware, wie sie heute im Labor existiert, zu implementieren. In diesem Sinne ist das vorliegende Papier von Google Quantum AI ein wichtiger Schritt.“
„Für die Fehlerkorrektur wird ein logisches Quantenbit in mehrere physikalische – somit fehlerbehaftete – Quantenbits enkodiert. Je größer die Zahl dieser physikalischen Qubits, desto besser ist die Fehlerunterdrückung. Theoretisch erwartet man eine exponentielle Unterdrückung von Fehlern mit der Zahl der physikalischen Qubits. Genau das zeigt Google erstmals mit diesem Experiment.“
„Dieser Erfolg ist entscheidenden technologischen Verbesserungen auf allen Ebenen im Sycamore Prozessor (bekannt von den Quantum Supremacy Experimenten) geschuldet. Der Weg zur Fehlerkorrektur ist ein Marathon, Fortschritte in diese Richtung sind inkrementell, aber bemerkenswert.“
„Google zeigt im vorliegenden Papier eine Fehlerkorrektur als ‚Repetition Code‘ für supraleitende Qubits. Dabei werden nur bestimmte Fehler (wie zum Beispiel Phasenfehler des Qubits) korrigiert. Das langfristige Ziel – und dem ist man nun einen Schritt näher – ist der ‚Surface Code‘ in zwei Dimensionen, der dann tatsächlich alle Fehler korrigieren können wird.“
„Andere Gruppen (wie zum Beispiel R. Schoelkopf in Yale) haben in der Vergangenheit sogenannte ‚Hardware efficient‘ Fehlerkorrekturschemata entwickelt, die viel spezifischer und damit auch effizienter auf Hardware von supraleitenden Qubits ausgerichtet waren, die aber weniger allgemein und damit weniger skalierbar sind.“
„In diesem Zusammenhang sei auch auf die Serie von Publikationen zur Fehlerkorrektur in Ionenfallen-Quantencomputern [2] verwiesen.“
„Wie in der Zusammenfassung und Vorausschau des Papiers diskutiert wird, ist das Fernziel die Implementierung eines 2D Surface Code, wobei die Fehlerrate – um skalierbare Fehlerkorrektur zu erzielen – doch deutlich über den momentan erzielten Resultaten liegen muss.“
„Für die Zukunft stellt sich noch die entscheidende Herausforderung, auf den enkodierten, fehlerkorrigierten Quantenbits auch Quantengatteroperationen zu implementieren.“
„Während momentane Architekturen – ziemlich unabhängig von der Plattform – bis auf 1000 Qubits skalieren, ist Fehlerkorrektur mit Enkodierung von logischen Qubits in physikalische, fehlerbehaftete Qubits sehr ressourcenintensiv. Die Herausforderung wird also auch sein, die Zahl der (physikalischen) Qubits um Größenordnungen über die momentan erreichten Zahlen hinaus zu steigern.“
Auf die Frage, inwiefern es überraschend oder wichtig ist, dass die Rate der Fehlerkorrektur exponentiell mit der Anzahl der verwendeten Qubits ansteigt:
„Das exponentielle Skalieren der Fehlerkorrektur ist theoretisch zu erwarten. Es ist schön zu sehen, dass diese Erwartungen mit Experimenten übereinstimmen.“
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ)
„Die Studie testet experimentell die Quantenfehlerkorrektur. Sie zeigt anhand eines einfachen Fehlerkorrekturcodes, dass die Fehlerkorrektur exponentiell effektiv ist. Das heißt, der Anteil der Fehler, die von der Quantenfehlerkorrektur nicht behoben werden, sinkt exponentiell mit der Größe des Fehlerkorrekturcodes.“
„Das wird so auch in der Theorie der Quantenfehlerkorrektur erwartet – dort allerdings auf der Grundlage von stark vereinfachten Fehlermodellen. Diese Studie ist damit einerseits eine Demonstration, dass die Google-Gruppe alle Zutaten zur Fehlerkorrektur mit einer beeindruckenden Zahl von Qubits und Wiederholungsrunden beherrscht. Andererseits zeigt die Studie, dass die oben genannte Theorie der Fehlerkorrektur Experimente ausreichend genau beschreibt und dass kleine Abweichungen zur Entdeckung exotischer Fehlermechanismen führen, die dann adressiert werden können.“
„Zum Hintergrund: Quantencomputer sind fehleranfällig. Der Grund hierfür ist nur zu kleinen Teilen, dass die Hardware noch sehr neu ist. Viel wichtiger ist, dass Quantenalgorithmen während der Ausführung analoge (in Abgrenzung zu digitalen) Elemente enthalten, sowie die Dekohärenz – also die Tendenz von Quantensytemen, die im Kontakt zu einer makroskopischen Umgebung stehen (wie dem Ein- und Ausgabesystem des Quantencomputers), klassisch zu werden. Außerdem gibt es bereits für ein Qubit nicht nur eine Art Fehler (den Bitfehler, als Vertauschen von 0 und 1) wie im Klassischen, sondern zusätzlich auch noch einen Phasenfehler.“
„Quantenfehlerkorrektur erlaubt es aber, die Fehlerrate – also die Fehlerwahrscheinlichkeit pro Operation – zu reduzieren. Dies wird durch Redundanz erreicht: Bei der Nutzung rechnet man mit ‚logischen Qubits‘, die aus vielen ‚physikalischen Qubits‘ bestehen, an denen Fehler durch Vergleichsmessungen detektiert und korrigiert werden. Dies ist möglich, wenn die Fehlerrate der physikalischen Qubits unter einem bestimmten Schwellenwert liegt. In diesem Kontext wurde also gezeigt, dass die Fehlerrate der logischen Qubits exponentiell in der Zahl der physikalischen Qubits pro logischem Qubits fällt.“
„Das Experiment nutzt den bekannten und in Details weiter verbesserten Sycamore-Chip aus dem berühmten Quantenüberlegenheitsexperiment. Für den aktuell als Standard zur Korrektur aller Fehlerarten geltenden Oberflächencode liegen die Fehlerraten des Chips nur knapp unter der Fehlerschwelle – zu knapp, um die exponentielle Skalierung wirklich überzeugend zu zeigen. Darum greift Google auf einen einfacheren Fehlerkorrekturcode zurück, den Wiederholungscode. Dieser hat einen sehr hohen Schwellwert und geringen Overhead, er korrigiert aber nur einen Teil der möglichen Fehler, nämlich die reinen Bitfehler (oder alternativ den reinen Phasenfehler, beides wird angeschaut). Dies ist für den Zweck der Demonstration exponentieller Effizienz ein legitimer – und altbekannter – Trick, für die langfristige Nutzung der Quantenfehlerkorrektur müssen aber alle Fehler korrigiert werden.“
„Der Oberflächencode wird in dem Paper auch untersucht, allerdings in kleinen Versionen. Dennoch gelingt es, die Effizienz einer großen Zahl von Fehlerkorrekturzyklen zu untersuchen. Die Pionierarbeit bei der Demonstration von Oberflächencodes in supraleitenden Qubits von der ETH Zürich von 2020 [3] wird somit quantitativ verbessert.“
Leiter der Arbeitsgruppe Nichtlineare Quantenoptik, Institut für Physik, Humboldt-Universität zu Berlin und Dr. Helen Chrzanowski, Postdoctoral Researcher, Institut für Physik, Humboldt-Universität zu Berlin
„Eine der unbestritten weltführenden Gruppen im Wettlauf, den ersten universellen Quantencomputer zu konstruieren, hat einen der besonders kritischen Meilensteine auf dem Weg dorthin genommen. Obwohl es sich im Vergleich zur Vision eines echten, nützlichen Quantencomputers noch um ein sehr kleines Gerät handelt, zeigt es doch überzeugend, dass effektive und vor allem effiziente Fehlerkorrektur in einem Quantenprozessor auch in der Praxis möglich ist. Außerdem sind die beobachteten Fehlerraten so niedrig, dass es sehr plausibel erscheint, dass sehr bald durch weitere Verbesserungen in Design und Materialwissenschaft die Grenze zur Skalierbarkeit überschritten werden wird. Allerding muss, wie die Autoren in ihrer Arbeit auch betonen, diese Grenze nicht nur ein wenig, sondern weit überschritten werden, um tatsächlich einen skalierbaren Quantencomputer zu erreichen – um circa zehnmal kleinere Fehlerraten. Die Zeitskala dafür ist jedoch extrem schwierig abschätzbar und kann – muss aber nicht – im Bereich von 5 bis 15 Jahren liegen.“
Auf die Frage, warum Fehlerkorrektur für Quantencomputer so wichtig ist:
„Für jede Art von Computer ist Fehlerkorrektur absolut essenziell – weil sich Fehler, die nicht korrigiert werden, aufschaukeln und (unbemerkt) zu falschen Berechnungsergebnissen führen. Bei Quantencomputern ist dies noch kritischer als bei klassischen Computern, da es mehrere verschiedene Arten von Fehlern gibt. Bei klassischen Computern lässt sich Fehlerkorrektur relativ einfach über mehrfaches Kopieren und Vergleichen von Daten (Redundanz) erreichen. Kopieren von Quantenbits ist aber prinzipiell unmöglich (‚No-Cloning Theorem‘) weshalb dieser Weg für Quantencomputer versperrt ist. Erstaunlicherweise konnten dennoch theoretisch sehr früh sogenannte ‚Codierungen‘ und Messprotokolle gefunden werden, die eine vollständige Fehlerkorrektur bei Quantencomputern erlauben, die vor allem auch effizient ist – also nicht exponentiell steigende Ressourcen verbraucht. Erst damit ist der Bau eines echten Quantencomputers überhaupt denkbar.“
„Ein solcher der ersten Codes sowie ein erst vor wenigen Jahren entwickelter, im Prinzip sehr viel effizienterer Code wurde jetzt auf dem Google Chip Sycamore mit einigen Dutzend Qubits programmiert und analysiert. Beide zeigen äußerst vielversprechende Ergebnisse.“
Auf die Frage, inwiefern es überraschend oder wichtig ist, dass die Rate der Fehlerkorrektur exponentiell mit der Anzahl der verwendeten Qubits ansteigt:
„Exponentiell effiziente Fehlerkorrektur ist enorm wichtig, ja notwendig, um Fehlerkorrektur auf einem zukünftigen universellen Quantencomputer effizient umzusetzen. Wäre dies nicht so, würden die benötigten Ressourcen für die Fehlerkorrektur so stark wachsen, dass der Vorteile der Quantenalgorithmen an sich aufgefressen würden. Daher ist diese Beobachtung der Autoren hier enorm wichtig, obwohl sie die Skalierung natürlich ‚nur‘ für eine im Vergleich geringe Anzahl von Qubits demonstriert. Andererseits ist die Kombination und die Anzahl der physikalischen Qubits (bis zu 21), die zu einer großen Distanz zwischen den Qubits (11) führt, zusammen mit der Anzahl der Rechenrunden (50) ein Riesenschritt im Vergleich zu bisherigen, viel kleineren Umsetzungen des Prinzips.“
„Ein weiterer, etwas im Hintergrund scheinender, aber trotzdem sehr wichtiger Aspekt der Arbeit ist, dass die Art der Fehler und insbesondere die Frage, ob diese in Mustern auftreten, genau analysiert wurde. Muster oder Korrelationen in den auftretenden Fehlern, seien sie auch sehr klein, sind gewissermaßen Gift für die Fehlerkorrektur – tödliches Gift, wenn diese Korrelationen zu stark und zu weit verteilt sind, weil dies die exponentielle Rate der Fehlerkorrektur zerstören würde. Dies ist hier nicht der Fall, was die Autoren sowohl direkt durch umfassende Analyse der Messdaten zeigen, als auch indirekt, indem eine exponentielle Fehlerkorrekturrate beobachtet werden konnte. Dies ist ein nicht zu unterschätzendes Resultat, an dem sich zukünftige und alternative Ansätze, skalierbare Quantencomputer zu konstruieren, messen lassen müssen.“
Dieses Statement entstand in Zusammenarbeit mit:
Dr. Helen Chrzanowski
Postdoctoral Researcher, Institut für Physik, Humboldt-Universität zu Berlin
„Peter Zoller ist Gesellschafter der Alpine Quantum Technologies (AQT) GmbH sowie der Institut für Quantenphysik GmbH.“
„Frank Wilhelm-Mauch koordiniert das Projekt OpenSuperQ, welches eine ähnliche Hardwareplattform entwickelt (aber kein hohes Gewicht auf Fehlerkorrektur legt). Er ist Mitglied des technischen Beirats von IQM, einem Startup in Quantencomputing.“
Alle anderen: Keine Angaben erhalten.
Primärquelle
Kelly J et al. (2021): Exponential suppression of bit or phase errors with cyclic error correction. Nature. DOI: 10.1038/s41586-021-03588-y.
Weiterführende Recherchequellen
Science Media Center (2021): Steht der Quantenrechner vor der Tür? Forschung, Förderung und Blick in die Zukunft bei Quantentechnologien. Press Briefing. Stand: 12.04.2021.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Martinis JM et al. (2019): Quantum supremacy using a programmable superconducting processor. Nature; 574: 505-510. DOI: 10.1038/s41586-019-1666-5.
[2] Stricker R et al. (2020): Experimental deterministic correction of qubit loss. Nature; 585: 207-210. DOI: 10.1038/s41586-020-2667-0.
[3] Andersen CK (2020): Repeated quantum error detection in a surface code. Nature Physics; 16: 875-880. DOI: 10.1038/s41567-020-0920-y.
Prof. Dr. Stefan Filipp
Professor für Technische Physik, Technische Universität München (TUM)
Prof. Dr. Tommaso Calarco
Direktor des Bereichs Quantum Control, Peter Grünberg Institut (PGI-8), Forschungszentrum Jülich GmbH (FZJ)
Prof. Dr. Peter Zoller
Professor für Theoretische Physik, Center for Quantum Physics, Universität Innsbruck, und Forschungsleiter am Institut für Quantenoptik und Quanteninformation, Österreichische Akademie der Wissenschaften, Innsbruck, Österreich
Prof. Dr. Frank Wilhelm-Mauch
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ)
Dr. Sven Ramelow
Leiter der Arbeitsgruppe Nichtlineare Quantenoptik, Institut für Physik, Humboldt-Universität zu Berlin und Dr. Helen Chrzanowski, Postdoctoral Researcher, Institut für Physik, Humboldt-Universität zu Berlin