Fortschritt bei Fehlerkorrektur in Quantencomputern
Methode für skalierbare Fehlerkorrektur bei Quantencomputern vorgestellt
Fehlerkorrektur für Quantencomputer essenziell, in den letzten Jahren wichtige Fortschritte
Experten: grundsätzlicher Befund ist ein Meilenstein, praktische Verbesserung in der Studie aber noch klein
Ein Team von Forschenden von Google Quantum AI stellt in einer Studie eine Methode zur Fehlerkorrektur bei Quantencomputern vor. Die Autorinnen und Autoren zeigen einen Weg auf, wie man Fehlerkorrektur skalieren und somit die für den praktischen Einsatz von Quantencomputern nötigen Fehlerkorrekturraten erreichen kann. Die Studie ist am 22.02.2023 im Fachjournal „Nature“ erschienen (siehe Primärquelle).
Professor für Technische Physik, Technische Universität München (TUM)
„Die in der Arbeit von Google AI präsentierten Resultate zur Fehlerkorrektur von logischen Qubits basieren auf einer Implementierung des sogenannten Surface Codes mit supraleitenden Qubits. Supraleitende Qubits gelten derzeit als eine der am weitesten fortgeschrittenen Plattformen für Quantencomputing, mit einigen jüngst vorgestellten sehr vielversprechenden Resultaten zur Fehlerkorrektur, zum Beispiel von der Gruppe von Andreas Wallraff an der ETH Zürich, von Google AI und von IBM. Der oben genannte Surface Code ist eine der Methoden, Fehlerkorrektur zu implementieren und gilt hier auch derzeit als der Königsweg zu einem fehlertoleranten Quantencomputer mit supraleitenden Qubits. Er basiert darauf, dass eine Erhöhung der Anzahl der physikalischen Qubits, die für ein logisches Qubit benötigt wird, zu einer Verminderung der logischen Fehlerrate führt. Das Resultat von Google zeigt zum ersten Mal, dass dies tatsächlich der Fall ist, und ist – obwohl der Effekt noch klein ist – daher als ein Meilenstein in Richtung fehlerkorrigiertes Quantencomputing zu werten.“
Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist:
„Es wird derzeit sehr intensiv an Fehlerkorrektur gearbeitet, insbesondere mit den beiden prominentesten Plattformen, supraleitende Qubits und gefangene Ionen. Um tatsächlich einen Vorteil durch die Implementierung von logischen Qubits zu erhalten, müssen die Fehlerraten allerdings sehr klein sein, unter einem sogenannten Fehler-Threshold. Dann würden logische Qubits länger als die zugrunde liegenden physikalischen Qubits ‚leben‘, also eine längere Kohärenzzeit haben und somit die Durchführung von Quantenalgorithmen erlauben. Hier steht die Forschung gerade an einem Wendepunkt, mit Fehlerraten die gerade an der Grenze dieses Fehler-Thresholds liegen. Es wurde in mehreren Arbeiten gezeigt, dass logische Qubits realisiert werden können, jedoch noch nicht eindeutig, dass diese auch tatsächlich länger leben. Was jedoch nun in der Arbeit von Google gezeigt wird, ist, dass ein Grundpfeiler der Fehlerkorrektur (mehr physikalische Qubits führen zu weniger Fehlern) tatsächlich in einem Experiment realisiert werden kann.“
„Das bringt die Forschung einen Schritt näher in Richtung Fehlerkorrektur. Diese ist insbesondere deswegen äußerst relevant, da damit ein eindeutiger Quantenvorteil bei Algorithmen erzielt werden kann. Mit den derzeit vorhandenen sogenannten noisy-intermediate-scale quantum (NISQ) Prozessoren ist das noch höchst unklar und es gibt derzeit noch keine praktisch anwendbaren Algorithmen. Es ist noch Gegenstand intensiver Forschung, für welche Algorithmen ein Quantenvorteil ohne Fehlerkorrektur zu erwarten ist – und ob überhaupt. Deswegen ist das vom Google AI Team gezeigte Resultat auch ein wichtiger Schritt in Richtung eines Quantenvorteils.“
„Die Studie ist methodisch sehr gut aufbereitet und entspricht den hohen Standards in der Community. Auch die Schlussfolgerungen der Autoren, dass dies ein Schritt in die richtige Richtung sei, aber noch viel Arbeit bevorstehe, sind klar und nachvollziehbar.“
Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben:
„Eine der Hauptherausforderungen ist natürlich die weitere Unterdrückung der Fehlerraten, insbesondere bei der Kontrolle von Qubits und deren intrinsischer Kohärenz. Hier werden derzeit große Fortschritte in den verwendeten Materialien gemacht, sodass die Kohärenzzeiten der Qubits immer weiter steigen. Außerdem werden die Kontrollpulse und auch die Designs der zugrundeliegenden supraleitenden Schaltkreise ständig verbessert, sodass hier sicherlich die Fehlerraten in den nächsten Jahren noch weiter minimiert werden können. Eine weitere Herausforderung ist jedoch die Skalierung hin zu Quantenprozessoren mit mehreren Tausend bis zu Millionen von Qubits. Hier bedarf es noch neuartiger Ansätze zum Beispiel bei der Kontrolle der Qubits, die derzeit auch in anderen Projekten, beispielsweise im europäischen OpenSuperQPlus-Konsortium, erforscht und entwickelt werden. Insgesamt betrachtet gibt es aber kein fundamentales Limit, das der Entwicklung eines fehlertoleranten Quantencomputers entgegenstehen würde.“
Leiter der Forschungsgruppe für Qudit Quantentechnologie, Institut für Experimentalphysik, Universität Innsbruck, Österreich
„Die Studie verfolgt mit dem Surface Code einen der führenden Ansätze für Quantenfehlerkorrektur. Der Fortschritt liegt hier nicht so sehr in den Methoden der Fehlerkorrektur, sondern vielmehr in der experimentellen Kontrolle von Systemen mit 50 oder mehr Qubits. Fehlerkorrektur soll dem Quantencomputer ermöglichen, Rechenfehler durch den Einsatz zusätzlicher Qubits zu unterdrücken. Zusätzliche Qubits bringen üblicherweise aber auch zusätzliche Fehlerquellen. Diese Arbeit demonstriert, dass sich die höhere Komplexität eines Systems mit mehr Qubits so weit unter Kontrolle bringen lässt, dass ein größerer Fehlerkorrekturcode die Information tatsächlich besser schützt als ein kleiner Code. Dies ist ein wichtiger erster Schritt, der zeigt, dass die zugrundeliegenden Fehlerquellen zwar noch deutlich unterdrückt werden müssen, aber dass sich der Aufwand lohnt.“
Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist:
„Quantencomputer basieren auf Quanteneffekten wie Superposition und Verschränkung, die extrem sensibel auf Umwelteinflüsse sind. Diese Einflüsse führen zu Rechenfehlern und beschränken damit die Komplexität der Rechnungen, die ein Quantencomputer durchführen kann.“
„Quantenfehlerkorrektur verspricht eine Lösung für dieses Problem, indem – durch geschicktes Speichern der Information in viele Qubits – die Rechenfehler im Prinzip beliebig unterdrückt werden können. Damit dies funktioniert, muss jedoch die Fehlerrate aller Bestandteile des Quantencomputers unter einem gewissen Schwellenwert liegen und es müssen entsprechend viele Qubits zur Verfügung stehen. Eine Handvoll Forschungsgruppen konnten hier in den letzten Jahren eindrucksvolle Fortschritte machen. Die Arbeit ist aber noch lange nicht getan und der fehlertolerante Quantencomputer bleibt weiterhin eine zentrale Herausforderung für die aktuelle Forschung.“
„Die Studie zeigt schön, dass Quantencomputer große Schritte Richtung Fehlerkorrektur und Skalierbarkeit machen. Insbesondere demonstrieren die Ergebnisse vergleichbare Fehlerraten in einem 17-Qubit und einem 49-Qubit Fehlerkorrekturcode. Die Autoren betonen aber auch ganz klar, dass diese Arbeit einen ersten Schritt darstellt und noch viel zu tun ist, um fehlertolerante Quantencomputer zu realisieren. Insbesondere muss die Qualität der Bestandteile heutiger Quantencomputer noch weiter verbessert werden, damit diese wirklich von Fehlerkorrekturmethoden profitieren können.“
Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben:
„Mehrere Quantentechnologien zeigen sich mittlerweile sehr vielversprechend, um die nötigen Fehlerraten für nützliche Quantenfehlerkorrektur zu erreichen. Limitierend sind hier meist technische, nicht fundamentale Herausforderungen. Allerdings sind auch Fehlerraten nur ein Teil des Puzzles. Neben logischen Fehlern wie bit-flips, gilt es zusätzliche Fehlerquellen, wie etwa den Verlust von Qubits, zu meistern. Es reicht auch nicht, nur Speicherfehler zu korrigieren, sondern man muss mit den fehlerkorrigierten Qubits auch rechnen, ohne dabei zu viele zusätzliche Fehler zu induzieren. Viele dieser Bausteine wurden schon einzeln in verschiedenen Systemen demonstriert; alle zu kombinieren, und die Anzahl der Qubits drastisch zu erhöhen ohne an Qualität zu verlieren, bleibt weiterhin eine spannende Herausforderung.“
Direktor des Quantum Centers und Professor für Festkörperphysik, Eidgenössische Technische Hochschule Zürich (ETHZ), Zürich, Schweiz
„Der Ansatz zur Fehlerkorrektur, der in der Studie verwendet wird, ist der sogenannte Surface Code. Das ist ein wichtiger Ansatz, der auch von vielen anderen Forschungsgruppen verfolgt wird. Er sticht auf verschiedene Arten und Weisen gegenüber anderen Ansätzen heraus: Zum einen ist er besonders nützlich für festkörperbasierte Quantencomputer. Das liegt daran, dass er damit umgehen kann, dass die verwendeten physikalischen Qubits, aus denen das fehlerkorrigierte logische Qubit erzeugt wird, auf einer Ebene angeordnet sind. Außerdem ist der Surface Code die beste bekannte Codierungsmöglichkeit, die mit den größten Fehlern umgehen kann.“
„In einem codierten logischen Qubit stellt sich immer die Frage, wann es besser ist als die physikalischen Qubits, aus denen es zusammengesetzt ist. Und da gibt es einen Grenzwert (Threshold) für diesen Surface Code, ab dem er besser funktioniert. Die wichtigste Erkenntnis dieser Publikation ist, dass die Qualität des Surface Codes besser wird, wenn man die Anzahl der physikalischen Qubits erhöht. Theoretisch war das schon seit einiger Zeit bekannt, aber das Experiment von Google ist jetzt das erste, in dem das auch in der Praxis nachgewiesen werden konnte. Das war schwierig zu erreichen.“
Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist:
„Fehlerkorrektur ist für große Quantencomputer nötig. Qubits sind fehlerbehaftet. Auch bei normalen Computern wird Fehlerkorrektur verwendet, aber im Vergleich zu Qubits ist die Fehlerrate bei normalen Bits sehr viel geringer. Die Fehlerkorrektur kommt mit einem sogenannten Overhead. Statt das physikalische Qubit direkt zu nutzen, um die Berechnung durchzuführen, muss man aus vielen physikalischen Qubits ein logisches Qubit zusammenbauen – in dieser Studie aus 25 physikalischen Qubits. Wenn man beispielsweise 100 logische Qubits braucht, um einen Algorithmus zu implementieren, braucht man mit einem Overhead-Faktor von 25 eine Anzahl von 2500 physikalische Qubits, um fehlerkorrigiert rechnen zu können.“
„Momentan ist noch nicht ganz klar, wie niedrig Fehlerraten sein müssen, um solide Schlüsse aus den Berechnungen von Quantencomputern ziehen zu können. Es werden wohl nach derzeitigem Stand der Technik sehr große Zahlen an physikalischen Qubits nötig sein, um fehlerkorrigierte Quantencomputer zu bauen.“
„Dass Fehlerkorrektur nötig sein wird, war schon vor 20 Jahren klar, aber die Implementierung ist schwierig. In den letzten Jahren hat es in dem Bereich jedoch große Fortschritte gegeben. Aber auch nach den Erkenntnissen der aktuellen Studie ist man noch nicht fertig. Die Qualität der Fehlerkorrektur muss noch deutlich verbessert werden, bevor sie im großen Stil in Quantencomputern eingesetzt werden kann.“
„Die Qualität der Studie ist sehr gut, die Arbeit ist zuverlässig. Die vorgestellte Verbesserung der Fehlerkorrektur von einem Surface Code mit neun physikalischen Qubits zu einem mit 25 physikalischen Qubits ist allerdings noch sehr klein. Vielleicht auch kleiner, als die Autoren sich erhofft hatten, weshalb sie auch sicherstellen mussten, dass Messungen und Analysen Hand und Fuß haben. Da haben sie sich aber große Mühe gegeben, die Ergebnisse sind zuverlässig. Deshalb kann die Arbeit als einer der nächsten Schritte auf dem Weg zu einem fehlerkorrigierten Quantencomputer gesehen werden.“
„Am Ende des Artikels wird noch analysiert, wie viel besser das vorgestellte System werden könnte, wenn mehr Qubits zur Verfügung stünden. Und bei der derzeitigen Qualität der Qubits kann es sein, dass bei wachsender Zahl physikalischer Qubits im logischen Qubit (also mit wachsender Distanz) die Fehlerraten wieder zunehmen. Bei einem anderen in der Studie auch diskutierten Ansatz (Repetition Code) zeigen die Autoren aber klar, dass die Codierung exponentiell besser wird, wenn man die Anzahl der physikalischen Qubits erhöht. Auch beim Surface Code sollten diese Probleme eigentlich nicht mehr auftauchen, wenn physikalische Qubits besser werden.“
Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben:
„Fehlerkorrektur macht aus fehlerbehafteten physikalischen Qubits bessere logische Qubits. Die Fehlerrate, die am Ende erreicht wird, hängt zusammen mit der Fehlerrate in den physikalischen Qubits und dem eben erwähnten Threshold-Fehler. Je besser die Fehlerrate in den physikalischen Qubits, desto besser wird auch die Fehlerrate in den logischen Qubits. Bessere physikalische Qubits sind also der nächste Schritt auf dem Weg zu einem fehlerkorrigierten Quantencomputer. Wenn die physikalischen Qubits und die an ihnen durchgeführten Operationen um den Faktor 10 oder Faktor 100 besser werden, könnte all das anfangen, gut zu funktionieren.“
„Das Ziel, dass logische Qubits verbessert werden, wurde in der Studie erreicht – wenn auch knapp. Das nächste Ziel muss es sein, das mit deutlich besseren physikalischen Qubits zu demonstrieren, sodass der Vorteil der Verwendung der logischen Qubits stärker sichtbar wird. Im Moment ist nur demonstriert, dass es funktioniert, der praktische Vorteil ist noch sehr gering. Bessere Qubits, bessere logische Gatter, besseres Auslesen der einzelnen Qubits – das könnten nächste Schritte sein. Trotzdem sind die in der Studie präsentierten Fortschritte ein Meilenstein.“
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ), Jülich
„Zum Kontext: Quantencomputer sind fehleranfällig in dem Ausmaß, dass bei den größeren heute erhältlichen Prozessoren nicht mehr alle Quantenbits (Qubits) für Anwendungen genutzt werden können. Neben Verbesserungen der Hardware geht man davon aus, dass langfristig Quantenfehlerkorrektur notwendig sein wird. Diese funktioniert durch das geschickte redundante Speichern von Quanteninformationen in mehreren Qubits, dem Ausmessen von Fehlern und deren aktiver Korrektur. Hierfür existiert ein elaborierter theoretischer Formalismus – insbesondere gehört der ‚Oberflächencode‘ zu dessen wichtigsten und führenden Konzepten.“
„Was leistet das Paper? Im Paper wird ein Chip der Sycamore Serie genutzt (mit dem auch das 2019er Quantenüberlegenheits-Experiment [1] durchgeführt wurde), hier aber mit 72 Qubits und zahlreichen Detailverbesserungen. Die Autorinnen und Autoren implementieren Versionen des Oberflächencodes mit unterschiedlicher Distanz. Die Distanz ist ein abstraktes Maß für die Zahl der korrigierbaren Einzelqubitfehler – in einem Qubit können immer zwei unabhängige Fehler auftreten (in einem klassischen Bit nur einer). Codedistanz 3 bedeutet, dass ein Qubit vollständig korrigiert werden kann, Codedistanz 5 bedeutet, dass Fehler in zwei Qubits korrigiert werden können. Da die Fehlerzahl realistisch nicht feststeht, bedeutet das, dass bei d=5 unkorrigierte Fehler seltener sind als bei d=3. Dies wird erstmals praktisch gezeigt und analysiert. Durch die Nutzung des (beliebig skalierbaren) Oberflächencodes ist damit ein weiterer Schritt auf dem Weg zur vollständigen Fehlerkorrektur gegangen.“
„Warum ist das wichtig? Es ist extrem unwahrscheinlich, dass Quantencomputerhardware jemals so fehlerarm sein wird wie klassische Hardware. Die Roadmap für Quantenfehlerkorrektur ist darum für das Gebiet insgesamt entscheidend. Wichtig ist auch, diese Roadmap zu implementieren und zu verifizieren. Außerdem ist es natürlich eine technologische Meisterleistung von simultan hoher Qualität und Komplexität.“
„Was leistet das Paper nicht? Wenn man mehr physikalische Qubits für die Fehlerkorrektur hat, hat man auch mehr Einfallstore für Fehler. Damit gibt es einen Gegensatz: mehr Fehlermöglichkeiten aber auch effektivere Fehlerkorrektur. Es wurde theoretisch gezeigt, dass die effektivere Fehlerkorrektur dann die Fehlermöglichkeiten übertrifft, wenn die Fehler der Bauelemente klein genug sind. Technisch gesprochen: Mehr Qubits bedeuten polynomial mehr Fehler, höhere Distanz aber exponentielle Unterdrückung.“
„Diesen ‚Break-Even-Punkt‘ der Fehlerkorrektur hat das Experiment knapp nicht erreicht. Tatsächlich habe ich mit zwei Kollegen im Januar ein Heraeus-Seminar zu dem Thema mit Sprechern von Google und anderen Gruppen organisiert, an dem sich alle an diesem letzten Meilenstein abgearbeitet haben.“
„Im Anhang wird dies analysiert und ein detailliertes Fehlermodell aufgestellt. Es zeigt sich: Das durchschnittliche Qubit ist gut genug, aber die Qubits über den Chip sind unterschiedlich. Außerdem kann man das Fehlerbudget auseinandernehmen und es zeigt sich, dass zwei Fehlerquellen eine Rolle spielen, die die Fehlerkorrektur über alle Maßen stören (stärker als andere Algorithmen): Das sind Leckagefehler – Übergang zwischen 0 und 1 in den Zustand 2 oder 3 – sowie ‚katastrophale Ereignisse‘. Letztes wurde mit einem Test eines großen Codes (Distanz 25) verifiziert, der nur bit-flip-Fehler korrigiert. Es zeigt sich, dass sehr selten große Fehler auftreten, die etwa 90 Prozent des Fehlerbudgets ausmachen. Aus verwandten Arbeiten kann man spekulieren, dass diese durch ionisierende Strahlung (wie natürliche Radioaktivität oder kosmische Strahlung) verursacht werden. Die Community ist bereits dabei, diese sehr strukturierten Fehlermodelle in der Theorie und Software der Quantenfehlerkorrektur zu berücksichtigen.“
Professor für Physik und Leiter der Gruppe für Quanteninformationstheorie, Universität zu Köln
„Das Papier (seit dem Sommer 2022 als Vorabdruck online verfügbar [2]) stellt einen weiteren Fortschritt des Quanten-Computing-Programms von Google auf dem langen Weg zu fehlerkorrigierten Quantenbits vor.“
„Zum Hintergrund: Als in den 1930er Jahren die Theorie moderner Computer entwickelt wurde, bestand die Sorge, dass klassische Bits ihren Zustand nicht zuverlässig genug beibehalten können, um lange Rechnungen zu ermöglichen. Als Antwort darauf wurden Protokolle zur Fehlerkorrektur entwickelt – und dann nie eingesetzt! Klassische elektronische Computer stellten sich als so robust heraus, dass der Aufwand nicht nötig war.“
„Für Quantencomputer ist das völlig anders. Quantenbits (Qubits) sind extrem fragil. Kleinste Störungen – von kosmischen Strahlungen bis zu minimalen Schwingungen – bringen die Rechnung zum Scheitern.“
„Wenn man also in der Presse von großen Quantencomputern liest, dann muss man dazu wissen, dass diese für lange Rechnungen zurzeit nicht benutzt werden können, da die Quantenbits noch nicht fehlerkorrigiert sind.“
„Solche Korrekturmechanismen zu entwickeln, ist äußert schwierig! Ein Problem besteht darin, dass die Fehlerkorrektur selbst recht komplex ist und so weitere Störungen in das System bringen kann! Es kann leicht passieren, dass die Fehlerkorrektur das Problem so verschlimmert, statt es zu verbessern.“
„In diesem Zusammenhang ist das Google-Papier zu sehen. Die Gruppe von Google hat gezeigt, dass das System zumindest nicht schlechter wird, wenn man größere Fehlerkorrektur-Protokolle verbessert.“
„Das scheint vielleicht nicht so beeindruckend. Und tatsächlich – die Veröffentlichung stellt nur einen sehr kleinen Schritt auf dem weiten Weg zum fehlerkorrigierten Quantencomputer dar. Selbst einzelne Quantenbits können bis heute noch nicht fehlerfrei über lange Zeit betrieben werden. Auf der anderen Seite zeigt die Arbeit aber, dass es weiterhin Fortschritt gibt.“
„Ich habe hier keine Interessenkonflikte, da wir zwar an demselben Problem forschen, aber noch nicht in Richtung Fehlerkorrektur.“
„Keine Interessenkonflikte.“
„Es bestehen keine Interessenkonflikte.“
„Frank Wilhelm-Mauch koordiniert die Forschungsverbünde QSolid und OpenSuperQplus, die an einer ähnlichen Plattform arbeiten. Außerdem hat er eine Beiratstätigkeit bei der finnischen Quantencomputerfirma IQM O.Y.“
„Also Professor für Quanteninformationstheorie bin ich selbst an einigen großen Projekten beteiligt, die unter anderem langfristig die Fehlertoleranz von Quantenhardware verbessern sollen – insbesondere im Exzellenzcluster Materie und Licht für Quanteninformation und dem BMBF-Projekt QSolid.“
Primärquelle
Neven H et al. (2023): Suppressing quantum errors by scaling a surface code logical qubit. Nature. DOI: 10.1038/s41586-022-05434-1.
Weiterführende Recherchequellen
Kelly J et al. (2021): Exponential suppression of bit or phase errors with cyclic error correction. Nature. DOI: 10.1038/s41586-021-03588-y.
Eine vorherige Forschungsarbeit von Google Quantum AI zu Fehlerkorrektur.
Science Media Center (2021): Fehlerkorrektur bei Quantencomputern: Durchbruch? Research in Context. Stand: 14.07.2021.
Einordnungen von Experten zu der obigen Studie von 2021.
Science Media Center (2021): Quantencomputer: Zeitplan, Meilensteine, Herausforderungen, Hype. Science Response. Stand: 21.07.2021.
Einordnungen von Expertinnen und Experten zum Stand der Forschung bei Quantencomputern.
Krinner S et al. (2022): Realizing repeated quantum error correction in a distance-three surface code. Nature. DOI: 10.1038/s41586-022-04566-8.
Eine vorherige wichtige Studie zur Fehlerkorrektur bei Quantencomputern von der Arbeitsgruppe um Prof. Dr. Andreas Wallraff.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Martinis JM et al. (2019): Quantum supremacy using a programmable superconducting processor. Nature. DOI: 10.1038/s41586-019-1666-5.
[2] Neven H et al. (2022): Suppressing quantum errors by scaling a surface code logical qubit. arXiv.
Hinweis der Redaktion: Es handelt sich bei dieser Version des Papers um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Experten und Expertinnen begutachtet wurde.
Prof. Dr. Stefan Filipp
Professor für Technische Physik, Technische Universität München (TUM)
Dr. Martin Ringbauer
Leiter der Forschungsgruppe für Qudit Quantentechnologie, Institut für Experimentalphysik, Universität Innsbruck, Österreich
Prof. Dr. Andreas Wallraff
Direktor des Quantum Centers und Professor für Festkörperphysik, Eidgenössische Technische Hochschule Zürich (ETHZ), Zürich, Schweiz
Prof. Dr. Frank Wilhelm-Mauch
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ), Jülich
Prof. Dr. David Gross
Professor für Physik und Leiter der Gruppe für Quanteninformationstheorie, Universität zu Köln