Quantencomputer: Fehlerkorrektur unter Schwellenwert gelungen
erstmals Quantenfehlerkorrektur mit Fehlerrate unter relevantem Schwellenwert gelungen, so Studie
Fehlerkorrektur ist ein wichtiger Schritt auf dem Weg zu anwendbaren Quantencomputern
unabhängige Forschende sehen das Experiment als Erfolg, betonen aber, dass noch einige weitere Forschung nötig ist
Quantencomputer zu entwickeln ist herausfordernd. Angesichts ihres Potenzials für Kryptografie, Materialforschung oder maschinelles Lernen arbeiten Unternehmen und Forschende aber weltweit an der Umsetzung. Die bereits realisierten Systeme sind zu klein und machen zu viele Fehler, um einen Mehrwert zu liefern. Doch die Entwicklung schreitet voran: Ein Team von Google Quantum AI hat in einem Experiment erstmals Quantenfehlerkorrekturen mit Fehlerraten unterhalb eines relevanten Schwellenwertes durchgeführt. Das Team hofft, dass es dadurch in Zukunft möglich wird, skalierbare Quantencomputer zu bauen. Die Studie ist in der Fachzeitschrift „Nature“ erschienen (siehe Primärquelle). Eine Vorabversion hatte Google bereits im August auf dem Preprint-Server Arxiv veröffentlicht [I].
Professor für theoretische Quantentechnologie und Leiter der Arbeitsgruppe Theoretische Quantentechnologie, Institut für Quanteninformation, Rheinisch-Westfälische Technische Hochschule Aachen (RWTH), und am Peter-Grünberg-Institut, Forschungszentrum Jülich
Bedeutung der Fehlerkorrektur
„Quantenfehlerkorrektur ist für den verlässlichen Betrieb von momentan noch in der Entwicklung stehenden großen und rechenstarken Quantencomputern unverzichtbar. Durch Quantenfehlerkorrektur ist es möglich, Fehler während der Speicherung von Quanteninformation und während Rechenoperationen in Quantenalgorithmen zu detektieren und zu korrigieren. Hierfür ist es notwendig, dass die Operationen der Quantenfehlerkorrektur selbst mit genügend kleinen Fehlerraten – unterhalb kritischer Fehlerschwellenwerte – ausgeführt werden. Ansonsten induziert die Quantenfehlerkorrektur mehr zusätzliche Fehler, als sie korrigiert. In der vorliegenden Arbeit des Google-Quantum-AI-Teams ist es zum ersten Mal experimentell gelungen, Quantenfehlerkorrektur deutlich unterhalb der kritischen Fehlerschwellenwerte und mit einer im Prinzip skalierbaren Methode zu zeigen.“
Ergebnisse des Experiments
„Die Quantenfehlerkorrektur basiert im vorliegenden Experiment auf der Kodierung eines logischen Qubits in einem zweidimensionalen, quadratischen Gitter auf einem Chip mit etwa hundert supraleitenden physikalischen Qubits, die einen sogenannten Oberflächencode formen. Insbesondere ist es gelungen, experimentell den klaren Nachweis zu erbringen, dass die Rate der trotz Quantenfehlerkorrektur noch verbleibenden Fehler durch Kodierung in Qubit-Gittern wachsender Größe stärker und stärker unterdrückt werden kann: Durch Wechsel der Kodierung des logischen Qubits von 9 (3x3) auf 25 und dann auf 49 Daten-Qubits ist in jedem dieser Vergrößerungsschritte etwa eine Halbierung der logischen Fehlerrate gelungen. Ein logisches Qubit besteht in der kleinsten Variante aus neun Daten-Qubits und acht Helfer-Qubits zum Messen. In der nächstgrößeren Variante dann entsprechend aus 25 Daten-Qubits und 24 Helfer-Qubits. Die Helfer-Qubits sind nötig, weil man durch direkte Messung der Daten-Qubits die im logischen Qubit kodierte Information zerstören würde. Dieses Skalierungsverhalten ist eine entscheidende Signatur nutzbringender Quantenfehlerkorrektur, und im vorliegenden Experiment nun sehr viel klarer ausgeprägt, als bei einer 2023 auf einem kleineren Chip ausgeführten Studie des selben Teams.“
„Im vorliegenden Experiment ist es außerdem gelungen, die durch periodisch ausgeführte Messungen erhaltene Information über auftretende Fehler in Echtzeit zu verarbeiten, also so, dass die klassische Berechnung der nötigen Korrekturschritte mit dem Takt des Quantenprozessors Schritt hält. Die Arbeit erfüllt methodisch die im Forschungsfeld üblichen hohen Standards.“
Stand der Forschung zu Fehlerkorrektur
„Für die größte untersuchte Kodierung in 49 Daten-Qubits wurde noch ungefähr ein logischer Fehler pro Tausend Quantenfehlerkorrekturzyklen beobachtet. Für das gesicherte Erreichen eines Quantenvorteils gegenüber klassischen Computern sind je nach Anwendung jedoch noch deutlich kleinere logische Fehlerraten, die noch um den Faktor Tausend oder sogar eine Million Mal kleiner sind, notwendig. Die vorliegende Arbeit ist jedoch ein wichtiger Schritt und zeigt eindrucksvoll, dass und wie dieser Weg experimentell praktisch möglich ist.“
„Momentan erreichen verschiedene physikalische Plattformen die Qubitregister-Größen und hohen Güten der Operationen, die für das Überschreiten der Schwelle zu nutzbringender Quantenfehlerkorrektur notwendig sind. Dies sind neben den supraleitenden Qubits in der vorliegenden Studie auch Quantencomputersysteme, die auf Neutralatomen sowie gefangenen Ionen basieren. Für alle diese Systeme werden nächste Entwicklungsschritte darauf abzielen, die Systeme zu größeren Qubitzahlen hochzuskalieren – und dies mindestens unter Beibehaltung oder Verbesserung der präzisen Kontrolle. Neben der fehlerkorrigierten Speicherung einzelner logischer Qubits wie im vorliegenden Experiment sind auch kürzlich wichtige Durchbrüche zur Realisierung erster frei programmierbarer Rechenoperationen auf logischen Qubits erzielt worden [1]. Zusammen mit der Erforschung vielversprechender alternativer Quantenfehlerkorrektur-Codes, die für die Skalierung weniger physikalische Qubits als die in der vorliegenden Studie verwendeten Oberflächencodes benötigen, ist insgesamt zu erwarten, dass sich in den nächsten Jahren Quantenrechnen mit logischen statt physikalischen Qubits schrittweise durchsetzt, und das Erreichen eines praktischen Quantenvorteils näher rückt.“
Professor für Theoretische Physik, Friedrich-Alexander-Universität Erlangen-Nürnberg
Bedeutung der Fehlerkorrektur
„Das große Potenzial von Quantencomputern liegt darin, dass sie sogenannte Überlagerungen von physikalischen Zuständen verarbeiten können, wodurch Rechnungen parallelisiert und somit viel schneller werden. Diese Überlagerungen sind aber sehr fragil, wodurch eine erfolgreiche Durchführung von Quantenfehlerkorrektur essenziell wird. Die Idee der Quantenfehlerkorrektur ist es, Information in mehreren Qubits verteilt zu speichern. Dann kann über Konsistenzchecks festgestellt werden, ob ein Fehler eingetreten ist, und man kann ihn gegebenenfalls korrigieren. Um letztendlich quasi fehlerfrei und somit verlässlich rechnen zu können, muss die Fehlerkorrekturrate – bei einer wachsenden Zahl an Qubits für die Speicherung – schneller zunehmen als die Fehlerrate. Das entscheidende Ergebnis dieser Arbeit ist, dass für diesen Zusammenhang eine Verbesserung um mehr als das Doppelte von einer Speichergröße zur nächsten gezeigt wurde.“
Ergebnisse des Experiments
„Die Arbeit ist nach meiner Ansicht sehr solide und der gegebene Ausblick ist nicht unbegründet. Zu beachten ist jedoch, dass die Autoren ihre Aussage, die gezeigte Performanz würde fehlertolerantes Rechnen erlauben, an die Bedingung knüpfen, dass es gelingt, die Ergebnisse zu deutlich größeren Qubit-Zahlen zu skalieren. Mit der derzeitigen Qualität von Qubits wird man 100.000 bis eine Million Qubits benötigen, um große, fehlertolerante Rechnungen durchführen zu können, die für klassische Supercomputer jenseits des Möglichen sind. In der vorliegenden Arbeit werden Ergebnisse eines Chips mit 105 Qubits präsentiert. Damit wird ersichtlich, wie weit der Weg noch ist.“
„Die logische Fehlerrate bestimmt, wie viele logische Operationen in einer Rechnung durchgeführt werden können. Eine Fehlerrate gibt die Wahrscheinlichkeit an, dass ein Fehler passieren kann. Wenn diese für eine logische Operation bei zehn Prozent liegt, dann lief die Operation in neun von zehn Fällen richtig ab. Eine Sequenz von zwei Operationen läuft dann aber nur in neun mal neun gleich 81 von 100 Fällen, also in etwa acht von zehn Fällen richtig. Die Wahrscheinlichkeit, dass eine Rechnung mit zehn Operationen korrekt läuft, liegt dann nur bei etwa 35 Prozent, was klar inakzeptabel ist. Logische Fehlerraten müssen also letztendlich in Bereiche von 10⁻¹⁰ reduziert werden.“
Stand der Forschung zu Fehlerkorrektur
„Neben der vorliegenden Arbeit war die Arbeit von Bluvstein et al. (2024) einer der wichtigsten Durchbrüche in jüngster Zeit [2]. In dieser Arbeit werden 48 logische Qubits in sehr kalte Rydberg-Atome präpariert und logische Operationen mit diesen durchgeführt. Im Gegensatz zur vorliegenden Arbeit, die nur ein logisches Qubit präpariert, wurden in den Rydberg-Atomen aber noch keine Konsistenzchecks mit anschließender Fehlerkorrektur durchgeführt. Bei Rydberg-Atomen konnten diese Fehlerkorrektur-Zyklen noch nicht mit ausreichender Geschwindigkeit realisiert werden. Wir sehen also erhebliche Fortschritte in mehreren technologischen Plattformen. Es gibt aber noch kein System, in dem alle Aspekte von fehlerkorrigiertem Quantencomputing erfolgreich zusammengebracht sind. Ich erwarte, dass hierfür auch noch konzeptionelle Durchbrüche erforderlich sind.“
Professor für Technische Physik, Technische Universität München (TUM)
Bedeutung der Fehlerkorrektur
„Quantencomputer haben das Potenzial gewisse Rechenaufgaben enorm zu beschleunigen. Die Qubits – die grundlegenden Recheneinheiten – sind jedoch im Gegensatz zu klassischen Computern fehleranfällig. Störungen von außen (zum Beispiel durch Wärmestrahlung, Rauschen der Elektronik oder Ähnliches) oder von innen (etwa durch Materialdefekte) führen dazu, dass Operationen – sogenannte Quantengatter – mit Fehlern behaftet sind. Diese sind zwar mittlerweile sehr klein (ein Tausendstel bis ein Zehntausendstel jeder Operation geht schief), aber noch nicht niedrig genug, um hinreichend lange Algorithmen laufen zu lassen.“
„Fehlerkorrigierte Quantencomputer sind daher unbedingt notwendig, um das Potenzial von Quantencomputer auch voll ausnutzen zu können. Diese basieren auf der Zusammenfassung von vielen einzelnen physikalischen Qubits in logische Qubits, sodass Fehler auf einzelnen Qubits erkannt und korrigiert werden können. Durch diese eingebaute Redundanz wird das zusammengesetzte logische Qubit weniger fehleranfällig. Und je mehr physikalische Qubits man für ein logisches Qubit hernimmt, desto weniger Fehler weist theoretisch das logische Qubit auf. Der Haken dabei ist, dass die Systeme mit logischen Qubits größer sind, und damit die selbst auch fehleranfällige Kontrolle komplexer wird. Des Weiteren müssen die physikalischen Qubits selbst schon eine sehr hohe Qualität (Kohärenz), und Gatteroperationen eine sehr hohe Güte aufweisen, damit die Fehlerkorrekturmethode (der Fehlerkorrektur-Code) funktioniert.“
Ergebnisse des Experiments
„Google Quantum AI hat nun eindrucksvoll demonstriert, dass der logische Fehler auch tatsächlich kleiner als der eines einzelnen physikalischen Qubits gemacht werden kann. Dazu verwendet Google Quantum AI eine spezifische, weit verbreitete Fehlerkorrektur-Methode: den sogenannten ‚surface-code‘ auf supraleitenden Qubits. Supraleitende Qubits sind eine der vielversprechendsten Plattformen für Quantencomputer, die auch in Deutschland an Standorten wie dem Munich Quantum Valley in Bayern oder dem QSolid-Verbund mit Zentrum am Forschungszentrum in Jülich sehr aktiv weiterentwickelt werden. Google konnte die Leistung der Quantenprozessoren hinsichtlich Fehlerraten von Quantenoperationen so weit steigern, dass es gelingt, ein logisches Qubit zu realisieren, dass mehr als zweimal länger ‚lebt‘ – das heißt längere Kohärenzzeit aufweist – als das beste physikalische Qubit auf dem Quantenprozessor. Dabei wurden ein 72-Qubit Prozessor und ein 105-Qubit Prozessor verwendet. Insbesondere wird auch die Bedeutsamkeit der klassischen Dekodierung der Fehler betont. Das heißt es reicht nicht, dass die Qubits selbst von hoher Qualität sind, es muss auch die Analyse der auftretenden Fehler auf einem klassischen Rechner schnell und treffsicher genug funktionieren. Hier demonstriert Google Quantum AI, dass die Fehler mit genügend hoher Genauigkeit auch in Echtzeit analysiert werden können.“
Stand der Forschung zu Fehlerkorrektur
„Die Arbeit zeigt in bemerkenswerter Weise auf, wie schnell die Technologie in Richtung fehlertolerante Quantencomputer voranschreitet. Wie jedoch auch Google in diesem Artikel schreibt, gibt es noch einige Herausforderungen zu meistern, um die ersten Algorithmen ausführen zu können. Nicht nur muss die Qualität und die Anzahl an Qubits noch signifikant erhöht werden – zum Beispiel auf etwa 1500 Qubits, um mit den derzeitigen physikalischen Fehlerraten einen logischen Fehler auf 10⁻⁶, also ein Millionstel, zu unterdrücken – es müssen auch die Echtzeit-Dekoder noch signifikant verbessert werden. Darüber hinaus müssen auch fundamentale Fehlerquellen noch besser verstanden werden, die im vorliegenden Experiment zu etwa stündlich auftretenden, signifikanten, schwer zu korrigierenden Fehlern führen. Derzeit gibt es aber keine fundamentalen Hindernisse auf dem Weg zu einem fehlertoleranten Quantencomputer.“
„Ähnlich dazu wurden auch in anderen Quantensystemen – insbesondere bei neutralen Atomen – bedeutsame Fortschritte gemacht. In einem kürzlich publizierten Experiment wurden Operationen zwischen mehreren logischen Qubits auf einer Plattform mit 280 physikalischen Qubits gezeigt [2]. Dieses Resultat ist komplementär zu dem hier diskutierten, insofern es eindrücklich die erfolgreiche Implementierung von logischen Qubits und deren Verschränkung mittels logischer Operationen zeigt, aber nicht die längere Kohärenzzeit eines logischen Qubits gegenüber den zugrundeliegenden physikalischen Qubits.“
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ)
Ergebnisse des Experiments
„Diese Arbeit von Google erreicht sehr überzeugend erstmals effektive Quantenfehlerkorrektur jenseits des Break-Even-Punktes. Das bedeutet, dass die Quanteninformation in dem großen, komplexen, aktiv fehlerkorrigierten System länger lebt, beziehungsweise fehlerfrei bleibt, als in jedem seiner Bauelemente. Es wurde theoretisch erwartet, dass dies möglich ist. Bisher wurde es aber noch nicht experimentell erreicht. Es kamen erste Zweifel auf, ob die Annahmen der Theorie der Fehlerkorrektur vielleicht inkonsistent sind – das sind sie nicht.“
„Methodisch werden gegenüber vorherigen Arbeiten der gleichen Gruppe sehr viele technische Verbesserungen an der Hardware vorgenommen. Zwei davon stechen ins Auge: Vorher haben Fehler, bei denen das Quantenbit den binären Raum (0 und 1) verlassen hat (also in eine 2 gegangen ist) das System überproportional gestört. Das wurde auf dem Level von Bauelementen reduziert. Noch viel wichtiger: Vorher gab es das Problem, dass ‚katastrophale Ereignisse‘ das System limitieren. Ein ‚katastrophales‘ Ereignis ist ein Ereignis, bei dem alle Qubits auf dem Chip gleichzeitig einen Fehler machen – das kann die Fehlerkorrektur nicht abfangen. Man hatte vorher verstanden, dass diese aus ganz schwachen Einwirkungen ionisierender Strahlung (kosmische Strahlung sowie Hintergrundradioaktivität, insbesondere von Beton) kommen – also ein Fehler auf Sherlock-Holmes-Auflösung. Erfreulicherweise musste Google aber nicht in eine Höhle tief unter der Erde gehen, um dies zu verhindern, sondern konnte durch eine Abänderung des Chipdesigns das Problem in den Griff bekommen. Die Innovation (sogenannte Quasiteilchenfallen) wurden in Paris in den 1990ern erfunden – Google hat sie jetzt skaliert und zuverlässig zum Einsatz gebracht.“
„Die wichtigste Kennzahl ist die logische Fehlerwahrscheinlichkeit. Wenn ich einen langen Algorithmus fehlerfrei laufen lassen möchte, muss die möglichst klein sein. Reale Quantenhardware hat einen viel höheren Fehler, aber durch die Fehlerkorrektur kann er reduziert werden – um den Preis eines großen Overheads an Qubits (zusätzliche Qubits, die nicht direkt für die Datenspeicherung genutzt werden können; Anm. d. Red.).“
Stand der Forschung zu Fehlerkorrektur
„Dies ist das erste einer neuen Generation von Fehlerkorrekturexperimenten – vorher (mit einer Krönung im Dezember 2023 mit 50 logischen Qubits) wurde der Break-Even-Punkt nicht erreicht. Kurz nach dem Google-Paper sind weitere Veröffentlichungen auf dem Preprint-Server erschienen, die Ähnliches zeigen. Da das Google-Ergebnis aber keine Abkürzungen nimmt und mit einer gut verstandenen, skalierbaren Technik arbeitet, ist es im Augenblick das Maß aller Dinge.“
Wissenschaftlicher Mitarbeiter am Dahlem Center für komplexe Quantensysteme, Institut für Theoretische Physik, Freie Universität Berlin
Ergebnisse des Experiments
„Das Team von Google hat beindruckende Fortschritte an ihrer Quantenfehlerkorrektur-Technologie gezeigt. In diesem Paper demonstriert das Team wichtige Fortschritte dazu, wie Fehler in Echtzeit auf ihrer Plattform (supraleitende Qubits) korrigiert werden können. Dafür demonstrieren sie mit ihrer aktuellen Quanten-Hardware mehrere technologische Elemente, die im Zusammenhang für die gesamte Quantenfehlerkorrektur-Technologie wichtig sind. Für die Fehlerkorrektur werden zum Beispiel verschiedene sogenannte Decoders gebraucht: Das sind Methoden, um herauszufinden, was für Fehler sich ergeben haben, um sie dann korrigieren zu können.“
„Dieses Feld ist noch sehr akademisch. Man muss noch herausfinden, welche Methoden sich für Quantenfehlerkorrektur am besten eignen. Die Methoden des vorliegenden Papers finde ich angemessen: Hier kann das Team von Google die Technologie über präzisen Fortschritt konkret demonstrieren. Sie schreiben auch, dass sie dadurch noch keinen fehlertoleranten Quantencomputer aufgebaut haben. Aber die Technologie, die sie entwickeln, hat annehmbare Chancen entscheidend zu sein, um in der Zukunft einen skalierbaren, fehlertoleranten Quantencomputer zu erreichen.“
Stand der Forschung zu Fehlerkorrektur
„Die logische Fehlerrate ist (ungefähr) die Wahrscheinlichkeit, dass nach einem Durchlauf der Quantenfehlerkorrektur ein logischer Fehler der Qubits vorkommt. So ein Fehler kann der Quantenrechnung schaden und sie zu einem falschen Resultat führen. Die logische Fehlerrate soll also niedrig genug sein, dass gute Chancen bestehen, die Information bis zum Ende der Rechnung unverfälscht zu halten. Aktuell ist sie rund ein Prozent. Für vorgesehene Anwendungen der Quantencomputer sollte sie aber viel niedriger sein: etwa 10⁻¹⁰ laut den letzten Schätzungen. Die logischen Fehlerraten haben sich aber in den letzten Jahren stets verbessert, und man kann erwarten, dass sie mit dieser Tendenz weiter sinken. Eine andere technische Sache, die in diesem Paper anzumerken ist, ist, dass die Fehler in Echtzeit korrigiert werden können. Das ist bedeutend für die Quantenfehlerkorrektur, aber technologisch schwierig zu erreichen.“
„Quantenfehlerkorrektur ist momentan ein spannendes und sich sehr schnell entwickelndes Forschungsfeld. Es ist eigentlich ein Rennen zwischen den verschiedenen industriellen Spielern (zum Beispiel Google), wer den ersten, nützlichen, quantenfehlerkorrigierten Quantencomputer demonstrieren kann. Auch die beste Hardware-Plattform ist noch nicht bekannt: Neutrale Atome, Ionen, supraleitende Qubits (wie Google), und photonische Systeme sind im Rennen. Es sind hier viele technologische Problemen zu lösen, und dazu trägt dieses Paper von Google stark bei.“
„Als Professor für Theoretische Quantentechnologie bin ich zusammen mit meiner Arbeitsgruppe an verschiedenen nationalen und internationalen Forschungsprojekten beteiligt, die Ansätze für Quantenfehlerkorrektur und Fehlertoleranz für verschiedenen Quantencomputer-Plattformen, insbesondere Neutralatome, gefangenen Ionen und auch supraleitenden Qubits, entwickeln und umsetzen. Desweiteren bin ich als wissenschaftlicher Berater für das Start-up planqc (https://www.planqc.eu), das Neutralatom-basierte Quantencomputer entwickelt, tätig.”
„Interessenkonflikte habe ich keine.“
„Ich habe keine unmittelbaren Interessenkonflikte – bin aber natürlich in der Community unterwegs.“
„Seit Kurzem konsultiere ich für das Quantencomputing-Unternehmen Pasqal, allerdings verfolgt dieses Unternehmen eine andere Technologie. Sonst habe ich keine Interessenkonflikte.“
Alle anderen: Keine Angaben erhalten.
Primärquelle
Neven H et al. (2024): Quantum error correction below the surface code threshold. Nature. DOI: 10.1038/s41586-024-08449-y.
Weiterführende Recherchequellen
Science Media Center (2023): Fortschritt bei Fehlerkorrektur in Quantencomputern. Statements. Stand: 22.02.2023
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Postler L et al. (2022): Demonstration of fault-tolerant universal quantum gate operations. Nature. DOI: 10.1038/s41586-022-04721-1.
[2] Bluvstein D et al. (2024): Logical quantum processor based on reconfigurable atom arrays. Nature. DOI: 10.1038/s41586-023-06927-3.
Literaturstellen, die vom SMC zitiert wurden
[I] Acharya R et al. (2024): Quantum error correction below the surface code threshold. Arxiv. DOI: 10.48550/arXiv.2408.13687.
[II] Neven H et al. (2023): Suppressing quantum errors by scaling a surface code logical qubit. Nature. DOI: 10.1038/s41586-022-05434-1.
Prof. Dr. Markus Müller
Professor für theoretische Quantentechnologie und Leiter der Arbeitsgruppe Theoretische Quantentechnologie, Institut für Quanteninformation, Rheinisch-Westfälische Technische Hochschule Aachen (RWTH), und am Peter-Grünberg-Institut, Forschungszentrum Jülich
Angaben zu möglichen Interessenkonflikten
„Als Professor für Theoretische Quantentechnologie bin ich zusammen mit meiner Arbeitsgruppe an verschiedenen nationalen und internationalen Forschungsprojekten beteiligt, die Ansätze für Quantenfehlerkorrektur und Fehlertoleranz für verschiedenen Quantencomputer-Plattformen, insbesondere Neutralatome, gefangenen Ionen und auch supraleitenden Qubits, entwickeln und umsetzen. Desweiteren bin ich als wissenschaftlicher Berater für das Start-up planqc (https://www.planqc.eu), das Neutralatom-basierte Quantencomputer entwickelt, tätig.”
Prof. Dr. Michael Hartmann
Professor für Theoretische Physik, Friedrich-Alexander-Universität Erlangen-Nürnberg
Angaben zu möglichen Interessenkonflikten
„Interessenkonflikte habe ich keine.“
Prof. Dr. Stefan Filipp
Professor für Technische Physik, Technische Universität München (TUM)
Prof. Dr. Frank Wilhelm-Mauch
Leiter des Instituts für Quantencomputer-Analytik, PGI-12, Forschungszentrum Jülich GmbH (FZJ)
Angaben zu möglichen Interessenkonflikten
„Ich habe keine unmittelbaren Interessenkonflikte – bin aber natürlich in der Community unterwegs.“
Dr. Phillipe Faist
Wissenschaftlicher Mitarbeiter am Dahlem Center für komplexe Quantensysteme, Institut für Theoretische Physik, Freie Universität Berlin
Angaben zu möglichen Interessenkonflikten
„Seit Kurzem konsultiere ich für das Quantencomputing-Unternehmen Pasqal, allerdings verfolgt dieses Unternehmen eine andere Technologie. Sonst habe ich keine Interessenkonflikte.“