Nachrichtenportal Deutschland

Quantencomputer durchbricht Fehlerschwelle – Der KI-Quantenprozessor von Google erreicht erstmals bei der Skalierung eine exponentiell sinkende Fehlerrate

Quantencomputer durchbricht Fehlerschwelle – Der KI-Quantenprozessor von Google erreicht erstmals bei der Skalierung eine exponentiell sinkende Fehlerrate

Wichtiger Fortschritt: Google-Forscher haben die Fehlerrate eines Quantencomputers erstmals unter eine kritische Schwelle gesenkt – die Fehlerrate konnte trotz Verdoppelung der Anzahl der Qubits halbiert werden. Dies gilt als wichtige Voraussetzung für die Skalierung zukünftiger Quantencomputer. Der Durchbruch mit dem Quantenchip „Willow“ gelang durch die Kombination mehrerer Daten- und Kontrollquantenbits zu logischen Qubits sowie verbesserten Auslesetechniken, wie das Team in „Nature“ berichtet. Bis hin zu großen Quantencomputern sind jedoch weitere Verbesserungen notwendig.

Quantencomputer sind aufgrund quantenphysikalischer Phänomene wie Verschränkung und Überlagerung potenziell leistungsfähiger als digitale Computer. Allerdings führt die große Störanfälligkeit von Quantenbits bisher zu zu kurzen Laufzeiten und einer hohen Fehlerrate. Ohne effiziente Fehlerkorrektursysteme können Quantencomputer nicht auf die erforderliche Leistung skaliert werden – denn mit zunehmender Anzahl an Qubits steigt auch die Fehleranfälligkeit.

Eine mögliche Lösung dieses Problems ist die Einführung „logischer Qubits“ in Form des sogenannten Oberflächencodes. Mehrere benachbarte Daten- und Mess-Qubits werden zu einer Einheit, dem logischen Qubit, zusammengefasst. Seine geometrische Struktur, der sogenannte Oberflächencode, ermöglicht es, Fehler in einzelnen Qubits zu erkennen und zu kompensieren. Forscher von Google Quantum AI stellten 2021 eine erste Version dieser Fehlerkorrektur vor, die Weiterentwicklung folgte 2023.

logische Qubits
Logische Qubits. © Hartmut Neven/Google Quantum AI

Logische Qubits skaliert

Nun gibt es weitere Fortschritte: Dem Google-Team ist es erstmals gelungen, die Fehlerrate ihres Quantencomputers unter einen kritischen Schwellenwert zu senken. Demnach funktioniert die Skalierung von Quantencomputern nur, wenn die Fehlerkorrektur exponentiell mit der Anzahl der physikalischen Qubits pro logischem Qubit zunimmt. Mit anderen Worten: Die Fehlerkorrektur muss gut genug sein, um die steigende Fehlerrate durch die Hinzufügung von Qubits mehr als zu kompensieren.

Hartmut Neven und sein Team von Google Quantum AI haben diesen Meilenstein nun erreicht. Grundlage ihrer Tests war der neu entwickelte Quantenchip „Willow“, der Quantenprozessoren mit 72 und 105 supraleitenden Quantenpunkten als Qubits enthält. Diese wurden zu logischen Qubits mit 17, 49 oder 101 physikalischen Qubits zusammengefasst. Beispielsweise bestand die 101-Qubit-Einheit aus 49 Daten-Qubits, 48 ​​Mess-Qubits und vier zusätzlichen Kontroll-Qubits, wie das Team erklärt.

Für ihre Fehlerkorrekturtests ließen die Forscher ihre logischen Qubits rund eine Million Rechenzyklen lang laufen und ermittelten dabei jeweils die Fehlerrate. Eine optimierte Auslesetechnologie ermöglichte zudem das Auslesen der Daten nahezu in Echtzeit.

Halbierte Fehlerquote, längere Lebensdauer

Das Ergebnis ist eine Fehlerkorrektur, die mit zunehmender Größe der logischen Qubits exponentiell abnimmt. „Jedes Mal, wenn sich die Oberflächencodeabstände um zwei vergrößern, verringert sich der logische Fehler pro Zyklus um mehr als die Hälfte“, berichten Neven und seine Kollegen. „Diese historische Errungenschaft wird in unserem Fachgebiet als ‚unterhalb der Schwelle‘ bezeichnet – sie reduziert Fehler und erhöht gleichzeitig die Anzahl der Qubits.“

Beim 72-Qubit-Prozessor sank die Fehlerrate auf weniger als ein Millionstel. Beim 101-Qubit-Prozessor mit den größten logischen Qubits lag die Fehlerrate bei einem Tausendstel. Der verbesserte digitale Coprozessor ermöglichte zudem das Auslesen der Fehler und Fehlerraten nahezu in Echtzeit. „Das ist wichtig, weil einige logische Operationen nicht deterministisch sind – sie hängen von logischen Ergebnismessungen ab, die sofort interpretiert werden müssen“, erklären Neven und seine Kollegen.

Gleichzeitig verdoppelte sich die Lebensdauer der logischen Qubits auf 291 Mikrosekunden – weit über der Länge, die einzelne Qubits erreichen können, wie die Forscher berichten. Dadurch erhöht sich die Zeit, in der Berechnungsoperationen durchgeführt werden können. Im Test erledigte der Willow-Quantenchip die Testaufgabe, den sogenannten Random Circuit Benchmark (RCS), in weniger als fünf Minuten. Laut Google hätten die leistungsstärksten Supercomputer 1025 Jahre benötigt.

Das steckt im neuen Quantenchip Willow.© Google Quantum AI

Erste Fehlerkorrektur über den Break-Even-Punkt hinaus

Nach Angaben des Forschungsteams eröffnet ihre Technologie wichtige Voraussetzungen für die Weiterentwicklung von Quantencomputern. „Unsere Ergebnisse demonstrieren Systeme, die im größeren Maßstab die Anforderungen großer, fehlertoleranter Quantenalgorithmen erfüllen könnten“, schreiben Neven und sein Team. Eine weitere Voraussetzung ist, dass sie ihre Experimente über mehrere Stunden und mit bis zu einer Million Zyklen ohne nennenswerte Leistungseinbußen durchführen konnten.

„Diese Arbeit von Google erreicht auf sehr überzeugende Weise erstmals eine effektive Quantenfehlerkorrektur über die Gewinnschwelle hinaus“, kommentiert Frank Wilhelm-Mauch, Leiter des Instituts für Quantencomputeranalyse am Forschungszentrum Jülich. „Es wurde theoretisch erwartet, dass dies möglich wäre. Experimentell konnte dies jedoch noch nicht erreicht werden.“ Diesen experimentellen Beweis liefern nun die Experimente mit Googles Quantenprozessor.

Wichtiger Schritt, aber es müssen noch weitere folgen

Allerdings geben die Wissenschaftler auch zu, dass es noch viel zu verbessern gibt, bevor ein großer, allgemein einsetzbarer Quantencomputer entstehen kann. „Zwischen den aktuellen Fehlerraten und den Anforderungen an das praktische Quantencomputing liegen noch mehrere Größenordnungen“, erklären sie. Konkret heißt das: Um auch in größeren Quantencomputern ausreichend niedrige Fehlerraten zu erreichen, müssten die logischen Qubits nach dem aktuellen Stand der Fehlerkorrektur mindestens 1457 physikalische Qubits umfassen.

Ähnlich sieht es der Physiker Stefan Filipp von der Technischen Universität München, der nicht an der Studie beteiligt war: „Die Arbeit zeigt auf bemerkenswerte Weise, wie schnell sich die Technologie hin zu fehlertoleranten Quantencomputern weiterentwickelt“, erklärt er. „Allerdings sind, wie das Google-Team in seinem Artikel schreibt, noch einige Herausforderungen zu bewältigen, um die ersten Algorithmen ausführen zu können.“ Nicht nur die Qualität und Anzahl der Qubits müssen noch deutlich gesteigert werden, auch die Echtzeitdecoder müssen deutlich verbessert werden.“ (Nature, 2024; doi: 10.1038/s41586-024-08449-y)

Quelle: Nature, Google Quantum AI, Science Media Center

10. Dezember 2024 – Nadja Podbregar

Die mobile Version verlassen