Google verkündet Durchbruch bei Quantencomputern
Google hat einen entscheidenden Meilenstein bei der Entwicklung von Quantencomputer erreicht. Mit dem neuen Spezialchip "Willow" und einer neuen Anwendungsmethode habe man den Weg für die Entwicklung praktisch nutzbarer Quantencomputer geebnet, heißt es von dem Technologiekonzern.
Willow könne eine Standard-Benchmark-Berechnung in weniger als 5 Minuten durchführen. Mit einem der schnellsten Supercomputer der Welt würde dieselbe Berechnung 10 Septillionen (das sind 10^25) Jahre dauern würde – eine Zahl, die das Alter des Universums bei weitem übersteigt, erklärt Google.
Dieser Vergleich sorgt jedoch umgehend für Kritik. Auch wenn der von Google verkündete Durchbruch aus wissenschaftlicher Perspektive einen wichtigen Schritt bedeutet, kritisiert die deutsche Physikerin und Mathematikerin Sabine Hossenfelder den Vergleich, den Google heranzieht.
➤ Mehr lesen: Wie funktioniert ein Quantencomputer?
Scharfe Kritik an den Vergleichen
Seit 2019 würde Google diese Vergleiche anstellen, wenn das Unternehmen seine Überlegenheit bei Quantencomputer demonstrieren will. Bei der erwähnten Benchmark-Berechnung handelt es sich laut Hossenfelder jedoch um eine spezielle Rechenaufgabe, bei der bekannt ist, dass herkömmliche Supercomputer nur schwer damit umgehen können.
➤ Mehr lesen: Mathematiker stellen Googles Quantenüberlegenheit in Frage
Deswegen könne Google auch mit so unglaublichen Zahlen wie Septillionen um sich werfen, schreibt Hossenfelder in einem X-Posting. In der Vergangenheit haben diese Vergleiche dazu geführt, dass Zweifel an Googles Fortschritten bei Quantencomputer laut wurden.
Dennoch betont Hossenfelder, dass die Reduktion der Fehlerrate ein bedeutender Meilenstein sei. Auch andere Wissenschaftler, die auf dem Gebiet der Quantencomputer forschen, schließen sich diesem Urteil an.
➤ Mehr lesen: Der Mythos vom Quantencomputer
Wichtiger Schritt gelungen
"Der neue Chip kann Fehler exponentiell reduzieren und gleichzeitig mit mehr Qubits skalieren. Dies löst eine zentrale Herausforderung bei der Quantenfehlerkorrektur, an der das Feld seit fast 30 Jahren arbeitet", schreibt das Unternehmen in einer Aussendung.
In der Wissenschaftszeitschrift "Nature" berichten der deutsche Informatiker Hartmut Neven, Gründer und Leiter des Quantum Artificial Intelligence Laboratory von Google und sein Team, dass zum ersten Mal eine Quantenfehlerkorrektur mit Fehlerraten unter einem relevanten Schwellenwert erreicht wurde.
Problematisch bei der Entwicklung von brauchbaren Quantencomputern ist unter anderem, dass mit zusätzlichen Recheneinheiten ("Qubits") die Fehlerquote ansteigt. Die Fehlerkorrektur ist entscheidend für die Entwicklung von skalierbaren und anwendbaren Quantencomputern.
➤ Mehr lesen: Müssen wir uns sorgen, dass Quantencomputer unsere Nachrichten hacken?
Recheneinheiten gebündelt
Um dieses Problem in den Griff zu bekommen, fasste das Google-Team mehrere fehleranfällige physikalische Qubits zu einem weniger fehleranfälligen logischen Qubit zusammen. Für die Demonstration dieses Zusammenhangs verwendete die Forscherinnen und Forscher den neu entwickelten Quantenprozessor Willow.
Neven und sein Team betonen, mit der verwendeten Methode und dem neuen Chip seien skalierbare, fehlerkorrigierte Quantencomputer möglich. Allerdings merken die Forschenden auch an, dass die erzielte Fehlerrate weiterhin nicht für einen anwendbaren Quantencomputer ausreiche.
Das Team rechnet damit, dass sie für zufriedenstellende Fehlerraten deutlich mehr physikalische Qubits bräuchten. Der Einsatz von mehr Qubits mit der verwendeten Methode werde außerdem zu einer längeren Rechenzeit führen.
"Arbeit erfüllt hohe Standards"
Markus Müller, Professor für theoretische Quantentechnologie an der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH), erklärte, dem Google-Team sei es zum ersten Mal experimentell gelungen, Quantenfehlerkorrektur deutlich unterhalb der kritischen Fehlerschwellenwerte und mit einer im Prinzip skalierbaren Methode zu zeigen. "Die Arbeit erfüllt methodisch die im Forschungsfeld üblichen hohen Standards."
Michael Hartmann, Professor für Theoretische Physik an der Friedrich-Alexander-Universität Erlangen-Nürnberg, lobte ebenfalls die wissenschaftliche Qualität der Arbeit. "Der gegebene Ausblick ist nicht unbegründet." Zu beachten sei jedoch, dass ein fehlertolerantes Rechnen von den Autoren an die Bedingung geknüpft worden sei, dass es gelinge, die Ergebnisse zu deutlich größeren Qubit-Zahlen zu skalieren.
"Noch ein weiter Weg"
"Mit der derzeitigen Qualität von Qubits wird man 100.000 bis eine Million Qubits benötigen, um große, fehlertolerante Rechnungen durchführen zu können, die für klassische Supercomputer jenseits des Möglichen sind", schrieb Hartmann im Science Media Center (SMC). In der vorliegenden Arbeit würden Ergebnisse eines Chips mit 105 Qubits präsentiert. "Damit wird ersichtlich, wie weit der Weg noch ist."