RWTH

Klassische Super-Computer stoßen mit ihrer Rechenleistung an ihre Grenzen. Im Rennen um den ersten für praktische Anwendungen geeigneten Quantencomputer sehen sich RWTH-Forschende im Exzellenzcluster ML4Q vor einem Durchbruch. Mit auf Silizium basierten Halbleiter-Qubits wollen sie die Datenverarbeitung revolutionieren. Die Wissenschaft ist weit davon entfernt, alles auf dieser Welt verstanden zu haben. Etwa, wie Pflanzen Stickstoff binden.

Die Pflanzen schaffen das mit einigen Enzymen bei Umgebungsbedingungen. Aber was da im Detail passiert, ist noch nicht verstanden. Dabei könnte das von großem Nutzen für die Umwelt sein. Denn im Gegensatz zu den Pflanzen verbraucht die Düngemittelindustrie für die Herstellung von Stickstoffverbindungen weltweit gigantische Mengen Energie – nämlich ein Prozent des weltweiten Energiebedarfs, wie der Aachener Physiker Professor Hendrik Bluhm sagt. Die Welt braucht Dünger, um die wachsende Weltbevölkerung ernähren zu können. „Meine Hoffnung wäre, – das ist ein bisschen visionär – wenn wir einen Quantencomputer hätten, könnten wir diesen Prozess bei Pflanzen besser verstehen und im Labor oder im industriellen Nachbau eine bessere Effizienz erreichen“, sagt Bluhm, also letztlich energiesparender produzieren.

Die Miniaturisierung von Computer Hardware stößt an ihre Grenzen. Die Welt braucht eine leistungsfähigere Technologie. Quantencomputer gelten als Superrechner der neuen Generation, die gemessen an Datenmengen und Geschwindigkeit in neue Dimensionen der Datenverarbeitung dringen und dabei das bisherige System auf den Kopf stellen. „Es ist die größte Revolution in der Datenverarbeitung seit Menschengedenken“, unterstreicht Bluhm die Bedeutung der neuen Technologie, auch wenn Quantencomputer wahrscheinlich nur für ausgewählte Anwendungen nützlich sein werden.

Er und sein Team an der RWTH arbeiten im Exzellenzcluster ML4Q (Matter and Light for Quantum Computing) in einem Verbund mit vier Forschungseinrichtungen seit 2019 an den Grundlagen des Quantencomputings. Mit der Exzellenzstrategie von Bund und Ländern soll der Wissenschaftsstandort Deutschland nachhaltig gestärkt und seine internationale Wettbewerbsfähigkeit verbessert werden. ML4Q ist eins von bundesweit 57 Clustern, die mit insgesamt jährlich 385 Millionen Euro gefördert werden. In der zweiten Förderphase von 2026 an steigt die jährliche Fördersumme für bis zu 70 Cluster auf insgesamt 539 Millionen Euro. Im ML4Q arbeiten die Universitäten Aachen, Bonn, Köln und das Forschungszentrum Jülich zusammen. Schwerpunkte sind Materialgrundlagen, Informationsübermittlung und Technologie für den Bau von Quantencomputern. Bluhm und sein Team stehen vor einem Experiment, von dem sie sich einen Durchbruch erhoffen.

Im Vergleich zu klassischen Rechnern weisen Quantencomputer fundamentale Unterschiede auf. Die kleinsten Informationseinheiten heißen in Anlehnung an Bits, Quantenbits oder kurz Qubits. Information und Informationsverarbeitung beruhen nicht wie bisher auf Schaltkreisen und klassischer Zählarithmetik, sondern auf Quantenzuständen, die den völlig anderen Gesetzmäßigkeiten der Quantenphysik unterliegen. Quantenphysikalische Eigenschaften von Photonen, Elektronen oder Ionen werden als Qubits verwendet.

Aber was macht die so unglaublich schnell? Es ist ein Bündel von Gründen, die zusammenwirken: Eine Voraussetzung ist die Eigenheit von Quantenteilchen, mehrere Zustände gleichzeitig einnehmen zu können. Teilchen können sich in verschiedenen Zuständen gleichzeitig befinden: Das ist, als würde ein Schalter gleichzeitig an und aus sein und viele Zustände dazwischen annehmen. Dadurch können die Qubits aufwändige Berechnungen parallel durchführen, ohne dafür mehrere Prozessoren zu benötigen. Mit jedem zusätzlichen Qubit verdoppele sich die Zahl der gleichzeitig möglichen Parallelrechnungen, erklärt Bluhm. Die Grenzen klassischer Supercomputer sind somit mit der Rechenleistung von 50 idealen Qubits vergleichbar, also robusten Qubits mit sehr guten Eigenschaften. Bei besonders für Quantencomputer geeigneten Anwendungen lässt sich abschätzen, dass für klassische Computer praktisch nicht lösbare Problemstellungen von Quantencomputern in wenigen Tagen geknackt werden können.

Ein großes Problem ist allerdings die inhärente Störanfälligkeit der Systeme. Die kleinen Qubit-Teilchen sind nämlich nur dann zu Höchstleistungen fähig, wenn sie völlig ungestört arbeiten können. Auf geringste Einflüsse wie Strahlung oder Temperaturerhöhungen – ausgehend von einigen hundertstel Grad über dem absoluten Nullpunkt – reagieren sie wie Mimosen: Jeder Kontakt der Qubits mit der Umgebung führt zum Informationsverlust. Selbst die notwendige Kommunikation der Teilchen untereinander birgt das Risiko, dass ihre Quanteneigenschaften verlorengehen und dadurch am Ende ein falsches Ergebnis herauskommt. Insofern ist es für die unabhängigen Wissenschaftler nur eingeschränkt aussagekräftig, wenn IBM einen Prozessor mit 433 Qubits verkündet.

Denn längst mischen Firmen wie IBM und Google im internationalen Rennen um den ersten Quantencomputer mit. Und auch die Politik ist sich der Bedeutung der Quantentechnik bewusst. So setzte die Bundesregierung im April 2023 das Handlungskonzept Quantentechnologien auf und formulierte das Ziel, bis 2026 in Deutschland einen universellen Quantenrechner mit mindestens 100 individuell ansteuerbaren Qubits zu entwickeln, der mittelfristig auf 500 Qubits skalierbar sein soll. Aus Sicht der Wissenschaft ein ambitioniertes Ziel. Denn am Ende zählen nur robuste Qubits mit guten Eigenschaften, die komplex und mit geringer Fehlerrate rechnen. Außerdem müssen Systeme hochskalierbar und auf größere Einheiten übertragbar sein.

Dazu verfolgen die Wissenschaftler im rheinischen Cluster unter anderem zwei komplementäre Lösungsansätze: Sie wollen robustere Qubits bauen und durch eine Fehlerkorrektur zuverlässige Ergebnisse erzielen. Die Aachener haben den Cluster in beiden Fragen vorangebracht und wollen mit ihren Quantenbits aus Silizium jetzt den Durchbruch schaffen.

Auf der Suche nach dem besten weniger störanfälligen System setzen Bluhm und sein Team auf einen bisher unauffälligen Ansatz: Silizium-Qubits – also Quantenbits aus dem Material, aus dem klassische Computerchips gemacht sind. Beim Rechnen mit Silizium-Qubits wird der Spin – also die Drehung – von Elektronen in Silizium manipuliert. „Die Strukturen, die man dazu verwendet, sind ganz ähnlich wie die Halbleiterbauelemente, die in den Computern stecken, also im Grunde modifizierte Transistoren. Und die große Hoffnung ist, dass man diese Halbleitertechnologie verwenden kann, um Qubits herzustellen“, sieht Bluhm gute Voraussetzungen für die Massenproduktion. Durch die Zusammenarbeit mit dem Halbleiterhersteller Infineon und die Übertragung der Fertigungstechnologie auf industrielle Anlagen gebe es ganz andere Möglichkeiten für Stabilität und Verdrahtung der Qubits. Bisher waren die Erfolge mit Silizium-Qubits aber eher unauffällig. Das bisher komplexeste siliziumbasierte System hat die TU Delft gebaut, mit sechs Qubits.

Bluhm und sein Team stehen vor einem Experiment, von dem sie sich einen Durchbruch erhoffen. Das wäre dann der perfekte Stoff für die Geschichte von David und Goliath aus der Forschung. Während im Rennen um den Quantencomputer weltweit Milliarden in die Forschung gepumpt werden, arbeitet die kleine Gruppe von Doktoranden um den Physiker Bluhm mit relativ bescheidenen finanziellen Mitteln an dem Silizium-Qubit. Jetzt scheint ein zentrales Problem gelöst und die Voraussetzung für den Durchbruch da. Für die Berechnungen müssen sich die Qubits austauschen und dafür auf dem Chip eng beieinandersitzen. Bisher gab es dabei aber zu wenig Platz, um Qubits und Kontrollleitungen, über die die Teilchen einzeln angesteuert werden, unterzubringen. Am Ende könnten das ja durchaus eine Million Leitungen für eine Million Qubits sein.

Darum will das Team die Qubits auf dem Chip weiter auseinander platzieren. Für den Austausch untereinander sollen sie über elektrische Signale kurz zusammen- und wieder auseinandergefahren werden – was auch unerwünschte Wechselwirkungen unter den Qubits verhindern soll. Was so einfach klingt, ist ein hochkomplexes Verfahren: Die Pulse müssen sehr genau sein, damit die kleinen Recheneinheiten tun, was sie sollen. Außerdem gibt es auf dem Chip Stolperfallen, die dem Qubit schaden – ungünstige Strukturen, die die Quanteneigenschaften zerstören und die Qubits unbrauchbar machen könnten. Diese Fallen müssen umfahren werden. In Einzelexperimenten haben die Wissenschaftler gezeigt, dass das funktioniert: Sie können die Silizium-Qubits bewegen und trotzdem die Quanteneigenschaften erhalten – wenn zunächst auch nur in unzureichender Qualität. Aber sie wissen, worin das Problem liegt und wollen das ändern mit speziell produzierten Siliziumchips: Mit kerntechnischen Verfahren wurden bestimmte schädliche Isotope entfernt. Dabei spielt Radioaktivität keine Rolle, sondern der sonst harmlose Spin der Atomkerne, der die Elektronen-Qubits stören kann.

Die Vorbereitungen für das alles entscheidende Experiment laufen in einem unscheinbaren Labor mit zwei Computerplätzen und dem technischen Herzstück, einer Art Hochleistungs-Tischkühlschrank, der den Chip mit zunächst wenigen Silizium-Qubits bis nahe auf den Nullpunkt von minus 273,15 Grad heruntergekühlt. „Wir stellen die Chips teilweise selber her mit Methoden, die denen der Halbleitertechnologie ähnlich sind“, erklärt Bluhm und nimmt einen dieser glänzenden Siliziumchips zwischen zwei Finger, der wie schwarz gefärbtes Glas aussieht. Darauf befinden sich winzig kleine Metallleitungen, die mit dem Auge kaum erkennbar sind. Mit Drähten verbunden wandert der Chip später in den sogenannten Kryostat und wird auf die optimale Arbeitstemperatur knapp über den Nullpunkt runtergekühlt, bei dieser Temperatur werden die Qubits weniger gestört.

Silizium-Qubits sind so groß wie ein Tausendstel eines menschlichen Haares und damit unvorstellbar klein. Damit sie sich bewegen, werden vorprogrammierte Signale über Leitungen auf den tiefgekühlten Chip gegeben. „Am Ende wird geschaut, ob das Elektron da ist, wo es sein soll und sich verhält, wie es soll“, bringt Bluhm die komplexe Analyse auf den Punkt. Anders als in der Forschungscommunity, in der Bluhm noch eine gewisse Skepsis bemerkt, ist der Aachener Physiker zuversichtlich: Jahrelang beiße man sich die Zähne an komplizierten Details aus „und auf einmal funktioniert es und man hat den großen Durchbruch. „Wenn das so funktioniert, wie wir das auf Basis von Modellen erwarten, dann sehe ich da wirklich einen Durchbruch für Halbleiterqubits, aber auch für das Quantencomputing insgesamt“, stellt Bluhm fest. Auf dieser Basis sollten nach seiner Einschätzung gut 100 Qubits mit der heute verfügbaren Technologie relativ leicht realisierbar sein.

Damit Quantencomputer praxistauglich werden, müssen Fehler erkannt und korrigiert werden. Aachener Forscher waren an zwei bedeutenden und im Wissenschaftsmagazin Nature veröffentlichten Erfolgen beteiligt. So gelang es der ETH Zürich mit Unterstützung des Aachener Quantentheoretikers Professor Markus Müller und Wissenschaftlern in Jülich und Kanada erstmals, Fehler in digitalen Quantensystemen schnell und kontinuierlich zu korrigieren und damit eine wichtige Hürde auf dem Weg zum praktischen Quantencomputer zu nehmen.

Sie lösten die entscheidende Frage mit einem Kniff: Wie soll man die Fehler finden, wenn man die Qubits beim Rechnen nicht stören darf? Sobald man den Zustand eines Qubits ausliest, verschwindet die Information. Die Forscher untersuchten ein Verfahren, mit dem sie diesen Effekt austricksen: Sie speicherten den Quantenzustand in vielen einzelnen Qubits und verwendeten zusätzlich Helfer-Qubits. Diese Helfer-Qubits werden während des Rechenvorgangs wiederholt und schnell ausgelesen, ohne die in den übrigen Qubits gespeicherte Information zu verfälschen. So kann man Fehler erkennen und darauf aufbauend korrigieren.

Ziel ist es, so die derzeit erreichbare Fehlerrate einzelner physikalischer Qubits von einem auf tausend Operationen hin zu einem pro eine Million Milliarden Operationen zu verbessern. Allein bei einem Rechenvorgang, der nur 100 perfekte Qubits erfordern würde, braucht man dafür mit dem am besten verstandenen Verfahren aber rund 100.000 fehlerbehaftete physikalische Qubits. Müller und sein Team haben bei der Arbeit in Zürich die Eigenschaften des so genannten logischen Qubit analysiert und bewertet. Logische Quantenbits bestehen aus mehreren physikalischen Qubits. In logischen Quantenbits ist die gespeicherte Information vor Fehlern geschützt. Aber ohne Rechenoperationen sind sie nutzlos und die Operationen fehleranfällig.

Experimentalphysikern der Uni Innsbruck ist es mit dem Aachener Forscher Markus Müller und dem Forschungszentrum Jülich erstmals gelungen, ein Set von universellen Rechenoperationen auf zwei logische Quantenbits zu realisieren. Die Physiker implementierten die Operationen so, dass Fehler erkannt und korrigiert werden können. Die Demonstration der Universität Innsbruck fand zwar an einem so genannten Ionenfallen-Quantencomputer statt, bei dem gefangene Ionen zur Speicherung und Verarbeitung von Quanteninformationen verwendet werden. Das Verfahren kann aber auf andere Systeme übertragen werden. Für frei programmierbare, skalierbare Quantencomputer werde das Verfahren in Zukunft essenziell sein, unterstreicht der Aachener Forscher Müller die Bedeutung.

Trotz dieser Fortschritte wird es aber wohl noch einige Jahre dauern, bis der erste für praktische Anwendungen geeignete Quantencomputer am Start ist. Und selbst wenn der Durchbruch geschafft ist, werden klassische Supercomputer nicht verschwinden. „Das Quantencomputing wird kein Universalwerkzeug sein, um jegliche Rechenleistung zu erhöhen“, sagt Bluhm. Eine Steigerung der Rechenleistung werde nur für bestimmte Probleme erwartet: Optimierungsprobleme gehörten dazu. „Wie viel besser funktioniert die Bahn, wenn sie ihren Fahrplan besser simulieren kann“, nennt Bluhm eine mögliche Fragestellung. Quantencomputer könnten bei der Optimierung von Produktionsprozessen helfen, auch in Teilen der Klimaforschung oder beim Thema künstliche Intelligenz. Auch auf der Suche nach neuen Medikamenten und der Entwicklung neuer Katalysatoren für chemische Verfahren könnten sie nützlich sein: „Bei der Arzneimittelforschung kommt es letztlich auf die Quanteneigenschaften der Elektronen an, die in der Chemie eine Rolle spielen. Und die kann man mit klassischen Rechnern nur eingeschränkt simulieren.“

In der Zwischenzeit sieht Bluhm nicht nur die Wissenschaft, sondern auch industrielle Anwender in einer kollektiven Lernphase. „Man lernt, die Technologie zu beherrschen und bildet gleichzeitig Anwender aus, die wissen, wie man mit einem Quantencomputer überhaupt umgehen kann.“ In vielen deutschen Unternehmen und Großkonzernen wie Deutsche Bahn, BASF oder BMW gebe es Entwicklerteams, um bei einem Durchbruch der neuen Technik eine Basis zu haben. Wann das sein wird? Bei optimistischer Betrachtung in großem Stil vielleicht in 15 Jahren, meint Bluhm: „Die Zeitskala erfordert noch etwas Geduld und hat Unsicherheiten.“