Wenn Physik zur Rechenmaschine wird Vom Rechenverstärker zur photonischen QPU

Von Dipl.-Ing. (FH) Michael Richter 11 min Lesedauer

Anbieter zum Thema

60 Jahre ELEKTRONIKPRAXIS hinterlassen Spuren. Unser Archiv zeigt: Vieles kommt uns bekannt vor. Technologien erleben ein Comeback, Krisen folgen alten Mustern und bewährtes Fachwissen bleibt relevant. In der Rubrik Damals wie heute schauen wir uns diese Parallelen an.

Analog: Grundelemente und Grundbeschaltung des Rechenverstärkers.(Bild:  Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)
Analog: Grundelemente und Grundbeschaltung des Rechenverstärkers.
(Bild: Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)

Im Jahr 1968 war Rechenleistung kein abstrakter Cloud-Service. Komplexe mathematische Modelle wurden nicht auf einem Laptop, sondern auf Großrechnern analysiert. Systeme wie die IBM System/360 oder die CDC 6600 standen zwar zur Verfügung, doch sie waren teuer, zentralisiert und vor allem nicht für jede Problemklasse effizient.

Wer im Bereich der Regelungstechnik, Luftfahrt, Verfahrenstechnik oder bei biologischen Systemmodellen gekoppelte Differentialgleichungen in Echtzeit untersuchen wollte, stand vor einem Problem. Digitale Numerik bedeutet genau wie heute Diskretisierung, Schrittweitenwahl, Rundungsfehler, Stabilitätsfragen. Doch mit dem Unterschied, dass jede Integration ein Algorithmus war. Jeder Zeitschritt war eine Iteration und diese kostete damals deutlich mehr. Der Analogrechner ging einen anderen Weg. Er rechnete mit Physik und nicht mit Zahlen.

Analog: Grundelemente und Grundbeschaltung des Rechenverstärkers.(Bild:  Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)
Analog: Grundelemente und Grundbeschaltung des Rechenverstärkers.
(Bild: Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)

Eine Differentialgleichung wurde nicht gelöst, sondern elektrisch aufgebaut. Integrale wurden zu Kondensatoren im Rückkopplungszweig, Summen zu Knotenströmen, Multiplikationen zu nichtlinearen Kennlinien oder Parabelschaltungen. Der Rechenverstärker war kein Addierer im logischen Sinn, sondern ein physikalisches Transformationsglied. Mathematik wurde Schaltungstopologie.

Die im damaligen Fachartikel aus dem Jahr 1968 dargestellten Schaltbilder zeigen eine Denkweise, die heute wieder erstaunlich modern wirkt. Man verlegte die Komplexität bewusst in die Hardware, um Rechenoperationen nicht sequenziell abzuarbeiten, sondern physikalisch simultan auszuführen. Verfasst wurde der Artikel von Herbert Klein aus Duisburg. Er war zu dieser Zeit als Assistent und Laboringenieur an der Staatlichen Ingenieurschule für Maschinenwesen in Düsseldorf tätig.

Heute erleben wir ein ähnliches Paradigma in neuer Form. Beim photonischen Quantencomputing, wie es etwa im Rahmen der QCI-Initiative des DLR verfolgt wird, werden Rechenoperationen nicht primär als digitale Zustandsübergänge implementiert, sondern als Superpositions- und Verschränkungsprozesse von Lichtquanten. Da Photonen nicht direkt miteinander wechselwirken, setzt die DLR QCI dabei auf einen messungsbasierten Ansatz. Zunächst werden vorverschränkte Verbände aus vielen Photonen – sogenannte Cluster-Zustände – erzeugt. Durch gezielte Messung einzelner Photonen in diesen Clustern werden Quantenoperationen realisiert, ohne dass Photonen direkt aufeinander einwirken müssen. Interferenz bleibt dabei ein zentrales physikalisches Prinzip, tritt jedoch im Rahmen dieser verschränkten Zustände auf und nicht als einfache Überlagerung unabhängiger Lichtwellen. Die Berechnung entsteht hier nicht durch sequenzielle Instruktionen im klassischen Sinne und dennoch ist der Prozess nicht rein physikalisch-strukturell wie beim Analogrechner. Die Messreihenfolge und die klassische Steuerung zwischen den Messschritten sind selbst Teil des Algorithmus.

Physikalisches Denkmodell

Der Rechenverstärker war das Herzstück des Analogrechners. Er verkörperte eine Idee, die heute fast fremd wirkt. Gleichungen werden gelöst, indem man sie als physikalisches System aufbaut.

Die Grundlage dafür war ein idealisierter Operationsverstärker. Nicht, weil reale Bauteile perfekt gewesen wären, sondern weil sich so eine Schaltung konstruieren ließ, die mathematisch klar beschreibbar war. Durch hohe Verstärkung und Gegenkopplung erzwingt der Verstärker, dass seine beiden Eingänge praktisch dasselbe Potenzial annehmen. Liegt der nichtinvertierende Eingang auf Masse, entsteht am invertierenden Eingang ein virtueller Nullpunkt. Der Grund liegt im extrem hohen Verstärkungsfaktor des Verstärkers. Bereits eine minimale Abweichung der Summenpunktspannung vom Nullpunkt reicht aus, um den Ausgang voll auszusteuern. Die Summenpunktspannung bleibt daher praktisch null, ohne dass dieser Punkt galvanisch mit Masse verbunden ist.

An diesem Punkt fließen mehrere Ströme zusammen. Etwa von zwei Eingangsspannungen über Widerstände. Da in den Verstärker selbst kein Strom hineinfließt, müssen sich die Ströme gegenseitig ausgleichen. Genau hier entsteht die Addition, nicht als arithmetische Operation, sondern als Folge des Kirchhoffschen Gesetzes. Für zwei Eingangsspannungen gilt dann:

0130066378v1 (Bild: VCG)

Die Ausgangsspannung ist also proportional zur gewichteten Summe der Eingänge. Wählt man gleiche Widerstände, entsteht schlicht:

0130066380v1 (Bild: VCG)

Der entscheidende Punkt ist jedoch nicht die Formel, sondern das Prinzip. Alle Beiträge wirken gleichzeitig. Es gibt keine Reihenfolge, keine Taktung, keine Iteration. Die Addition geschieht durch Stromüberlagerung im selben physikalischen Moment. Hier zeigt sich bereits ein fundamentales Merkmal des Analogrechners. Er arbeitet von Natur aus parallel.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Integration: Wenn Zeit selbst rechnet

Noch deutlicher wird die Denkweise beim Integrator. Er entsteht, indem man den Rückkopplungswiderstand durch einen Kondensator ersetzt. Ein Kondensator speichert Ladung. Die Ladungsänderung ist proportional zum Strom. Und Strom ist proportional zur angelegten Spannung. Kombiniert man diese Beziehungen, ergibt sich:

0130066381v1 (Bild: VCG)

Das ist kein numerischer Trick. Der Kondensator führt diese Integration physikalisch aus. Während ein Digitalrechner eine Integrationsvorschrift Schritt für Schritt abarbeitet, akkumuliert der Analogrechner reale Ladungsträger. Die Zeit ist hier nicht diskretisiert. Sie fließt kontinuierlich durch das System. Das ist der eigentliche Unterschied zur digitalen Numerik der 1960er-Jahre. Ein Großrechner hätte dasselbe Integral berechnen können, allerdings nur durch Diskretisierung, Speicherzugriffe und Iteration. Der Analogrechner hingegen war selbst ein dynamisches System, dessen Zustand der Lösung entsprach.

Lineare Rechenoperationen mit Operationsverstärkern: 
Addierer und Integratoren.(Bild:  Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)
Lineare Rechenoperationen mit Operationsverstärkern: 
Addierer und Integratoren.
(Bild: Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)

Differentialgleichungen als Schaltung

Die wahre Stärke dieser Technik zeigte sich bei Differentialgleichungen höherer Ordnung. Eine Gleichung wie

0130066382v1 (Bild: VCG)

wurde nicht algebraisch gelöst, sondern strukturell umgesetzt. Zwei Integratoren in Reihe erzeugten aus einer Beschleunigungsgröße zunächst eine Geschwindigkeit und daraus eine Position. Rückkopplungszweige mit passenden Widerstandsverhältnissen repräsentierten die Koeffizienten a und b. Die Schaltung war damit nicht eine Simulation im heutigen Sinn, sondern das physikalische Gegenstück der Gleichung. Die „Programmierung“ bestand im Umstecken von Patchkabeln.

Nichtlinearität: Konstruieren statt Rechnen

Auch Multiplikationen wurden nicht digital berechnet. Man formte das Problem um, etwa über algebraische Identitäten, und nutzte nichtlineare Bauteilkennlinien. Das Produkt zweier Größen entstand als Folge einer konstruierten Kennlinie. Nicht als Ergebnis eines Rechenbefehls, hier wird deutlich, wie anders das Denken war. Man suchte keine schnelleren Rechenoperationen, sondern geeignete physikalische Analogien. Der Analogrechner war keine Maschine, die Zahlen manipulierte. Er war ein physikalisches System, das sich gemäß einer Gleichungsstruktur verhielt. Das ist der Punkt, an dem sich die Brücke zur Gegenwart schlagen lässt. Denn auch beim photonischen Quantencomputing wird nicht primär „gerechnet“. Stattdessen wird eine physikalische Transformation realisiert, deren Struktur das Ergebnis bestimmt. Der Unterschied liegt nicht allein in der Dimension des Zustandsraums, sondern vor allem im physikalischen Prinzip, das der Dynamik zugrunde liegt. Während der Analogrechner klassische, deterministische Differentialgleichungen realisiert, operiert das photonische Quantencomputing mit unitären Transformationen im Hilbertraum, einschließlich Superposition und Verschränkung.

Lineare Rechenoperationen mit Operationsverstärkern: 
Addierer und Integratoren.(Bild:  Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)
Lineare Rechenoperationen mit Operationsverstärkern: 
Addierer und Integratoren.
(Bild: Herbert Klein, Staatliche Ingenieurschule für Maschinenwesen, Düsseldorf)

Wenn Licht zur Rechenarchitektur wird

Was der Rechenverstärker für den Analogrechner war, ist im photonischen Quantencomputing das Interferenznetzwerk. Auch hier liegt der Kern nicht in einer einzelnen Komponente, sondern in der Struktur des Gesamtsystems. Während der Analogrechner Spannungen als kontinuierliche Zustandsgrößen nutzte, arbeitet das photonische Quantencomputing mit Zuständen einzelner Lichtquanten. Ein Photon kann – je nach Kodierung – zwei logische Zustände repräsentieren, etwa über zwei räumlich getrennte Pfade. Formal schreibt man für ein solches Qubit:

0130066375v1 (Bild: VCG)

Diese Gleichung beschreibt keine statistische Mischung, sondern eine kohärente Überlagerung. Die Koeffizienten α und β sind komplexe Amplituden. Erst bei einer Messung werden daraus Wahrscheinlichkeiten. Hier beginnt der strukturelle Unterschied – aber auch die Parallele. Im Analogrechner addieren sich am Summenpunkt beobachtbare, reelle Ströme gemäß den Kirchhoffschen Gesetzen. Im photonischen System hingegen interferieren komplexe Wahrscheinlichkeitsamplituden, deren physikalische Bedeutung sich erst im Messprozess manifestiert.

Wer jetzt glaubt, dass ein Qubit nun auch wieder lediglich zwei Zustände repräsentiert und damit eher dem digitalen als dem analogen Rechner entspricht, greift zu kurz. Zwar ist der Zustandsraum formal zweidimensional, doch ein Qubit ist kein Schaltelement, das zwischen „0“ und „1“ umlegt. Es kann jeden normierten Zustand in diesem Raum annehmen, beschrieben durch komplexe Amplituden und Phasen. Genau diese Phasenbeziehungen sind physikalisch relevant, weil sie interferieren können. Anders als beim klassischen Bit steckt Information daher nicht in einem zu jedem Zeitpunkt eindeutigen Wert, sondern in einer kohärenten Zustandsbeschreibung, die sich erst bei der Messung als Wahrscheinlichkeitsverteilung zeigt. Ein Qubit ist damit weder „digital“ im Sinn binärer Logik noch „analog“ im Sinn direkt messbarer kontinuierlicher Pegel. Die scheinbare Nähe zur Digitalität entsteht allein aus der Wahl einer zweidimensionalen Basis, nicht aus der Natur des Zustands.

Die Parallele zum Analogrechner ist aber trotzdem mit Bedacht zu ziehen. Die Überlagerung klassischer Ströme am Summenpunkt ist eine lineare Superposition reeller Größen. Sie ist physikalisch vollständig durch die Kirchhoffschen Gesetze beschrieben. Die Überlagerung quantenmechanischer Amplituden hingegen operiert im komplexen Hilbertraum. Interferenz wirkt hier nicht nur additiv, sondern auch destruktiv, abhängig von der Phasendifferenz komplexer Amplituden. Darüber hinaus können mehrere Photonen in Zuständen vorliegen, die sich durch keine klassische Wahrscheinlichkeitsverteilung beschreiben lassen. Man spricht von Verschränkung. Ein verschränkter Zwei-Photonen-Zustand besitzt kein klassisches Analogon: Seine Korrelationen lassen sich nicht auf unabhängige Eigenschaften der Einzelphotonen zurückführen. Die Analogie zum Analogrechner erfasst damit die Architektur des Ansatzes, nicht jedoch die quantenmechanische Substanz. Ein Strahlteiler ist mehr als ein optisches Bauteil. Er implementiert eine lineare Transformation der Zustände. Für zwei Eingangsmoden lässt sich das idealisiert als Matrix schreiben:

0130066377v1 (Bild: VCG)

Die Parameter t und r stehen für Transmission und Reflexion. Entscheidend ist: Diese Transformation geschieht nicht sequenziell. Sie ist unmittelbare Folge der physikalischen Struktur. Genau wie beim Summenverstärker.

Rechnen als Transformation

Im Analogrechner entsprach die Verdrahtung der Struktur einer Differentialgleichung. Beim photonischen Quantencomputing entspricht das optische Netzwerk einer unitären Transformation U im Zustandsraum:

0130066383v1 (Bild: VCG)

Diese Gleichung sieht abstrakt aus, beschreibt aber einen sehr konkreten Vorgang: Ein Netzwerk aus Strahlteilern und Phasenschiebern transformiert einen Eingangsvektor in einen Ausgangsvektor. Die „Programmierung“ besteht darin, diese optischen Parameter gezielt einzustellen. Widerstandsverhältnisse im Analogrechner bestimmten die Gewichtung einer Linearkombination. Reflektivitäten und Phasenverschiebungen bestimmen im photonischen System die Einträge der Transformationsmatrix. Beide Systeme lassen sich als strukturelle Rechenarchitekturen beschreiben, jedoch auf unterschiedlichen mathematischen Ebenen. Der Analogrechner implementiert lineare Differentialoperatoren in klassischer Dynamik. Das photonische Quantencomputing realisiert unitäre Transformationen im Hilbertraum. Die Gemeinsamkeit liegt in der architektonischen Verkörperung mathematischer Struktur, nicht in der Art der zugrunde liegenden Mathematik.

An dieser Stelle ist jedoch eine wesentliche Einschränkung zu benennen: Lineare Optik allein – also ein Netzwerk aus Strahlteilern und Phasenschiebern ohne weitere Hilfsmittel – ist für universelles Quantencomputing nicht ausreichend. Knill, Laflamme und Milburn zeigten im Jahr 2001 (KLM-Protokoll), dass universelles photonisches Quantencomputing prinzipiell möglich ist, jedoch nur unter Einsatz von Einzelphoton-Detektoren, klassischem Feedforward und sogenannten Hilfsressourcen. Alternativ ermöglichen Cluster-State- oder messungsbasierte Ansätze universelles Rechnen durch gezielte Messsequenzen auf vorverschränkten Ressourcenzuständen. Der Analogrechner unterlag zwar praktischen Grenzen wie Bandbreite und Rauschen, doch lineare Operationen ließen sich prinzipiell direkt durch Verschaltung realisieren. Im photonischen Quantencomputing ist die Situation komplexer – die Universalität muss erst durch zusätzliche Protokollebenen erkauft werden.

Interferenz als selektive Verstärkung

Ein weiterer Schritt führt zur eigentlichen Stärke quantenmechanischer Systeme: Interferenz. Treffen zwei kohärente Pfade wieder aufeinander, addieren sich ihre komplexen Amplituden:

0130066376v1 (Bild: VCG)

Die beobachtbare Wahrscheinlichkeit ergibt sich aus dem Quadrat des Betrags. Je nach Phasendifferenz kann sich ein Ergebnis verstärken oder vollständig auslöschen. Hier unterscheidet sich das System fundamental vom Analogrechner. Dort addieren sich reale Ströme linear. Im photonischen System addieren sich komplexe Amplituden, deren Phasen gezielt manipuliert werden können. Das Ergebnis ist keine deterministische Spannung, sondern eine Wahrscheinlichkeitsverteilung. Und dennoch bleibt der architektonische Gedanke derselbe. Die Lösung entsteht durch Struktur, nicht durch Befehlsketten.

Exponentielle Räume

Der entscheidende qualitative Unterschied liegt in der Dimensionalität. Ein Analogrechner mit zehn Integratoren besitzt zehn Zustandsvariablen. Seine Komplexität wächst linear mit der Hardware.

Ein photonisches System mit n Qubits hingegen besitzt einen Zustandsraum mit 2n Dimensionen. Schon bei 20 Qubits entstehen über eine Million Basiszustände. Die Exponentialität ist eine Eigenschaft der Zustandsbeschreibung im Hilbertraum, nicht eine klassische Vervielfachung realer Systemkonfigurationen. Das ist der eigentliche Paradigmenwechsel.

Warum Photonen?

Photonische Plattformen werden verfolgt, weil Photonen nur schwach mit ihrer Umgebung wechselwirken. Das reduziert Dekohärenz. Zudem lassen sich optische Komponenten heute integriert auf Chips realisieren. Diese Eigenschaft ist jedoch ein zweischneidiges Schwert. Weil Photonen so schwach mit ihrer Umgebung wechselwirken, ist es ebenso schwierig, sie gezielt miteinander interagieren zu lassen. Deterministisch verschränkende Zwei-Qubit-Gatter – in anderen Quantenplattformen wie supraleitenden Qubits durch direkte elektromagnetische Kopplung realisierbar– sind in der linearen Optik ohne Hilfsressourcen prinzipiell nicht möglich. Wechselwirkungen zwischen Photonen erfordern nichtlineare optische Medien, die im Quantenregime nur schwer kontrollierbar sind. Die geringe Dekohärenz erkauft man sich also mit erheblichem Aufwand bei der Implementierung verschränkender Operationen.

Der Unterschied: Raum

Oft wird Quantencomputing als „schnelleres Rechnen“ beschrieben. Das greift zu kurz. Entscheidend ist nicht primär die Zeitkomplexität einzelner Operationen, sondern die Struktur des Zustandsraums. Ein klassischer Analogrechner arbeitet in einem kontinuierlichen, aber niedrigdimensionalen Raum. Seine Zustandsvariablen entsprechen direkt den verbauten Integratoren. Jede zusätzliche Variable erfordert neue Hardware. Ein photonischer Quantenprozessor hingegen operiert in einem Zustandsraum, dessen Dimension exponentiell mit der Anzahl der Qubits wächst. Formal bedeutet das Dimension=2n für n Qubits. Diese Dimension ist kein bloß mathematisches Hilfsmittel, sondern Ausdruck der möglichen kohärenten Überlagerungen des Systems. Das System ermöglicht kohärente Überlagerungen über diesen Zustandsraum hinweg. Während der Analogrechner eine Differentialgleichung als physikalisches Modell verkörpert, verkörpert der Quantenprozessor einen hochdimensionalen Transformationsraum.

Determinismus vs. Wahrscheinlichkeit

Ein weiterer fundamentaler Unterschied liegt im Charakter des Ergebnisses. Der Analogrechner liefert ein deterministisches Signal. Seine Fehler sind analoger Natur. Offset, Drift, Rauschen. Die Lösung ist messbar. Das photonische System hingegen liefert Wahrscheinlichkeiten. Die Transformation ist deterministisch unitär, die Auslese probabilistisch. Das Rechenergebnis entsteht erst durch statistische Auswertung vieler Durchläufe.

In der Praxis spricht man von sogenannten „Shots“, also einzelnen Messwiederholungen desselben Quantenkreises. Die benötigte Anzahl ist dabei nicht trivial. Sie hängt vom Algorithmus, der gewünschten Ergebnisgenauigkeit und der statistischen Streuung der Messergebnisse ab. Bei manchen Algorithmen – etwa der Grover-Suche – reichen wenige Durchläufe, um mit hoher Wahrscheinlichkeit das richtige Ergebnis zu erhalten. Bei variationellen Methoden wie dem Variational Quantum Eigensolver (VQE), die heute im Bereich der Quantenchemie eingesetzt werden, können hingegen tausende Shots pro Optimierungsschritt erforderlich sein.

Betrachtet man beide Systeme nebeneinander, zeigt sich eine unerwartete Kontinuität. In beiden Fällen wird die mathematische Aufgabe nicht symbolisch manipuliert. In beiden Fällen ist die Hardware selbst Teil der Gleichung. In beiden Fällen bestimmt die physikalische Architektur das Ergebnis. Der Unterschied liegt nicht im „Ob“, sondern im „Wie weit“. Der Analogrechner nutzte klassische Feld- und Stromgesetze. Der photonische Quantenprozessor nutzt Interferenz und Superposition im komplexen Hilbertraum. Der eine war eine Differentialgleichungsmaschine, der andere ist eine Matrixmaschine im exponentiellen Zustandsraum.

Damals wie heute

1968 suchte man nach Wegen, komplexe mathematische Zusammenhänge effizient abzubilden. Alles ohne sequenzielle Digitalarithmetik. Man fand eine Lösung in der direkten Übersetzung von Gleichungen in Schaltungen. Heute sucht man erneut nach Wegen, bestimmte Problemklassen effizienter zu adressieren. Und wieder lautet die Antwort: Anders rechnen. In dieser Perspektive wirkt der Analogrechner nicht wie ein historisches Relikt, sondern wie ein früher Ausdruck eines Gedankens, der im photonischen Quantencomputing eine neue, radikal erweiterte Form findet. Dabei sei ausdrücklich betont, dass die hier gezogene Analogie konzeptuell ist. Sie beschreibt eine Verwandtschaft im Denken, nicht eine technologische Abstammungslinie. Der photonische Quantencomputer ist keine Weiterentwicklung des Analogrechners, sondern ein eigenständiges System. Was beide verbindet, ist nicht die Physik, sondern der Gedanke Mathematik nicht zu simulieren, sondern zu verkörpern. (mr)

(ID:50785567)