Optische KI-Beschleuniger sprengen die Grenzen konventioneller Rechenleistung – ausgerechnet mit Licht. Ihre massive Parallelität steht im Mittelpunkt einer neuen Generation von Hardware. Die ersten kommerziellen Chips von Anbietern wie Lightmatter stehen kurz vor ihrem offiziellen Marktstart.
Leibniz-Rechenzentrum rechnet jetzt auch mit Licht: Der photonische KI-Rechner von Q.ANT ging im Juli 2025 am Leibniz-Rechenzentrum (LRZ) in Betrieb. Dr. Michael Förtsch (l.), Gründer und CEO von Q.ANT, und Prof. Dr. Dieter Kranzlmüller (r.), Vorsitzender des Direktoriums des LRZ.
(Bild: Q.ANT)
Wie lassen sich höchste Rechenleistung, beispiellose Datenraten und massive Parallelität unter einen Hut bringen, ohne dass der Energieverbrauch explodiert? Diese Frage treibt Chipentwickler seit Jahren um.
Nach Forschungseinrichtungen stellen sich dieser Aufgabe auch erste Start-ups – mit beachtlichem Erfolg. Die Landschaft im Bereich optischer KI-Beschleuniger hat sich in kürzester Zeit zu einem hochdynamischen Ökosystem entwickelt.
Der Grundgedanke hat eine gewisse Eleganz: Statt Elektronen mit hohem Energieaufwand durch Transistoren zu treiben, lässt man Lichtteilchen optische Wellenleiter durchlaufen – das tun sie ja fast von selbst. Photonen bewegen sich in Schaltkreisen beinahe verlustfrei, mit zwei Dritteln der Lichtgeschwindigkeit (die Lichtgeschwindigkeit im Medium liegt etwa bei c/n ≈ 0,66c).
Licht in den Startlöchern
Einen der weltweit ersten kommerziellen Photonik-Prozessoren brachte die Q.ANT aus Stuttgart mit der photonischen NPU im Jahre 2024 auf den Markt (siehe dazu den Bericht Unter der Haube des photonischen KI-Beschleunigers von Q.ANT). Eine der ersten Lieferungen ging 2025 an das Leibniz-Rechenzentrum (LRZ) in Garching bei München. Der Q.ANT-Prozessor ist derzeit primär für Early-Adopter-Bereitstellungen und Forschungseinrichtungen verfügbar.
Das kalifornische Startup Lightmatter liefert seine photonische Rechenplattform nach einer mehrjährigen Pilotphase ab Herbst 2025 bereits in größeren Stückzahlen aus (Details siehe weiter unten).
Das französische Deeptech-Startup Arago hat einen hybriden elektro-photonischen KI-Beschleuniger namens JEF konzipiert. Der Prozessor läuft mit bestehenden AI-Frameworks wie TensorFlow und PyTorch und integriert sich in bestehende Infrastrukturen ohne jegliche Änderungen. Gefertigt wird er in klassischen Halbleiterprozessen. Das Gründer-Trio im Kernteam von Arago – Nicolas Muller, CEO und Mitgründer, Eliott Sarrey, CTO und Mitgründer mit Schwerpunkt Silizium-Photonik und Ambroise Müller, CSO und technischer Mitgründer – lernte sich im Rahmen von Forschungsprojekten an der ETH Zürich kennen.
Das Gründer-Trio im Kernteam von Arago (v. l. n. r.): Nicolas Muller, CEO und Mitgründer, Eliott Sarrey, CTO und Mitgründer mit Schwerpunkt Silizium-Photonik und Ambroise Müller, CSO und technischer Mitgründer.
(Bild: Arago)
Nicolas Muller, Mitgründer und CEO, stand auf dem Web Summit 2025 in Lissabon zu der Technologie Rede und Antwort.
Luminous Computing aus dem kalifornischen Mountain View entwickelt hochgradig skalierbare photonische Chips für das Training großer neuronaler Netze. Das Unternehmen kombiniert optische Matrixmultiplikationen mit elektronischer Steuerlogik zu einem hybriden System.
Lightelligence aus Boston im US-Bundesstaat Massachusetts widmet seine Aufmerksamkeit photonischen Prozessoren, die Optimierungsprobleme und Graphanalysen beschleunigen. Das Design zielt auf deterministische Latenzen im Sub-Nanosekundenbereich und eine direkte Integration in bestehende AI-Stacks ab.
Die britische Lumai setzt auf eine aggressive Miniaturisierung ihrer photonischen Kerne. Das Unternehmen verspricht eine bis zu fünfzigfache Leistung herkömmlicher Siliziumbeschleuniger bei nur zehn Prozent des Energieverbrauchs. Grundlage dafür sind modulare MZI-Arrays mit integriertem Temperaturkompensations- und Kalibrierungssystem.
Die Akhetonics GmbH aus München hat mit Connect-A-PIC eine Open-Source-Plattform für automatisiertes Design und Simulation photonischer Schaltkreise zur schnellen Iteration und Ausbildung vorgestellt. Das Unternehmen entwickelt „den weltweit ersten vollständig optischen XPU, einen domänenübergreifenden Prozessor mit ultra-niedrigem Stromverbrauch für allgemeine Anwendungen, Hochleistungsrechnen und Künstliche Intelligenz“. Die ersten Produkte sollen ab 2027/2028 auf den Markt kommen.
Celestial AI hat sich hauptsächlich der Entwicklung der Photonic Fabric Plattform für optische Chip-zu-Chip-Verbindungen verschrieben. Die Technologie umfasst Lösungen für Photonik-basiertes Networking, Switching und Packaging und adressiert nebenbei auch In-Network-Computing und High-Performance-Memory direkt im Netzwerk. Sie erreicht Bandbreiten von über 1 Tb/s pro optischer Verbindung bzw. Chip-Paket, mit mehreren Wellenlängen pro Faser.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Das Rennen um die Vorherrschaft bei optischen KI-Beschleunigern hat begonnen.
Sogar Microsoft Research forscht an einem Hybrid-Ansatz mit analog-optischer Rechenlogik („Analog Optical Computer“, 2025).
Licht statt Ladungsträger: photonisch schalten und walten
Das Fundament moderner optischer KI-Beschleuniger bilden die sogenannten PICs (Photonic Integrated Circuits). Sie integrieren Laser, Modulatoren, Wellenleiter und Detektoren auf einem einzigen Chip, um die Manipulation von Lichtsignalen für Berechnungen zu ermöglichen.
Führende Plattformen basieren auf Silizium oder TFLN-on-Insulator (TFLN-OI). Diese Werkstoffe erlauben eine energieeffiziente elektro-optische Konversion bereits auf dem Niveau von wenigen Femtojoule pro Bit (10⁻15 Joule), also bei einem ultraniedrigen Energieverbrauch.
Die eigentliche Informationsverarbeitung in PICs erfolgt in komplexen Strukturen aus Mach-Zehnder-Interferometern (MZIs). Diese führen Matrix-Multiplikationen – das zentrale Rechenmuster neuronaler Netze – parallel über viele Wellenlängenkanäle aus (Stichwort: Wavelength Division Multiplexing, WDM).
Im Unterschied zu klassischen elektronischen Chips, die Daten sequenziell verarbeiten, sind photonische Systeme in der Lage, massive Parallelität zu erreichen – obwohl die Anzahl der nutzbaren Wellenlängen durch Effekte wie Crosstalk und die Präzision der Bauteile limitiert ist. Dank der Lichtgeschwindigkeit im Medium und der simultanen Nutzung vieler Kanäle liegen die Datenraten im Terabit-Bereich bei Latenzzeiten von nur wenigen Nanosekunden – für rechenintensive KI-Workloads sind diese Leistungswerte ein entscheidender Vorteil.
Eine logische Weiterentwicklung der MZI-basierten Architektur sind optische Matrix-Kerne (MZI-Meshes) das Herz eines photonischen Prozessors. Sie bündeln hunderte bis tausende optische Multiplikationseinheiten in einer hochparallelen Architektur, um lineare Algebra-Operationen – etwa Matrix-Vektor- oder Matrix-Matrix-Multiplikationen – direkt im optischen Feld auszuführen.
Bei einer Rechenoperation werden Lichtwellen gezielt in die Mach-Zehnder-Interferometer (MZIs) eingespeist, damit sie hier in einer kontrollierten Umgebung miteinander interferieren. Das entstehende Interferenzmuster wird durch präzise Einstellung der Phasenlagen – also gezielte Phasenverschiebungen – innerhalb der MZIs kontrolliert. Elektro-optische Modulatoren übernehmen die dynamische Anpassung der Gewichte, während präzise Kalibrier- und Feedback-Schleifen den Drift und Temperatureffekte kompensieren.
Das finale Interferenzmuster resultiert aus der präzisen Überlagerung der Lichtwellen und der Änderungen von Phase und Amplitude. Dieses Muster repräsentiert das Ergebnis der jeweiligen Rechenoperation, beispielsweise einer Matrixmultiplikation. Photodetektoren am Ausgang der MZIs erfassen die resultierende Lichtintensität – das Rechenergebnis.
Optische Matrixmultiplikationen lassen sich parallel über viele Wellenlängen – also verschiedene Lichtfarben – gleichzeitig ausführen (Wavelength Division Multiplexing, WDM). Jede Wellenlänge transportiert einen eigenen Daten- oder Berechnungskanal. Das steigert die Rechendichte und die Geschwindigkeit. Da Effekte wie Crosstalk, Nichtlinearitäten und Bauteiltoleranzen die Zahl der nutzbaren Kanäle beschneiden, kommen adaptive Kalibrier- und Temperaturstabilisierungssysteme ins Spiel.
Fortschrittliche Technologien erlauben sogar die Realisierung nichtlinearer Aktivierungsfunktionen direkt auf dem Photonik-Chip, beispielsweise mittels Lasergrenzwerten für ReLU (in Forschungsarbeiten demonstriert, in Produkten meist elektronisch umgesetzt).
Diese analogen Berechnungen erlauben massive Parallelität direkt auf dem Chip.
Innovative Architekturen versprechen Computing-Dichten von über 34 TOPS/mm² bei deutlich reduziertem Energieverbrauch im Vergleich zu elektronischen Systemen. Bei extrem niedrigen Latenzen sind Terabit-Datenraten bereits heute möglich. Allerdings handelt es sich bei diesen Rekordzahlen um Forschungsresultate und theoretische Leistungsgrenzen, noch nicht um handfeste Produkte.
KI-Beschleuniger Envise mit Passage M1000 von Lightmatter
Eine der ambitioniertesten Entwicklungen im Bereich optischer KI-Beschleunigung ist die photonische Superchip-Plattform Passage M1000 von Lightmatter. Sie verbindet Envise-Chiplets (photonische KI-Beschleuniger von Lightmatter) mit Speicher, Steuerlogik und anderen Bauelementen in der photonischen Domäne. Dadurch entfallen Verluste durch elektrische Widerstände und Kapazitäten, die in klassischen Chips Bandbreite und Energieeffizienz begrenzen.
Im Lightmatter-Ökosystem laufen leistungsstarke KI-Workloads auf den Envise-Beschleunigern; Passage M1000 sorgt für den verlustarmen, latenzarmen Austausch großer Datenmengen zwischen den Recheneinheiten. Diese vollintegrierte photonische Kommunikations- und Rechenplattform erreicht bereits Bandbreiten, die mit elektrischen Leitungen physikalisch kaum noch realisierbar sind.
Das Herzstück der Plattform bildet eine 3D-photonische Interposer-Plattform von Lightmatter. Sie schafft eine mehrschichtige optische Verbindungsebene für Chiplets (Recheneinheiten, Speicher, Steuerlogik). Über insgesamt 256 optische Fasern des Interposers laufen je 8 DWDM-Kanäle pro Faser (über 2 Tbps pro Leitung).
Der photonische Superchip Passage M1000 von Lightmatter erreicht eine Gesamtdatentransferrate von bis zu 114 Tbps über alle optischen Fasern und DWDM-Kanäle (modulintern 114 Tbps) bei einer Leistungsaufnahme von bis zu 1500 Watt.
(Bild: Lightmatter)
Lightmatter kombiniert photonische Rechenblöcke (Matrix-Engines, also optische Matrixeinheiten) mit elektronischen Steuer- und Speicherkomponenten. Der Passage M1000 integriert hierzu 1024 SerDes-Kanäle als Brücke zwischen der photonischen und der elektronischen Domäne, um bestehende Rechenlogik (z. B. GPUs oder ASICs) anzuschließen. Die SerDes-Einheiten wandeln elektrische Signale in optische um und umgekehrt.
Um eine hohe Integrationsdichte zu ermöglichen, werden mehrere Silizium-Belichtungsfelder zu einem einzigen, extrem großen Substrat zusammengesetzt. Durch dieses sogenannte Cross-Reticle-Stitching soll sich künftig eine Trägerfläche von über 4000 mm² realisieren lassen. Diese Trägerfläche (in aktuellen Designs 800–900 mm² pro Modul) nimmt photonische und elektronische Chiplets auf, die dann über den optischen Interposer miteinander verbunden werden.
Mit diesem Ansatz lassen sich riesige „Chip-Komplexe“ zu einem „Multi-Die-Superchip“ zusammenführen, sodass sich wie ein einziger Superchip verhalten.
Der integrierte Petabit Switch verbindet mehrere Rechendie-Cluster über Licht, ohne elektrische Paketvermittlung, mit einer Schaltkapazität von über einem Petabit pro Sekunde. Die Technologie adressiert die Skalierungskrise nach dem „Ausklingen“ des Moore'schen Gesetzes.
Der Passage M1000 von Lightmatter ist kein Rechen-, sondern ein Kommunikations-Superchip, der optische Datenpfade zwischen photonischen und elektronischen Recheneinheiten bereitstellt. Seine Stärken liegen in der extrem hohen Bandbreite und geringen Latenz des photonischen Interconnects (über 114 Tb/s I/O), nicht in der reinen Rechenleistung. Während elektrische Systeme pro übertragenem Bit mehrere Picojoule benötigen, bewegt sich Lightmatters Plattform im unteren einstelligen Femto-Joule/Bit-Bereich.
Mit dem Petabit-Switch von Lightmatter lassen sich die optischen Superchips zu einem optischen Cluster zusammenschalten. Die Schaltmatrix skaliert linear mit der Zahl der angeschlossenen Compute-Dies.
Lightmatter Passage L200, ein optisches Co-Packaged-Optics-Modul („Interposer“) für die Anbindung und schnelle Datenübertragung zwischen KI-Beschleunigern und anderen hochperformanten Chips in Rechenzentren und Switches.
(Bild: Lightmatter)
Lightmatter steht unmittelbar vor dem offiziellen Marktstart. Die photonische Superchip-Plattform in der ersten Generation (Passage M1000/Envise) ist laut Hersteller ab Herbst 2025 kommerziell verfügbar. Kleinere Co-Packaged Optics-Lösungen (Passage L200) und nachrüstbare Chiplets für bestehende AI-Chips werden 2026 erwartet.
Die Vorserien- und Referenzdesigns sind bereits produktionsbereit. Fertigungspartner sind GlobalFoundries (Fotonix) und Amkor.
Hybride Architekturen und neue Materialien
Photonische Architekturen eröffnen nicht zuletzt neue Möglichkeiten für das In-Memory-Computing. Forschungen zu optischem In-Memory-Computing zeigen, dass sich photonische Speicherzellen und nichtflüchtige Phasenmodulatoren (z. B. auf Basis von GST oder VO₂) direkt in Rechenschichten integrieren lassen. In Laboraufbauten entsteht so eine nahezu vollständig photonische Rechenpipeline – von der Eingabe über die Multiplikation bis zur Gewichtsanpassung. Die resultierende Energieeffizienz liegt um Größenordnungen über jener elektronischer Beschleuniger – ein völlig neues Leistungsniveau für KI-Training und Inferenz. Kommerzielle Systeme setzen bislang auf hybride Architekturen mit elektronischer Steuerung und optischer Rechenlogik.
Die bevorzugte Lösung für kommerzielle KI-Beschleuniger sind momentan hybride Ansätze, die optische und elektronische Komponenten kombinieren. Rein photonische Lösungen bieten zwar theoretisch eine noch höhere Geschwindigkeit und Energieeffizienz, sind aber in der Praxis noch stark eingeschränkt – etwa durch fehlende photonische Speicher oder limitierte Steuerbarkeit.
Hybride elektro-optische Prozessoren vereinen die Vorteile photonischer Datenverarbeitung mit der Präzision elektronischer Steuerung. Photonische Kernschaltungen in diesen Systemen erledigen hochparallele Matrixoperationen, während elektronische Komponenten für Steuerlogik, Speicher und Peripherie sorgen. Dieses Zusammenspiel ermöglicht es, sowohl lineare als auch – in neueren Architekturen – nichtlineare Funktionen direkt auf dem Chip auszuführen. Diese Integration bringt die Vision rein photonischer neuronaler Netze näher an die Praxis.
Besonders interessant ist in diesem Zusammenhang Thin-Film-Lithium-Niobat (TFLN), ein Material mit außergewöhnlich niedrigen optischen Verlusten, hoher Modulationsgeschwindigkeit und Kompatibilität mit Siliziumfertigung. Es ermöglicht die Erschaffung von Plattformen, die hunderte bis tausende Multiplikationskanäle gleichzeitig in der optischen Domäne verarbeiten können.
Phase-Change-Memory-Zellen auf Basis von Germanium-Antimon-Tellur-Verbindungen wurden bisher vorrangig in Laboraufbauten und Forschungsdemonstratoren als rekonfigurierbare, nichtflüchtige Gewichtsmatrix für neuronale Netze genutzt. In kommerziellen photonischen KI-Systemen kommen sie bisher nicht zum Einsatz.
Co-Packaged Optics (CPOs)
Mit zunehmender Reife der Technologie rücken auch neue Integrationsstrategien in den Vordergrund. Ein solches Konzept ist Co-Packaged Optics (CPO).
Co-Packaged Optics (CPO) bezeichnet ein Packaging-Konzept, bei dem optische Engines und elektrische ASICs – etwa Switch- oder Prozessor-Chips – in einem gemeinsamen Gehäuse oder auf einem gemeinsamen Interposer platziert werden. Der Ansatz verkürzt die elektrischen Signalwege, senkt Leistungsverluste und steigert die Bandbreitendichte. Dadurch verschiebt sich das Rauschmanagement von der elektrischen zur photonischen Domäne.
Trotz beeindruckender Fortschritte bleibt die technische Umsetzung ein Hürdenlauf. CPO-Technologie stellt höhere Anforderungen an die Kühlung, Fehlerdiagnose und das Management verschiedener Fertigungstechnologien in einem Gehäuse.
In der Co-Packaged-Optics-Technologie sind die Signalstärken extrem niedrig. Die optischen Ausgangsleistungen in CPO-Systemen liegen pro Übertragungslane typischerweise im mW-Bereich bei Energieverbräuchen zwischen wenigen Pico-Joule/Bit und Femto-Joule/Bit. Dies macht ein präzises Rauschmanagement und eine hochempfindliche Signalverarbeitung erforderlich.
Auch thermische Stabilität und serielle Testbarkeit photonischer Mesh-Netzwerke stellen das Ingenieurwesen vor komplexe Aufgaben. Fortschritte bei monolithischer Integration, nanometergenauer Fertigung und on-chip-Lasern lassen jedoch erwarten, dass photonische Systeme bald industrielle Skalierbarkeit erreichen.
Die Entwicklung schreitet schnell voran: Co-Packaged-Optics-Designs, die Integration von Lasern direkt auf dem Wafer und Fortschritte bei monolithischen PICs ebnen den Weg für skalierbare Systeme für hardwarebeschleunigte KI und Hochleistungsrechnen (HPC) mit Licht.
Fazit
Optische KI-Beschleuniger sind dabei, die Hardwarelandschaft für KI und High-Performance-Computing zu revolutionieren. Die Kommerzialisierung dieser Technologien ist bereits in vollem Gange.
Referenz
[1] Xu, D.; Ma, Y.; Jin, G.; Cao, L.: Intelligent Photonics: A Disruptive Technology to Shape the Present and Redefine the Future. Engineering, Vol. 46 (2025), S. 186–213. https://doi.org/10.1016/j.eng.2024.08.016
(mbf)
* Anna Kobylinska und Filipe Pereia Martins arbeiten für McKinley Denali, Inc., USA.