KI in Extremsituationen Warum KI auf den Mond schießen, wenn man sie auch versenken kann?

Von Susanne Braun 4 min Lesedauer

Anbieter zum Thema

Die Idee, Rechenzentren im Erdorbit zu etablieren, ist nicht neu und aktuell auch nicht wirtschaftlich. Tech-Prominenz leistet sich die Träumerei von der KI aus dem All, dabei gibt es anderes Neuland, das es zu entdecken gilt: das Meer.

Rechenzentren im Orbit sind tatsächlich Zukunftsmusik, während Rechenzentren unter Wasser bereits erprobt werden.(Bild:  Dall-E / KI-generiert)
Rechenzentren im Orbit sind tatsächlich Zukunftsmusik, während Rechenzentren unter Wasser bereits erprobt werden.
(Bild: Dall-E / KI-generiert)

Der steigende Energiebedarf von Rechenzentren, insbesondere durch KI-Workloads, führt seit einigen Jahren zu immer radikaleren Infrastrukturideen. Da wird von Standorten in kühlen Regionen gesprochen, dann wieder von Standorten in Gegenden, in denen das Wetter weitestgehend stabil ist, in Wüsten etwa. Dann von Datacentern in der Nähe erneuerbarer Energiequellen – oder in der Nähe stillgelegter Atomreaktoren, die man wieder in Betrieb nehmen könnte.

Regelmäßig taucht in den Gesprächen und Gedankenspielen eine Vision auf, die ebenso faszinierend wie kontrovers ist: Rechenzentren im All. Die Vorstellung dahinter wirkt zunächst plausibel. Im Orbit steht nahezu unbegrenzt Solarenergie zur Verfügung. Flächenprobleme wie auf der Erde entfallen. Na ja, das mag man schnell glauben, wenn man sich nicht unbedingt mit Weltraumschrott auseinandersetzen möchte.

Und ja, die Abwärme könnte theoretisch ins Weltall abgegeben werden. Nun … so einfach ist das aufgrund des Vakuums auch wieder nicht. Egal, bleiben wir erst einmal auf der grünen Spielwiese. Gleichzeitig ließen sich Daten direkt dort verarbeiten, wo sie entstehen – etwa bei Erdbeobachtungssatelliten. Das sind alles valide Gedanken, die jetzt bereits umgesetzt werden.

Rechnen im All

Geht es aber darum, Daten von der Erde in den Orbit zu schießen, um sie dort zu verarbeiten und wieder zurückzuschicken, dann setzt genau an dieser Stelle Kritik an, unter anderem von der Analystenfirma Gartner. In einer aktuellen Analyse kommen die Experten zu dem Schluss, dass orbitale Rechenzentren auf absehbare Zeit keine terrestrischen Anforderungen bedienen werden und Unternehmen ihre Investitionen besser auf Infrastruktur auf der Erde konzentrieren sollten.

Die Begründung ist weniger visionär als vielmehr physikalisch und ökonomisch geprägt. Transportkosten dominieren jede Rechnung, denn IT-Hardware, Energieversorgung, Kühlung und Struktur müssen zunächst in den Orbit gebracht werden. Selbst bei stark sinkenden Startkosten bleiben Masse und Volumen entscheidende Kostentreiber. Hinzu kommen extreme Umweltbedingungen wie Strahlung, Vakuum und Temperaturzyklen, die speziell gehärtete Komponenten erforderlich machen und die Kosten weiter erhöhen. Welchen Herausforderungen sich die Elektronik stellen müsste, hat auch unser Weltraum-Fan Hendrik Härter bereits erklärt, als Jeff Bezos seine Vision von KI-Rechenzentren im All auf der Italien Tech Week 2025 geäußert hat.

Erst der Aufbau, dann die Wartung

Ein weiterer zentraler Punkt ist die Wartung. Während Server in terrestrischen Rechenzentren kontinuierlich ausgetauscht werden können, würde jede Reparatur im Orbit komplexe Missionen oder hochentwickelte Robotik erfordern. Ohne Wartung würden Systeme schnell zu zusätzlichem Weltraumschrott beitragen; ein Problem, das bereits heute aufgrund der Gefährlichkeit kritisch diskutiert wird.

Gleichzeitig bleibt auch die Datenübertragung ein limitierender Faktor, da große Datenmengen zuverlässig zwischen Erde und Orbit übertragen werden müssten. Vor diesem Hintergrund wirkt die Idee, einen relevanten Anteil globaler Cloud-Kapazitäten ins All zu verlagern, derzeit weder wirtschaftlich noch praktisch sinnvoll. Selbst der oft genannte Vorteil der Kühlung relativiert sich bei genauer Betrachtung, weil Wärme im Vakuum ausschließlich über Strahlung abgeführt werden kann, was große Radiatorflächen und zusätzliche Masse erfordert.

Hinzu kommt ein Aspekt, der in visionären Diskussionen häufig untergeht: Platzprobleme lassen sich durch orbitales Computing nicht wirklich lösen. Rechenzentren benötigen enorme Infrastruktur – Energieumwandlung, Kommunikationssysteme, Strukturmodule –, die ebenfalls Raum und Ressourcen beansprucht. Der physische Standort verschiebt sich lediglich von der Erdoberfläche in den Orbit, ohne dass die grundlegenden Skalierungsfragen verschwinden.

Warum nach oben sehen … und nicht nach unten?

Deutlich näher an der praktischen Umsetzung liegt dagegen ein Konzept, das ebenfalls ungewöhnlich erscheint, aber physikalisch wesentlich günstiger ist: Rechenzentren im Meer. Unterwasser-Datacenter nutzen die hohe Wärmekapazität und die stabilen Temperaturen des Meerwassers zur Kühlung, wodurch einer der größten Energieverbraucher klassischer Rechenzentren deutlich reduziert werden kann. Gleichzeitig befinden sich viele große Ballungsräume in Küstennähe, sodass Latenzzeiten gering bleiben und bestehende Glasfaserinfrastruktur genutzt werden kann.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

855 Server fanden in den Racks von Project Natick Platz. Ausgefallen davon sind während der 25 Monate Laufzeit sechs Stück - eine Ausfallquote von 0,7 Prozent. Die Ausfallquote der Kontrollgruppe (135 Server) an Land betrug knappe 6 Prozent(Bild:  Microsoft)
855 Server fanden in den Racks von Project Natick Platz. Ausgefallen davon sind während der 25 Monate Laufzeit sechs Stück - eine Ausfallquote von 0,7 Prozent. Die Ausfallquote der Kontrollgruppe (135 Server) an Land betrug knappe 6 Prozent
(Bild: Microsoft)

Dass dieser Ansatz nicht nur theoretisch ist, zeigen bereits durchgeführte Projekte. Microsoft testete mit „Project Natick“ über mehrere Jahre ein versiegeltes Rechenzentrumsmodul auf dem Meeresboden vor der schottischen Küste. Die Ergebnisse deuteten unter anderem auf eine höhere Hardware-Zuverlässigkeit hin, was auf die stabile Umgebung und die geschlossene Bauweise zurückgeführt wurde. Auch in China wurden Unterwasser-Rechenzentren erprobt beziehungsweise angekündigt, unter anderem in Verbindung mit Offshore-Energieprojekten. Solche Konzepte ermöglichen eine direkte Kopplung an erneuerbare Energiequellen wie Offshore-Windkraft, was zusätzliche Effizienzpotenziale eröffnet.

Die andere Seite der Medaille

Natürlich sind auch Unterwasser-Rechenzentren nicht frei von Herausforderungen. Wartungseingriffe sind nachvollziehbarerweise aufwendiger als an Land. Die Materialbeständigkeit im Salzwasser muss langfristig gewährleistet werden. Gleichzeitig müssen ökologische Auswirkungen bewertet werden. Allerdings relativieren sich diese Nachteile im Vergleich zum Orbit erheblich. Wenn Wartung im All in vielen Visionen als lösbares Problem betrachtet wird, dann gilt dies erst recht für Systeme, die sich wenige hundert Meter unter der Meeresoberfläche befinden und mit vorhandener Offshore-Technik erreicht werden können.

Vielleicht liegt die Zukunft der Rechenzentren nicht über unseren Köpfen, sondern unter der Wasseroberfläche. Während Rechenzentren im All derzeit vor allem ein langfristiges Visionsthema mit speziellen Nischenanwendungen bleiben, könnten Unterwasser-Datacenter deutlich früher eine realistische Ergänzung bestehender Infrastruktur werden. Sie adressieren konkrete Probleme wie Kühlung, Energieeffizienz und Flächenverfügbarkeit, ohne die fundamentalen physikalischen und wirtschaftlichen Hürden der Raumfahrt überwinden zu müssen. 

Ob wir am Ende des Tages den Rechencenter-Boom eigentlich benötigen werden, in den nächsten 5, 10, 15, 50 Jahren, oder ob sich bis dahin Wege finden lassen, den Energie- und Platzhunger von KI deutlich zu reduzieren, das steht freilich auf einem anderen Blatt. (sb)

(ID:50771124)