Datacenter unter Wasser Microsoft versenkt die Idee von zuverlässigen Unterwasser-Rechenzentren

Von Susanne Braun 4 min Lesedauer

Anbieter zum Thema

Project Natick von Microsoft lief bis 2020 und beinhaltete die Versenkung eines Containers mit 855 Servern vor der Küste von Schottland. Man wollte herausfinden, ob die Hardware unter Wasser von der Umgebungsstabilität profitiert. Nach Abschluss stellte sich heraus, dass Unterwasser-Rechenzentren Vorteile bieten. Microsoft verfolgt den Ansatz dennoch nicht weiter. Aber es gibt andere Interessenten.

Project Natick von Microsoft - vor seiner Versenkung vor den schottischen Orkneyinseln und nach seiner Hebung. Der Container war nach zwei Jahren weniger dreckig, als die Projektverantwortlichen erwartet hatten. Der Container und sein Inhalt wurden nach Angaben Microsofts recycelt und der Meeresboden wieder in seinen ursprünglichen Zustand versetzt.(Bild:  Microsoft)
Project Natick von Microsoft - vor seiner Versenkung vor den schottischen Orkneyinseln und nach seiner Hebung. Der Container war nach zwei Jahren weniger dreckig, als die Projektverantwortlichen erwartet hatten. Der Container und sein Inhalt wurden nach Angaben Microsofts recycelt und der Meeresboden wieder in seinen ursprünglichen Zustand versetzt.
(Bild: Microsoft)

Die Welt giert förmlich nach schnellen und zuverlässigen Rechenzentren, um die Herausforderungen unserer Zeit zu bewältigen. Dabei geht es um Datenspeicherung, aber auch um Datenverarbeitung. Am liebsten soll alles sofort und überall parat sein, nämlich in der Cloud. Und dann ist da ja noch das Thema AI. Künstliche Intelligenz ist extrem hungrig, nicht nur mit Blick auf die Rechenleistung, die für die Ausführung und insbesondere das Training von Large Language Models benötigt wird, sondern auch in Hinsicht auf die Umweltverträglichkeit.

Die leistungsfähigsten KI-Chips benötigen für den Betrieb nicht nur eine große Menge an Strom, sondern auch Wasser, denn mittlerweile wird in großen Rechenzentren auf Wasserkühlung gesetzt. Wer sein Datacenter im Herzen einer sehr trockenen Gegend hochzieht, kann also vor einem Problem stehen, wenn die Luftkühlung nicht ausreicht.

Bildergalerie
Bildergalerie mit 7 Bildern

Wenn Wasser für die Betriebsstabilität eines Rechenzentrums förderlich ist … warum dann nicht das komplette Rechenzentrum im Meer versenken und so vom relativ stabilen Ozeanklima profitieren? Der Beantwortung dieser Frage hat sich Microsoft seit dem Jahr 2013 gestellt, und der Konzern hat sogar Antworten erhalten, die bereits einige Jahre alt sind. Wie lauten diese Antworten?

Project Natick in Schottland

Um herauszufinden, ob Rechenzentren an Land oder zu Wasser mehr Zuverlässigkeit bieten, hat Microsoft im Jahr 2018 einen Container mit 855 Servern in etwa 35 Metern Tiefe bei den Orkneyinseln vor der schottischen Küste versenkt und 2020 wieder gehoben. Diese 855 Server waren innerhalb des Containers von inertem Stickstoffgas umgeben. Draußen sorgte das Meer für Temperaturstabilität. Von den 855 Servern sind innerhalb der 25 Monate und acht Tage ihres Betriebs sechs ausgefallen. Natürlich konnte sich niemand um die Ausfälle kümmern, denn sie befanden sich unter Wasser. Da kann kein Personal auf die Schnelle nach dem Rechten sehen.

Interessant ist der Vergleich der Ergebnisse des Unterwasser-Datacenters mit Servern, die in der gleichen Zeit an Land aufgebaut worden sind. 135 Server wurden in die Racks eines Land-Rechenzentrums gesteckt. Acht von ihnen sind in der Zeit ausgefallen, in der die andere Hardware am Meeresgrund lag. Die Unterwasserserver sind also wesentlich seltener ausgefallen als die Hardware an Land; die Unterwasserausfallrate liegt bei 0,7 Prozent, die Überwasserausfallrate bei fast 6 Prozent.

Das klingt an und für sich nicht schlecht, muss allerdings in Relation mit Aufwand und Kosten gesetzt werden, die anfallen, wenn man die Hardware versenken möchte. Im Zweifel werden Land-Rechenzentren wahrscheinlich noch ein Weilchen kosteneffizienter sein. Und Kosteneffizienz ist in vielen Fällen eben der entscheidende Faktor.

Die Theorie hinter Natick

Für die kleinen modularen Natick-Datacluster sah der Plan vor, dass die Hardware fünf Jahre unter Wasser bliebe, ohne dass sie gewartet werden würde. Nach fünf Jahren wären die Container herausgeholt und mit neuer Hardware bestückt worden. Die Lebenszeit der Natick-Container sah Microsoft bei zwanzig Jahren.

Nach der Hebung von Project Natick und den positiven Nachrichten einer größeren Zuverlässigkeit drehten sich die Gespräche um die Frage, wie die Unterwasser-Rechenzentren skaliert werden können, um die gesamte Palette der Microsoft Azure-Cloud-Dienste zu betreiben, wofür möglicherweise ein Dutzend oder mehr Schiffe miteinander verbunden werden müssten.

„Da wir uns vom allgemeinen Cloud-Computing zum Cloud- und Edge-Computing bewegen, sehen wir immer mehr Bedarf an kleineren Rechenzentren, die sich näher am Kunden befinden, anstatt dieser großen Lager-Rechenzentren mitten im Nirgendwo“, sagte Spencer Fowers, einer der technischen Mitarbeiter der Microsoft-Forschungsgruppe Special Projects noch im September 2020. Dieser Bedarf für kleine Rechenzentren nah am Kunden scheint aber doch nicht so groß zu sein, wie vormals angenommen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Kein Interesse von Microsoft

Mit einem Umschwenken des Fokus von kleinen Cloud-Datacenters auf große KI-Rechenzentren für das Training der Algorithmen und der Ausführung in der Cloud scheint sich Microsoft von den 2020 noch getätigten Thesen zu entfernen. Das ist nachvollziehbar. Künstliche Intelligenz benötigt sehr viel Rechenpower über eine entsprechende Menge an Beschleunigern. Nicht nur die schiere Menge an Beschleunigern, sondern auch deren Größe, deren Zuverlässigkeit und deren Erweiterbarkeit setzen in der Theorie eine stetige Arbeit an den Racks voraus. Und das ist unter Wasser nicht umzusetzen.

Nachdem die Natick-Plombe mit den Servern wieder aus dem Meer geholt worden war, wurden die Ergebnisse des Projekts analysiert und Lehren daraus gezogen. Diese finden wiederum in anderen Bereichen des Microsoft-Geschäfts Anwendung, wie Noelle Walsh, Head of Cloud Operations and Innovation bei Microsoft, im Interview mit Data Center Dynamics bestätigte. Ansonsten gibt es vonseiten Microsoft allerdings kein gesteigertes Interesse mehr daran, weiter in die Richtung von Unterwasser-Datacenters zu experimentieren. 

„Mein Team arbeitete daran und die Funktionalität war gegeben. Wir haben viel über den Betrieb unter dem Meeresspiegel, Vibrationen und die Auswirkungen auf den Server gelernt. Wir werden diese Erkenntnisse auf andere Bereiche anwenden“, wird Walsh von DCD zitiert. Warum das Thema jetzt übrigens wieder hochkommt? Walsh hatte jüngst im Interview nochmals betont, dass Microsoft nicht an Unterwasser-Rechenzentren arbeite.

Immerhin ist die Idee vom kommerziell betriebenen Unterwasser-Datacenter mit dem Erlöschen von Microsofts Interesse nicht beerdigt. Der Datacenter-Betreiber Highlander hat 2023 mehrere Servermodule in rund 35 Meter versenkt, und zwar in der Nähe der Insel Hainan. Man wolle mit dem Projekt, das noch erweitert werden soll, nicht nur Strom und Wasser, sondern auch Landmasse sparen. (sb)

(ID:50079584)