KI-Datacenter Blick in Herz von Elon Musks Tesla-KI-Supercomputer Cortex

Von Susanne Braun 3 min Lesedauer

Anbieter zum Thema

Cortex ist einer von mehreren KI-Trainings-Clustern, die Tesla-Gründer Elon Musk von seinen Unternehmen einrichten lässt. Auf X teilte Musk ein Video aus dem Inneren des Cortex-Clusters im Tesla-Hauptquartier, in dem in der ersten Stufe 50.000 Nvidia-GPUs verbaut werden.

Im Juni 2024 behauptete Musk, dass Optimus im Jahr 2025 in begrenztem Umfang in Produktion gehen würde, mit Plänen für mehr als 1.000 Stück, die in Tesla-Einrichtungen verwendet werden sollen, und der Möglichkeit der Produktion für andere Unternehmen im Jahr 2026. Optimus wird vom Tesla-Supercomputer trainiert.(Bild:  Tesla)
Im Juni 2024 behauptete Musk, dass Optimus im Jahr 2025 in begrenztem Umfang in Produktion gehen würde, mit Plänen für mehr als 1.000 Stück, die in Tesla-Einrichtungen verwendet werden sollen, und der Möglichkeit der Produktion für andere Unternehmen im Jahr 2026. Optimus wird vom Tesla-Supercomputer trainiert.
(Bild: Tesla)

Künstliche Intelligenz als Treiber der vierten industriellen Revolution soll bereits heute und vor allem in Zukunft ganz wundervolle Dinge vollbringen; zumindest wenn man den Reden Glauben schenken will, die die Unternehmer schwingen, die sehr viel Geld und Zeit in KI investiert haben. Künstliche Intelligenz lässt sich allerdings schwierig veranschaulichen. Ein paar Bildschirme, auf denen Algorithmen ausgeführt werden oder ein uncanny wirkendes Bild aus einem Bildgenerator, der nicht so high end ist, war es das etwa schon?

Auch die vermeintlichen Kosten des Trainings und des Betriebs von KI werden in der Berichterstattung selten ins Rampenlicht gerückt. Die Vorstellung, dass ein KI-Superchip zwischen 30.000 und 70.000 US-Dollar kosten soll, ist bereits schwierig, aber für Branchenkenner angesichts der verbauten Technologie noch nachvollziehbar. Da fällt die Vorstellung davon, dass mehrere Zehntausend KI-Beschleuniger gleichzeitig in Server-Racks betrieben werden, gar nicht so schwer, oder? Oder doch? Das müssen Sie sich jetzt nicht mehr vorstellen, denn Elon Musk hat dem Tesla-KI-Trainings-Cluster Cortex einen Besuch abgestattet und ein Video davon auf seiner sozialen Plattform X (vormals Twitter) geteilt.

Bildergalerie

Cortex-Supercluster in Austin

Cortex wird von Musk als AI-Trainings-Supercluster bezeichnet und derzeit auf dem Gelände des Tesla-Hauptsitzes in Austin, Texas, eingerichtet, um „Real-World AI“ umzusetzen. Cortex wird am Full Self Driving (FSD) Autopilot-System für Tesla und am System für den autonomen, humanoiden Optimus-Roboter arbeiten. Letzterer soll in der Tesla-Fertigung eingesetzt werden. Im fertiggestellten Zustand wird Cortex 70.000 GPUs miteinander verknüpfen. Für die erste Stufe werden vorerst 50.000 H100 von Nvidia verbaut, später sollen 20.000 weitere von Tesla selbst entwickelte Chips hinzukommen.

Zur Erinnerung: H100 ist eine speziell für KI und Hochleistungscomputing entwickelte GPU. Der Chip besteht aus 80 Milliarden Transistoren und unterstützt bis zu 700 GB/s Speicherbandbreite durch HBM3-Speicher. Über das von Nvidia entwickelte NVLink wird die Verbindung zu mehreren anderen GPUs ermöglicht.

Wie laut ist ein Supercomputer?

Zurück zu Cortex. Das Video von Musk vom 26. August 2024 zeigt einen Zwischenstand der Arbeiten. Basierend auf dem Video schätzen und rechnen die Autoren von Tom's Hardware Folgendes: „Die Racks scheinen in einer Anordnung von 16 pro Reihe angeordnet zu sein, wobei etwa vier Nicht-GPU-Racks die Reihen unterteilen. Jedes Computer-Rack fasst acht Server. In dem 20-Sekunden-Clip sind zwischen 16 und 20 Reihen von Server-Racks zu sehen. Grob geschätzt sind also 2.000 GPU-Server zu sehen, also weniger als drei Prozent der geschätzten Gesamtzahl.“ Allein die verursachen schon ziemlich viel Lärm.

Und die Server, um einen Bogen zu den meist nicht bedachten Kosten von KI zu schlagen, verbrauchen im gekühlten Betrieb eine Menge Energie. Mit dem Abschluss der ersten Stufe von Cortex soll der Cluster einen Strombedarf von 130 Megawatt haben. Damit kann man für zwei bis drei Stunden auch den Strombedarf einer Kleinstadt stillen. Wenn Cortex alle 70.000 KI-Server im Betrieb hat, wird angenommen, dass der Energiebedarf auf 500 Megawatt steigt.

Auf einem Bein steht sich schlecht ...

Immerhin nutzt Tesla für Cortex die Flüssigkeitskühlungstechnologie von Supermicro. Das Unternehmen behauptet, dass die direkte Flüssigkeitskühlung im Vergleich zur Luftkühlung eine Senkung der Stromkosten für die Kühlinfrastruktur um bis zu 89 Prozent ermöglichen kann. Der CEO von Supermicro, Charles Liang, stellte dafür im Juli 2024 einen etwas irritierenden Vergleich auf. So könnten 20 Milliarden Bäume gerettet werden, wenn sich in großen Datacenters die Flüssigkeitskühlung durchsetzen würde. Anzunehmen ist, dass er damit alle Riesen-Datacenters meint.

Apropos andere KI-Trainings-Cluster: Cortex als Teil des Tesla Gigafactory Supercomputer Clusters ist, wie erwähnt, nicht der einzige Supercomputer, an dem in Musks Unternehmungen geschraubt wird. Der x.AI-Supercomputer ist noch etwas bekannter – und etwas größer. 100.000 H100-GPUs von Nvidia sollen im Supercomputer von x.AI die GrokAI für X-Premiumnutzer trainieren. Der x.AI-KI-Trainings-Cluster soll im kommenden Jahr (2025) auch noch um 300.000 B200-GPUs erweitert werden. (sb)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50145179)