KI-Chips KI-Schlagabtausch auf der Computex: AMD vs. Nvidia – und etwas Intel

Von Susanne Braun 4 min Lesedauer

Anbieter zum Thema

Am 3. Juni 2024 lieferten die Verantwortlichen von AMD und Nvidia mit ihren Keynotes die Besucher der Computex natürlich KI-Neuigkeiten. AMD stellt die neueste Generation KI-Chips vor und beschleunigt den eigenen Zeitplan; Nvidia hat bereits den Blackwell- und Grace-Nachfolger auf dem Schirm. Und Intel will auch noch mitmischen.

Über 6.500 Interessierte wollten wissen, was Nvidias CEO Jensen Huang zur Computex 2024 zu sagen hatte.(Bild:  Nvidia)
Über 6.500 Interessierte wollten wissen, was Nvidias CEO Jensen Huang zur Computex 2024 zu sagen hatte.
(Bild: Nvidia)

Die Computex in Taipeh ist nach der CES mit die gewichtigste Computermesse der Welt und auch in Taiwan ist das Thema Nummer Eins KI. Das ist wenig verwunderlich, entpuppt sich die Erschließung und Versorgung von Datenzentren mit Hochleistungs-KI-Chips als wahre Goldgrube unserer Zeit, wie jüngst KI-Platzhirsch Nvidia mit den Geschäftszahlen für Q1 des Fiskaljahres 2025 untermauert hat.

Entsprechend traten die großen Hersteller im Feld der Chips für künstliche Intelligenz im Rahmen der Computex ins Rampenlicht und unterbreiteten den Zuhörern ihre mittelfristigen Pläne. Und die sind ambitioniert.

Nvidia stellt Grace- und Blackwell-Nachfolger vor

Erst im März 2024 hatte Nvidia CEO Jensen Huang die GPU Blackwell vorgestellt, die sich aktuell in der Produktion befindet. Und nun setzte er im Rahmen der Nvidia-Keynote zur Computex mit dem Blackwell-Nachfolger, der 2026 in die Massenfertigung gehen soll, sowie einem Ausblick auf die 3-Jahres-Roadmap für Nvidia noch einiges obendrauf.

2025 kommt die Blackwell-Ultra-GPU, eine nochmals verbesserte Version von Blackwell, mit zwölf Stacks HBM3e für rund 50 Prozent mehr Speicherkapazität. 2026 bringt Nvidia die Rubin-GPU als direkten Nachfolger, 2027 steht dann die Rubin-Ultra-GPU auf dem Menü. Sprich: Jedes Jahr soll eine neue Version an KI-Technologie verfügbar sein; jede von ihr noch schneller und noch energieeffizienter als die vorherige.

Feststehen mag zwar vielleicht der Name der Rubin-Plattform, Details zu den Specs hat Huang allerdings bisher nicht wirklich verraten. Der Grafikprozessor wird, so viel weiß man immerhin schon, mit acht Stacks HBM4 bestückt sein; für die Ultra-Variante sollen dann zwölf Stacks HBM4 zum Einsatz kommen. HBM4 wird ebenfalls für die Vera-CPU genutzt, die die Nachfolge von Grace antritt. Das künftige Superchip-Gespann von Nvidia trägt dann also den Namen Vera Rubin und löst Grace Hopper damit ab. Zudem will Nvidia im selben Jahr den Durchsatz des NVLink-Switch auf 3,6 TB/s verdoppeln (NVLink 6 vs. NVLink 5).

Vergleich von Blackwell, Blackwell Ultra und Rubin

Eigenschaft Blackwell Blackwell Ultra Rubin
Erscheinungsdatum 2024 2025 Voraussichtlich 2026
Speichertyp HBM3e HBM3e (12 Stacks) HBM4 (voraussichtlich 8 Stacks)
Speicherkapazität 192 GB 244 GB -
Speicherbandbreite 8 TB/s 12 TB/s -
Reticle-Design 3.3x 4x -
Nachfolger Blackwell Ultra Rubin Voraussichtlich Rubin Ultra

AMD kontert mit MI325X als Hopper-Konkurrent

Auch Dr. Lisa Su, CEO von AMD, ließ es sich nicht nehmen, zur Computex mit einer eigenen Keynote aufzuwarten. Sie stellte im Rahmen dessen die verbesserte Version des KI-Beschleunigers MI300X vor – nämlich MI325X. Die neue Variante wird mit HBM3e bestückt und bietet daher mehr Speicherkapazität (maximal 288 GByte) und eine etwas erhöhte Speichertransferrate (von 5,3 auf 6 TByte pro Sekunde).

Der Vergleich zum aktuellen Hopper-Chip von Nvidia liegt nahe: Die Ursprungsversion H100 verwendet noch HBM3, die Version H200 gibt es nur mit 141 GByte HBM3e-Speicher. MI325X soll im 4. Quartal 2024 verfügbar werden, also etwa dann, wenn Blackwell ebenfalls auf den Markt kommt. Blackwell wurde mit 192 GByte HBM3e mit 8 TByte pro Sekunde angekündigt.

Vergleich von MI300X und MI325X

Eigenschaft MI300X MI325X
Erscheinungsdatum 2023 2024
Speichertyp HBM3 HBM3e
Speicherkapazität 192 GB 288 GB
Speicherbandbreite 5,3 TB/s 6 TB/s
Reticle-Design 2.7x 3.3x
Preis $49.999 $59.999
Besonderheiten - Höhere Speicherkapazität und -bandbreite, verbesserte Energieeffizienz

Um sich dem sich schnell entwickelnden KI-Markt anzupassen, möchte AMD nun ebenfalls wie Nvidia auf einen jährlichen Produktzyklus der Instinct-Serie setzen. 2025 geht es mit MI350 auf Basis der CDNA4-Architektur los, die die KI-Datentypen FP4 und FP6 unterstützt und ebenfalls 288 Gbyte HBM3e-Speicher nutzt. Genutzt wird obendrein 3-nm-Prozesstechnik, die möglicherweise von TSMC kommen wird. Zumindest wurde vonseiten AMDs die Zufriedenheit mit dem Auftragsfertiger betont. 2026 soll die MI400-Reihe mit einer neuen CDNA-Architektur geplant sein.

Und Intel?

Während Nvidia einen großen Teil des KI-Marktes beherrscht und AMD versucht, den eigenen Anteil zu vergrößern, steht noch zur Debatte, was Intel mit Blick auf künstliche Intelligenz macht. CEO Pat Gelsinger sprach im Rahmen seiner Keynote vordergründig über eines: das Geld. Intel will mit den Gaudi-2- und Gaudi-3-KI-Beschleuniger-Kits maßgeblich im Geldbeutel punkten und hebt hervor, dass die Kosten für die Kombination aus Xeon-, Ultra-Core- und Gaudi-Plattform bis zu zwei Drittel geringer als die vergleichbaren Wettbewerbsangebote sind.

Das Preisschild für ein Standard-Rack mit acht Gaudi-2-Beschleunigern mit einem Universal Baseboard zeigt 65.000 US-Dollar; ein Standard-Rack mit acht Gaudi-3-Beschleunigern mit UBB schlägt mit 125.000 US-Dollar zu Buche.

Auch bei den Xeon-6-Prozessoren hebt Intel das Sparpotenzial hervor. „Mit der Beschleunigung des digitalen Wandels sehen sich Unternehmen einem wachsenden Druck ausgesetzt, ihre veralteten Rechenzentrumssysteme zu erneuern, um Kosteneinsparungen zu erzielen, Nachhaltigkeitsziele zu erreichen, den physischen Platz in den Racks zu maximieren und brandneue digitale Fähigkeiten im gesamten Unternehmen zu schaffen. Die gesamte Xeon-6-Plattform und Prozessorfamilie wurde speziell für diese Herausforderungen entwickelt und umfasst sowohl E-Core- (Effizienz) als auch P-Core- (Performance) SKUs, um eine breite Palette von Anwendungsfällen und Arbeitslasten zu bewältigen, von KI und anderen Hochleistungs-Rechenanforderungen bis zu skalierbaren Cloud-nativen Anwendungen. Sowohl E-Cores als auch P-Cores basieren auf einer kompatiblen Architektur mit einem gemeinsamen Software-Stack und einem offenen Ökosystem von Hardware- und Softwareanbietern“, heißt es.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Mit der Xeon-6-Reihe will Intel nicht nur im Hinblick auf Performance, sondern auch Energieeffizienz und Platzbedarf punkten. Die Effizienz-Xeon-6-Prozessoren mit Codenamen Sierra Forest sind ab sofort erhältlich und die Performance-Xeon-6-Prozessoren mit Codenamen Granite Rapids sollen im kommenden Quartal verfügbar werden, also Q3 2024. (sb)

(ID:50052354)