Hochleistungs-Speicherchips Samsung entwickelt für Nvidia ein neues HBM-Design

Von Susanne Braun 2 min Lesedauer

Anbieter zum Thema

High Bandwidth Memory (HBM) wird hauptsächlich in rechenintensiven Anwendungen wie KI und in Grafikprozessoren für Rendering, Gaming und virtuelle Realität eingesetzt. Nvidia verwendet vornehmlich HBM-Produkte von SK hynix, denn Mitbewerber Samsung muss für eine Freigabe noch am HBM-Design arbeiten, wie Jensen Huang durchblicken lässt.

Jensen Huang ist Mitbegründer und CEO von Nvidia.(Bild:  Nvidia)
Jensen Huang ist Mitbegründer und CEO von Nvidia.
(Bild: Nvidia)

In Las Vegas findet bis zum 10. Januar 2025 die Techmesse CES statt, die alljährlich mit spannenden technologischen Ankündigungen für den Konsumentenmarkt glänzt. Ganz vorn mit dabei ist das Unternehmen Nvidia, das nicht nur den Markt für KI-Chips beherrscht, sondern auch einer der größten Anbieter für Grafikkarten ist. Entsprechend ist es nicht verwunderlich, dass der Konzern auf der Messe unter anderem die Grafikkarten-Serie RTX 50 basierend auf Blackwell-Architektur vorgestellt hat.

Nvidias CEO Jensen Huang hat obendrein in einer Presse-Fragerunde einige interessante Antworten gegeben. So ließ Huang durchblicken, dass man im Bereich der verbauten Speicherchips weitestgehend auf High Bandwidth Memory (HBM) von SK hynix setze, weil Samsung für den Nvidia-internen Freigabeprozess das eigene HBM-Design ändern müsse.

„[Samsung Electronics] muss ein neues Design entwickeln, aber sie können es, und sie arbeiten zügig“, sagte Huang gegenüber Reportern, wie Korea JoongAng Daily berichtet. „Korea ist sehr ungeduldig, und das ist gut so. Samsung hat das erste HBM entwickelt, das Nvidia jemals verwendet hat. Sie werden sich erholen“, fügt Huang optimistisch hinzu. 8- und 12-lagige HBM3e-Chips befinden sich seit bald einem Jahr im Freigabeprozess von Nvidia.

SK hynix sitzt fest im Nvidia-Sattel

SK hynix hat Samsung in den vergangenen Jahren mit Blick auf HBM den Rang abgelaufen. Die 8- und 12-lagigen Produkte von SK hynix werden derzeit bei Nvidia primär verbaut, und die Verantwortlichen von SK nutzten die CES, das 16-lagige HBM3E vorzustellen, das über 48 GByte Speicher verfügt. Im Hinterkopf sollte man auch behalten, dass SK die Produktionsplanung für HBM4 auf Wunsch von Nvidia ins Jahr 2025 vorverlegt hat.

Branchen-Insider sind überzeugt, dass Samsung aufpassen muss, nicht noch weiter ins Hintertreffen zu geraten. Spannend ist aber in anderen Bereichen, dass die Verantwortlichen von SK hynix und Samsung eine Kooperation anstreben, zum Beispiel bei einer Standardisierung ihrer Processing-in-Memory-Technologien.

Micron als Gewinner?

Überrascht war die Presse auch davon, dass Nvidia sich für die RTX-50-Serie für GDDR7-Chips von Micron entschlossen hat, statt für Produkte von SK hynix oder Samsung. Auf Nachfrage antwortete Huang wenig offen, dass er nicht wisse, warum die Entscheidung so getroffen wurde. „Ich weiß nicht genau, warum. Es ist wahrscheinlich nichts Wichtiges“, wird Huang zitiert. In der Branche wird allerdings angenommen, dass Nvidia mit Blick auf Chips auf die Stärkung von US-Allianzen aus ist, um für die zweite Trump-Regierungszeit in einem guten Licht dazustehen. (sb)

(ID:50277917)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung