Musterserie für neue KI-Speichergeneration Micron liefert erste HBM4-Stacks an Schlüsselkunden aus

Von Sebastian Gerstl 1 min Lesedauer

Anbieter zum Thema

Micron hat mit der Auslieferung von 36-GByte-HBM4-Mustern begonnen. Die neue Speicherarchitektur soll mit hoher Bandbreite und Energieeffizienz kommende KI-Plattformen in Rechenzentren unterstützen.

Microns HBM4-Speicher richten sich, basierend auf dem hauseigenen 1ß (1-beta) DRAM-Prozess, der 12-High-Packaging-Technologie und einer MBIST-Funktion (Memory Built-in Self-Test), insbesondere an KI-Plattformen der nächsten Generation.(Bild:  Micron)
Microns HBM4-Speicher richten sich, basierend auf dem hauseigenen 1ß (1-beta) DRAM-Prozess, der 12-High-Packaging-Technologie und einer MBIST-Funktion (Memory Built-in Self-Test), insbesondere an KI-Plattformen der nächsten Generation.
(Bild: Micron)

Micron Technology hat mit der Auslieferung von HBM4-Mustern an ausgewählte Kunden begonnen. Die 36-GByte-Stacks in 12-High-Konfiguration basieren auf dem 1ß-DRAM-Prozess und sollen zentrale Komponenten kommender KI-Beschleunigerplattformen werden.

HBM4 (High Bandwidth Memory der vierten Generation) bietet eine Datenrate von über 2,0 TByte/s pro Stack – laut Micron mehr als 60 % höhere Leistung im Vergleich zum Vorgänger HBM3E. Die Interface-Breite von 2048 Bit unterstützt eine besonders schnelle Datenverarbeitung, wie sie bei inferenzbasierten KI-Workloads erforderlich ist.

Neben der gesteigerten Performance wurde auch die Energieeffizienz weiter verbessert. Micron nennt einen Effizienzgewinn von über 20 % gegenüber der HBM3E-Generation. Ziel ist es, bei maximalem Durchsatz den Energieverbrauch in Rechenzentren signifikant zu senken.

Die Module verfügen über integrierte MBIST-Funktionalität (Memory Built-in Self Test), was die Systemintegration erleichtert. Der Serienstart ist für 2026 geplant – abgestimmt auf die Roadmaps der KI-Plattform-Anbieter, bei denen der Speicher künftig eine Schlüsselrolle spielen wird.

Micron sieht sich mit HBM4 gut positioniert, um steigenden Anforderungen an Speicherbandbreite, Latenz und Energiebedarf im KI-Bereich gerecht zu werden. Die Architektur soll insbesondere bei generativen KI-Anwendungen und großen Sprachmodellen Vorteile bringen. (sg)

(ID:50449547)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung