High Bandwidth Memory Hochgestapelt: SK hynix produziert 36-GB-HBM3E

Von Susanne Braun 2 min Lesedauer

Anbieter zum Thema

High Bandwidth Memory bietet eine hohe Speicherbandbreite bei gleichzeitig geringem Energieverbrauch und kompakter Bauweise, was vor allem in Hochleistungs-Grafikkarten, Prozessoren und Supercomputern gefragt ist. SK hynix stapelt nun in der Massenfertigung zwölf Lagen DRAM-Chips für 36GB-HBM3E.

SK hynix beginnt als erster Hersteller von HBM-Produkten mit der Herstellung von 36-GB-HBM3E.(Bild:  SK hynix)
SK hynix beginnt als erster Hersteller von HBM-Produkten mit der Herstellung von 36-GB-HBM3E.
(Bild: SK hynix)

Supercomputer und künstliche Intelligenz müssen vor allem eines sein: extrem schnell. Damit das in Zukunft auch so bleibt oder bisherige Geschwindigkeitsrekorde noch gebrochen werden können, benötigen die Anwendungen eine große Menge an Speicherkapazitäten. Hohe Speichermengen und Bandbreiten sind entscheidend für Anwendungen wie KI-Training, Datenanalyse und Grafikberechnungen. Wenig verwunderlich ist es da, dass der Hochleistungs-Speicherstandard High Bandwidth Memory (HBM) stetig weiterentwickelt wird.

Die nächste Generation steht bereits in den Startlöchern. Eines der führenden Unternehmen auf dem Gebiet, SK hynix, rechnet im Jahr 2026 mit der Massenproduktion von HBM4, in Kooperation mit Auftragsfertiger TSMC. Bis dahin soll noch aus HBM3E das letzte Potenzial gequetscht werden. Und das leistet SK hynix mit der nun begonnenen Massenproduktion von 12-fach gestapelten DRAM-Chips.

Speicherhunger von KI bedienen

Vornehmlich richtet sich das neue Produkt, mit dem die Kunden noch in diesem Jahr beliefert werden sollen, an KI-Unternehmen. SK hynix ist mit dem 36-GB-HBM3E der erste der drei großen Hersteller (SK hynix, Samsung und Micron), der zwölf DRAM-Chips für die HBM-Technologie in der Massenproduktion stapelt. Um das zu erreichen, wurden die verwendeten DRAM-Chips um 40 Prozent dünner als beim 24GB-HBM3E produziert. Für die Produktion von HBM wird ein Core-DRAM-Die auf einen Base-Die mit TSV-Technologie (Through Silicon Via) gestapelt und eine festgelegte Anzahl von Schichten im DRAM-Stapel mit dem Core-Die durch TSV vertikal zu einem HBM-Gehäuse verbunden. Der Base-Die im unteren Bereich ist mit der GPU verbunden, die den HBM steuert.

Die Geschwindigkeit von Speicheroperationen wurde mit dem neuen Produkt auf 9,6 Gbit/s erhöht, wie das Unternehmen mitteilt. „Wenn 'Llama 3 70B', ein Large Language Model (LLM), von einem einzelnen, mit vier HBM3E-Produkten ausgestatteten Grafikprozessor angesteuert wird, kann er 70 Milliarden Gesamtparameter 35 Mal innerhalb einer Sekunde lesen“, heißt es. „Das Unternehmen hat auch strukturelle Probleme gelöst, die sich aus der höheren Stapelung dünnerer Chips ergeben, indem es seine Kerntechnologie, den Advanced MR-MUF5-Prozess, anwendet. Dies ermöglicht eine um 10 Prozent höhere Wärmeableitungsleistung im Vergleich zur vorherigen Generation und sichert die Stabilität und Zuverlässigkeit des Produkts durch verbesserte Verzugskontrolle“, teilt SK hynix mit(sb)

(ID:50187070)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung