Speichermarkt HBM4 und DDR5: Was hinter den wilden Schlagzeilen steckt

Von Susanne Braun 4 min Lesedauer

Anbieter zum Thema

Rechenzentren benötigen nicht nur Unmengen an Wasser und Strom, sondern auch enorme Mengen an Speicher. Auf dem Markt gibt es Anfang 2026 gleich zwei interessante Trends: Preis-Explosionen bei DDR5 und längeres Warten auf HBM4. Warum?

Speichertechnologien: Ein Symbolbild.(Bild:  Dall-E / KI-generiert)
Speichertechnologien: Ein Symbolbild.
(Bild: Dall-E / KI-generiert)

Die Nachfrage nach Rechenzentren und der Hardware, diese entsprechend der (oftmals KI-)Bedürfnisse auszurüsten, ist anhaltend hoch und setzt Anfang 2026 offenbar insbesondere den Speichermarkt unter Druck. Zumindest haben es zwei interessante Nachrichten aus dem Bereich zum Jahresbeginn in die Headlines sämtlicher Tech-News geschafft. Wir beleuchten für Sie kurz, was da eigentlich vor sich geht.

Horrende Preise für DDR5

DRAM ist der Hauptarbeitsspeicher in Rechenzentren und wird für den laufenden Betrieb von Betriebssystemen, Anwendungen, virtuellen Maschinen und Datenbanken genutzt. Server eines Rechenzentrums werden mit enormen DRAM-Mengen ausgestattet, damit viele Anwendungen parallel laufen können und große Datenmengen schnell verfügbar sind. Im Unterschied zu Speziallösungen wie HBM ist DRAM nicht für maximale Geschwindigkeit, sondern für große Speichermengen zu vertretbaren Kosten ausgelegt. Er ist steckbar (DIMMs), austauschbar und bildet das Rückgrat moderner Cloud-, Enterprise- und KI-Server.

Kürzlich machten Headlines die Runde, dass DDR5 auf dem chinesischen Spot-Markt kostspielig geworden ist, und zwar so sehr, dass eine Kiste mit 100 hochkapazitiven DDR5-Modulen aktuell ungefähr so viel kostet wie eine Eigentumswohnung in Shanghai. Das berichten unter anderem die Redakteure von Tom's Hardware auf Basis eines Textes der South China Morning Post. Einzelne 256-GB-Server-Module sollen demnach mit Preisen von über 40.000 Yuan (~ 5.700 USD) gehandelt werden, manche Listings seien noch höher.

Bemerkenswert ist dabei, dass diese Preise offenbar nicht durch eine ebenso starke Nachfrage gedeckt sind. Händler des Huaqiangbei-Markts in Shenzhen berichten, dass viele Käufer angesichts der hohen Preisforderung derzeit lieber abwarten. Warum das so besonders ist, erklärt Luke James von Tom's Hardware: „Huaqiangbei spielt eine besondere Rolle im chinesischen Halbleiter-Ökosystem. Es liegt zwischen offiziellen Vertragskanälen und dem grauen oder Sekundärmarkt, wo sich die Preise aufgrund von Engpässen oder plötzlichen Veränderungen der Verfügbarkeit schnell ändern können. Das macht es zu einem nützlichen Frühindikator für Spannungen, aber auch zu einem Ort, an dem sich die Preise stark von der zugrunde liegenden Nachfrage abkoppeln können. In diesem Fall sagen Händler, dass die Angst, mit kostenintensiven Lagerbeständen dazustehen, die Aktivitäten einfriert.“

Was ist da also los? Die weltweite Speicherindustrie hat sich von einem Überangebot zu einer Verknappung gewandelt. DDR5-RAM ist derzeit so teuer, weil der Speichermarkt insgesamt angespannt ist. Die maßgeblichen Anbieter, insbesondere SK hynix und Samsung, verteilen ihre Kapazitäten auf Server und Speicher mit hoher Bandbreite für KI-Workloads um, weitestgehend HBM3e, entsprechend knapp sind Produktionskapazitäten für hochkapazitives Server-DDR5. Warum das so ist, erfahren Sie unter anderem in den Erklärungen zu den HBM4-Schlagzeilen.

Und die DDR5-Preisspitzen der Händler in nervösen Sekundärmärkten bieten Raum für ungewöhnliche Preisvergleiche, die derzeit die Runde machen, etwa „eine Kiste Speicher kostet so viel wie ein Haus in Shanghai“. Oder für Schlagzeilen, dass sich Hersteller wie Apple, Dell, Amazon und Google langfristig in Hotels rund um die Produktionsstätten von SK hynix und Samsung einmieten, um Langzeitverträge über Speicherlieferungen abzuschließen.

Design-Anpassung für HBM4

HBM (High Bandwidth Memory) ist ein schneller Spezial-Arbeitsspeicher, der in Rechenzentren direkt an GPUs und KI-Beschleuniger angebunden ist und dort vor allem für KI-Training, KI-Inferenz und Hochleistungsrechnen eingesetzt wird. Er liefert sehr hohe Datenraten bei geringer Latenz und hoher Energieeffizienz und verhindert so, dass leistungsfähige Rechenchips durch langsamen Speicher ausgebremst werden. Aufgrund seiner Integration im Chip-Package ist HBM teuer, kapazitätsbegrenzt und nicht austauschbar, für moderne KI-Rechenzentren aber unverzichtbar.

Die aktuelle Generation ist HBM3e, doch die bekannten Speicherhersteller SK hynix, Samsung und Micron, die einen Großteil des Marktes unter sich aufteilen, arbeiten seit geraumer Zeit an HBM4. Der größte Abnehmer dafür wäre Nvidia mit der Rubin-Plattform. Die HBM4-Spezifikationen für Rubin allerdings, so ergaben Recherchen der Experten von Trendforce, wurden im dritten Quartal 2025 von Nvidia aktualisiert. Die erforderliche Geschwindigkeit pro Pin des HBM4 wurde auf über 11 Gbit/s erhöht, und diese neue Anforderung hat dazu geführt, dass die drei großen HBM-Anbieter ihre Designs anpassen müssen. Deswegen rechnet man damit, dass die Massenproduktion von HBM4 erst Ende des ersten Quartals 2026 so richtig starten wird.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Trendforce stellt fest, dass „SK hynix, Samsung und Micron alle erneut HBM4-Muster eingereicht haben und ihre Designs als Reaktion auf die strengeren Anforderungen von Nvidia weiter verfeinern. Im Vergleich zu seinen Mitbewerbern hat Samsung durch die Einführung eines 1cnm-Prozesses für HBM4 und den Einsatz fortschrittlicher hauseigener Foundry-Technologie für den Basis-Chip frühzeitig die Führung übernommen.“

Der 1cnm-Prozess gehört zur sechsten Generation der 10-nm-Klasse und erreicht eine Linienbreite von etwa 11 bis 12 Nanometern, womit er feiner ist als der bisherige 1bnm-Prozess der fünften Generation mit rund 12 bis 13 Nanometern. Trendforce zufolge könnte Samsung bei der Kombination aus 1c-DRAM-Prozess und HBM4-Design einen technischen Lead bei der schnellen HBM4-Qualifikation haben – was sich als Wettbewerbsvorteil in bestimmten High-End-AI-Segmenten auswirken kann.

Es wird deswegen damit gerechnet, dass sich Samsung zuerst als Lieferant für HBM4 für die Rubin-Plattform qualifizieren wird. Derweil hat Nvidia angesichts der hohen Nachfrage die Lieferkette für die Blackwell-Plattform angepasst und benötigt aktuell insbesondere HBM3e. Zudem wurden unter bestimmten Bedingungen wieder Lieferungen von H200-Chips nach China ermöglicht; auch in diesen KI-Chips ist HBM3e verbaut. Das hat den Speicherproduzenten zusätzliche Zeit verschafft, um das Design der HBM4-Produkte an die neuen Anforderungen anzupassen. (sb)

(ID:50674787)