Vom Cloud-Anbieter zum Plattformbauer AWS greift Nvidia an mit eigenen KI-Chips und Racks fürs Datacenter

Von Manuel Christa 3 min Lesedauer

Anbieter zum Thema

Neue Hardware, eigene Modelle, Racks fürs Kundendatacenter und ein Agenten-Stack sollen Entwicklung und Betrieb von KI-Systemen enger an AWS binden. Für Entwickler in Industrie und Embedded-Umfeld steckt da einiges drin, aber auch neue Abhängigkeiten.

Trainium 3: Mit dem eigenen KI-Beschleuniger im 3-nm-Prozess will AWS unabhängiger von Nvidia werden und Trainings-Workloads effizienter skalieren.(Bild:  Amazon)
Trainium 3: Mit dem eigenen KI-Beschleuniger im 3-nm-Prozess will AWS unabhängiger von Nvidia werden und Trainings-Workloads effizienter skalieren.
(Bild: Amazon)

AWS nutzt die Hausmesse re:Invent 2025, um sich nicht mehr nur als Cloud-Anbieter, sondern als vollständiger KI-Infrastruktur-Lieferant zu positionieren. Mit Trainium3 etwa zeigt AWS die dritte Generation seiner KI-Beschleuniger. Die Chips entstehen im 3-nm-Prozess bei TSMC und stecken in den neuen Trn3 UltraServern, in denen bis zu 144 Trainium3-Chips zusammengeschaltet sind. Laut AWS liefern diese Systeme mehr als die vierfache Leistung gegenüber der vorherigen Trainium2-Generation und senken gleichzeitig den Energieverbrauch um rund 40 Prozent. Das System zielt auf Trainings- und Inferenz-Workloads für große Sprachmodelle, Mixture-of-Experts-Architekturen und langes Kontext-Handling.

Strategisch wichtiger Punkt für die Halbleiterwelt: AWS versucht, sich aus der reinen Abhängigkeit von Nvidia-GPUs zu lösen. Trainium3 steht als dedizierter Beschleuniger in direkter Konkurrenz zu TPUs von Google und zu GPU-Clustern auf Basis von H100- oder Blackwell-Karten. Gleichzeitig bleibt AWS ein großer Nvidia-Kunde, nutzt die eigenen Chips aber als Preis-Leistungs-Hebel.

Parallel dazu bringt AWS mit Graviton5 die fünfte Generation seiner Arm-Server-CPUs. Der Chip bietet bis zu 192 Kerne, eine etwa fünfmal größere L3-Cache-Kapazität und soll in EC2-M9g-Instanzen bis zu 25 Prozent mehr Rechenleistung gegenüber Graviton4 liefern. Für Workloads wie EDA, Simulation, Datenbanken oder Big-Data-Analysen kann das für Elektronikentwickler relevant werden, weil sich Compile-Zeiten und Simulationsläufe auf Graviton-Instanzen günstiger und schneller fahren lassen.

Nova 2: AWS zieht im LLM-Rennen nach

Im Modell-Stack versucht AWS, mit der Nova-2-Familie Anschluss an OpenAI, Google und Anthropic zu halten. Nova 2 Lite, Pro, Sonic und Omni decken unterschiedliche Anwendungsfälle ab: Lite adressiert kostensensitive Standard-Workloads, Pro zielt auf aufwendiges Reasoning und dient als „Teacher“-Modell für kleinere Varianten, Sonic übernimmt Echtzeit-Sprachinteraktion und Omni bündelt Text-, Bild-, Video- und Audioverarbeitung in einem Modell. Alle Modelle laufen über Amazon Bedrock und lassen sich dort mit eigenen Daten anreichern oder über Nova Forge tiefergehend anpassen.

Bedrock positioniert sich damit als Gegenangebot zu Azure OpenAI Services oder Vertex AI. Für Embedded- und Elektronikunternehmen bedeutet das: Sie können KI-Funktionen – etwa für Service-Assistenz, Code-Generierung, Dokumentenanalyse oder Edge-Geräteverwaltung – auf AWS-Modellfamilien aufsetzen, ohne eigene Foundation-Modelle trainieren zu müssen.

AI Factories: Cloud-Stack im eigenen Rechenzentrum

Stichwort Datensouveränität: Mit den neuen AI Factoriesbietet AWS dedizierte KI-Infrastruktur direkt im Rechenzentrum des Kunden an. Unternehmen stellen Fläche, Strom und Netzwerk bereit, AWS liefert und betreibt komplette Racks mit Trainium3-UltraServern und Nvidia-GPUs, inklusive Netzwerkinfrastruktur, Storage und Services wie Bedrock und SageMaker.

Aus Sicht regulierter Industrien, und damit auch vieler Elektronik- und Automatisierungskunden, ist das relevant: Sensible Produktions-, Entwicklungs- oder Gerätedaten verlassen nicht das eigene Rechenzentrum, trotzdem steht ein skalierbarer KI-Stack bereit. AWS positioniert AI Factories damit als souveräne Mini-Region, die sich besonders für Industrieländer mit strikten Vorgaben zu Datenhaltung und kritischen Infrastrukturen anbietet.

Frontier Agents: Autonome KI-„Mitarbeiter“

Der vierte Schwerpunkt heißt „Frontier Agents“. AWS beschreibt damit eine neue Klasse autonomer KI-Agenten, die nicht nur einzelne Prompts beantworten, sondern Projekte über Stunden oder Tage hinweg durchführen sollen. In der ersten Welle stellt AWS drei vor: den Kiro Autonomous Agent als virtuellen Entwickler, einen Security Agent und einen DevOps Agent. Sie bauen auf Bedrock AgentCore auf, das Speicherfunktionen, Richtlinien (Policies) und automatische Qualitätstests für Agenten bereitstellt.

Parallel dazu startet AWS Nova Act als Dienst, der speziell Browser- und UI-Automatisierung übernimmt. Entwickler definieren Workflows, Nova Act steuert Anwendungen im Browser, ruft APIs auf und eskaliert bei Bedarf an Menschen. Laut AWS erreichen diese Agenten in frühen Workloads eine Erfolgsquote von rund 90 Prozent. Für Industrie- und Elektronikumfelder ist das überall dort spannend, wo heute noch manuelle Arbeit an Webportalen, PLM-Systemen, Cloud-Konsolen oder Support-Tools stattfindet. (mc)

(ID:50653133)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung