Entwicklerkonferenz Nvidia GTC Silizium, Systeme, Software: Nvidia als One-Stop-Shop für Künstliche Intelligenz

Von Michael Eckstein

Anbieter zum Thema

Zum Auftakt der hauseigenen Entwicklerkonferenz GTC hat Nvidia-Gründer und CEO Jensen Huang ein Füllhorn an Neuigkeiten präsentiert – mit Fokus auf natürlichem Sprachverständnis, Metaverse, Gaming und Künstliche Intelligenz/Maschinelles Lernen. Für viele Entwickler dürften die vorgestellten Embedded-Lösungen und KI-Workflows in der Cloud interessant sein.

Zentraler Autocomputer: Nvidia Drive Thor integriert eine Next-Gen-GPU und eine Transformer-Engine und erreicht damit 2.000 Teraflops. Die Plattform zentralisiert alle intelligenten Fahrzeugfunktionen auf einem einzigen KI-Computer für sichere autonome Fahrzeuge.
Zentraler Autocomputer: Nvidia Drive Thor integriert eine Next-Gen-GPU und eine Transformer-Engine und erreicht damit 2.000 Teraflops. Die Plattform zentralisiert alle intelligenten Fahrzeugfunktionen auf einem einzigen KI-Computer für sichere autonome Fahrzeuge.
(Bild: Nvidia)

Neue Cloud-Services zur Unterstützung von KI-Workflows, die IGX Edge AI Computing Plattform für sichere, intelligente Systeme, die Embedded-Systeme Drive Thor und Jetson Orin Nano standen – neben einer neuen Generation von GeForce RTX-Grafikprozessoren – gestern im Mittelpunkt der GTC-Keynote von Nvidia-CEO Jensen Huang, die vollgepackt war mit neuen Systemen, Silizium und Software. „Das Computing entwickelt sich mit unglaublicher Geschwindigkeit, der Motor dieser Rakete ist beschleunigtes Computing, und der Treibstoff ist KI“, sagte Huang während einer virtuellen Präsentation zum Auftakt der Nvidia GTC.

Huang stellte wiederholt eine Verbindung zwischen neuen Technologien, neuen Produkten und neuen Möglichkeiten her – von der Nutzung der KI, um Gamer mit noch nie dagewesener Grafik zu begeistern, bis hin zum Aufbau virtueller Testgelände, auf denen die größten Unternehmen der Welt ihre Produkte verfeinern können – zum Beispiel durch das Simulieren realistischer Szenarien im Straßenverkehr oder ganzer Fabriken als digitale Zwillinge.

Bildergalerie

Treibende Kraft für die Flut neuer Ideen, neuer Produkte und neuer Anwendungen sei drastisch beschleunigtes Computing, das Fortschritte in der künstlichen Intelligenz freisetzt, die wiederum Branchen auf der ganzen Welt beeinflussen können.

KI vorantreiben: Large Language Models und Empfehlungssysteme im Fokus

Ohne Frage hat sich die GTC zu einem weltweit bedeutenden Treffen zum Thema Künstliche Intelligenz entwickelt – davon zeugen mehr als 200 Redner von Unternehmen wie Boeing, Deutsche Bank, Lowe's, Polestar, Johnson & Johnson, Kroger, Mercedes-Benz, Siemens AG, T-Mobile und US Bank. Laut Nvidia haben sich mehr als 200.000 Menschen weltweit für die Konferenz angemeldet. Auch in diesem Jahr ist KI wieder das beherrschende Thema auf der Konferenz.

Nach Ansicht von Huang, der einmal mehr Systeme und Software mit allgemeinen Technologietrends in Verbindung brachte, sind große Sprachmodelle (Large Language Models, LLMs) und Empfehlungssysteme heute die beiden wichtigsten KI-Anwendungen. Empfehlungssysteme seien der Motor der digitalen Wirtschaft, vom E-Commerce über die Unterhaltung bis hin zur Werbung: „Sie sind die Triebwerke hinter den sozialen Medien, der digitalen Werbung, dem elektronischen Handel und der Online-Suche“.

Und große Sprachmodelle, die auf dem 2017 erstmals vorgestellten Transformer Deep Learning-Modell basieren, gehören heute zu den dynamischsten Bereichen der KI-Forschung und sind in der Lage, menschliche Sprache ohne Überwachung oder markierte Datensätze zu verstehen. „Ein einziges vortrainiertes Modell kann mehrere Aufgaben erfüllen, etwa natürliches Beantworten von Fragen, Zusammenfassen von Dokumenten, Texterstellung, Übersetzen und sogar das Programmieren von Software“, erklärte Huang.

Massenproduktion der neuen H100-GPU angelaufen

Nötig dafür sind leistungsfähige und gleichzeitig energieeffiziente Hardware- und Software-Lösungen. Hier kommt Nvidias H100 Tensor Core GPU ins Spiel: Die mit der neuen Transformer-Engine auf Basis der hauseigenen Hopper-Technologie ausgestattete Grafikkarte befindet sich laut Huang in der Massenproduktion. Bereits In den kommenden Wochen könnten die Systeme ausgeliefert werden: „Hopper ist in voller Produktion und wird bald die KI-Fabriken der Welt antreiben“, ist Huang überzeugt.

Systeme seien schon bald zum Beispiel von Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo und Supermicro erhältlich. Wenig verwunderlich: Laut Huang werden Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure zu den ersten Hyperscalern gehören, die ab dem nächsten Jahr H100-basierte Instanzen in der Cloud einsetzen.

Grace Hopper für mehr Leistung in Rechenzentren

Neben den H100-GPUs rückte Huang Grace Hopper ins Rampenlicht: Hier kombiniert Nvidia seine Arm-basierte Rechenzentrums-CPU Grace mit den Hopper-GPUs. Dadurch habe man die „Fast-Memory-Kapazität“ um das 7-fache steigern können: „Das wird für einen Riesensprung bei Empfehlungssystemen sorgen“, sagte Huang. Systeme mit Grace Hopper sollen in der ersten Hälfte des Jahres 2023 verfügbar sein.

Die nächste Evolution des Internets, das so genannte Metaverse, werde um realistische 3D-Ansichten erweitert. Für die Verbindung und Simulation dieser Welten würden leistungsstarke, flexible neue Computer benötigt. Nvidias Omniverse-Plattform liefere für das Entwickeln und Ausführen von Metaverse-Anwendungen die notwendige Rechenleistung, erklärte Huang. Gleichzeitig seien Nvidias OVX-Server auf die Skalierung von Metaverse-Anwendungen ausgelegt. Nvidias OVX-Systeme der 2. Generation werden von Ada Lovelace L40-Grafikprozessoren für Rechenzentren angetrieben, die sich laut Nvidia-Chef Huang ebenfalls in voller Produktion befinden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Robotersimulation Isaac Sim ab sofortin der Cloud verfügbar

Als eigenen Cloud-Service hat Nvidia Isaac Sim vorgestellt, die eigene Plattform für Robotersimulationen. Sie soll eine kollaborative, beschleunigte Entwicklung von Robotern ermöglichen. Isaac Sim basiert auf der neuen Omniverse Cloud-Plattform und „macht das Testen und Trainieren von virtuellen Robotern einem breiteren Publikum zugänglich und bietet Agilität und Skalierbarkeit“, sagte Huang.

Entwickler werden zukünftig drei Möglichkeiten haben, auf Isaac Sim in der Cloud zuzugreifen: Neu ist die Verfügbarkeit über die neue Omniverse Cloud, einer Service-Suite, die es Entwicklern ermöglicht, Metaverse-Anwendungen von überall aus zu entwerfen und zu nutzen. Die Software ist bereits auf AWS RoboMaker verfügbar, einem Cloud-basierten Simulationsdienst für die Entwicklung und das Testen von Robotern. Außerdem können Entwickler die Software von Nvidia NGC herunterladen und in jeder öffentlichen Cloud bereitstellen.

Thor für autonome Fahrzeuge, Robotik, medizinische Instrumente und mehr

In heutigen Fahrzeugen werden Funktionen wie aktive Sicherheit, Einparken, Fahrerüberwachung, Kameraspiegel und Infotainment von verschiedenen Computern gesteuert. In Zukunft werden sie von einer Software bereitgestellt, die sich mit der Zeit verbessert und auf einem zentralen Computer läuft, ist Huang überzeugt. Für diese Anwendung stellte Huang den Drive Thor vor – ein Embedded-System, das die Transformer-Engine von Hopper, die Ada-GPU und die Grace-CPU kombiniert.

Der neue Thor-Superchip bietet eine Leistung von 2.000 Teraflops und ersetzt damit Nvidias Atlan-Chips auf der Drive-Roadmap. Thor stellt einen nahtlosen Übergang von Drive Orin dar, der eine Leistung von 254 TOPS hat und derzeit in Produktionsfahrzeugen eingesetzt wird. Thor wird der Prozessor für Robotik, medizinische Instrumente, industrielle Automatisierung und KI-Systeme sein, sagte Huang.

IGX Edge AI Computing Plattform für sichere, intelligente Systeme

Nvidia hat zudem seine IGX-Plattform für hochpräzise Edge-KI vorgestellt. Sie soll moderne und proaktive Sicherheit in sensible Branchen wie Fertigung, Logistik und Gesundheitswesen bringen. Laut Huang waren bisher in diesen Branchen kostspielige Lösungen erforderlich, die für spezielle Anwendungsfälle entwickelt wurden. Mit der IGX-Plattform stehe nun ein System bereit, das sich leicht programmieren und konfigurieren und so für unterschiedliche Anforderungen anpassen lasse.

Als Plattform für sichere, intelligente Systeme würde IGX eine bessere Zusammenarbeit zwischen Mensch und Maschine ermöglichen. Für Fertigung und Logistik soll IGX eine zusätzliche Sicherheitsebene in stark regulierten Fabriken und Lagern bereitstellen. Für medizinische Edge-KI-Anwendungsfälle liefere IGX hingegen „sichere KI-Inferenzen“ mit geringer Latenz, wodurch sich die Nachfrage nach schnellen Erkenntnissen aus einer Reihe von Instrumenten und Sensoren für medizinische Verfahren wie robotergestützte Chirurgie und Patientenüberwachung erfüllen ließen.

Jetson Orin Nano: 80-mal mehr Leistung als der Vorgänger

Ein Highlight war die Vorstellung von Jetson-Orin-Nano-SOMs: Das neue System-on-Module erweitert die Jetson-Nano-Produktpalette und setzt laut Huang mit einer um das 80-fache gesteigerten Performance neue Maßstäbe für Edge-KI und Robotik der Einstiegsklasse. Nvidias Jetson-Familie umfasst sechs Orin-basierte Produktionsmodule, die eine breite Palette von Edge-KI- und Robotik-Anwendungen unterstützen. Dazu gehört der Orin Nano, der bis zu 40 Billionen Operationen pro Sekunde (TOPS) an KI-Leistung im kleinsten Jetson-Formfaktor liefert, bis hin zum AGX Orin, der 275 TOPS für fortschrittliche intelligente Maschinen liefert.

Laut Huang wollen über 1.000 Kunden innerhalb von sechs Monaten nach der Markteinführung die Jetson Orin Produktfamilie einsetzen, darunter Unternehmen wie Canon, John Deere, Microsoft Azure, Teradyne und TK Elevator.

3,5 Millionen Entwickler, 3.000 beschleunigte Anwendungen

Die beste Hardware nützt wenig ohne gute Software. Daher betonte Huang das um die Lösungen seines Konzerns angesiedelte Software-Ökosystem „mit mehr als 3,5 Millionen Entwicklern, die mit den 550 Software Development Kits (SDKs) und KI-Modellen von NVIDIA rund 3.000 beschleunigte Anwendungen entwickeln“. Diese würden Nvidias Systeme und Chips – und letztlich die Vorteile des Accelerated Computing – in die Industrie auf der ganzen Welt bringen.

Nach eigenen Angaben hat Nvidia in den letzten 12 Monaten mehr als 100 SDKs aktualisiert und 25 neue eingeführt: „Neue SDKs verbessern die Fähigkeiten und die Leistung vorhandener Systeme und eröffnen gleichzeitig neue Märkte für beschleunigtes Computing“, sagte Huang.

Während seiner Rede hob Huang hervor, wie die Nvidia-Technologien bereits heute von einer Reihe wichtiger Partner und Kunden aus den unterschiedlichsten Branchen eingesetzt werden. Da sei etwa Deloitte: Das weltweit größte Dienstleistungsunternehmen wolle neue Services auf der Grundlage von Nvidia AI und Nvidia Omniverse für Unternehmen weltweit bereitstellen. Weitere Kunden seien zum Beispiel der Telekommunikationsriese Charter, General Motors in der Automobilindustrie, die Deutschen Bahn im Transportwesen, das Broad Institute in der medizinischen Forschung und Lowe im Einzelhandel.

(ID:48590678)