TPU 3.0: Googles Machine-Learning-Chip braucht Wasserkühlung
Die Wärmekapazität von Wasser ist um den Faktor 3.300 und die Wärmeleitfähigkeit in etwa 20-mal höher als die der Luft und eine CPU produziert mehr Wärme als eine handelsübliche Herdplatte. Doch mit Wasser im Rechenzentrum gibt es keine Tier-III-Zertifizierung. Mit Künstlicher Intelligenz steigen die Anforderungen nochmals; das Kühlen können Luftströme nicht mehr leisten. Nun hat Google die Version 3.0 seiner „Tensor Processing Unit“ (TPU) vorgestellt und diese wird flüssig gekühlt.
Anbieter zum Thema

Aufgrund der hohen Leistungsdichte der TPU wird der anwendungsspezifische integrierte Schaltkreis (ASIC) flüssiggekühlt - eine PremiereGoogle. Das Unternehmen geht davon aus, dass es in wenigen Monaten mit groß angelegten Einsätzen beginnen wird. Zur Begründung sagte Google CEO Sundar Pichai auf der „Google I/O“-Konferenz, die in der vergangenen Woche in Mountain View stattfand: „Diese Chips sind so leistungsstark, dass wir zum ersten Mal eine Flüssigkeitskühlung in unseren Rechenzentren einführen mussten.“
Viel ist noch nicht bekannt über die 3.0er Version der TPUs. Jedes dieser Chips verfüge über 128 Gigabyte Speicher und hohe Bandbreite, doppelt so viel wie die Vorgänger. Die erste TPU war in ihrem Einsatzbereich sehr begrenzt, ließ etwa Unterstützung für Verzweigungsanweisungen vermissen. TPU 2.0 brachte Unterstützung für maschinelles Lernen. Mit 64 Chips in einem 8-Rack-Pod ließen sich bis zu 11,5 Petaflops rechnen.
Die jetzige Ausführung soll laut Pichai ein neues Design mit sich bringen. Er sagt: „Wir haben diese Chips in Form von riesigen Hülsen gelegt.“ Jede dieser Hülsen sei jetzt achtmal stärker als die TPUs aus dem vergangenen Jahr und biete weit über 100 Petaflops. Google teilte jedoch nicht die Benchmark-Tests mit, die verwendet wurde, um 100 Petaflops Leistung zu beanspruchen.
Doch sagt Pichai: „Das ist es, was uns erlaubt, bessere Modelle zu entwickeln, größere Modelle, genauere Modelle und hilft uns, noch größere Probleme anzugehen.“
Auch Facebook mit eigenem Chipdesign?
Im April veröffentlichte die Agentur Bloomberg, dass Stellenausschreibungen von Facebook darauf hindeuteten, dass das Unternehmen ein Team aufbaue, welches eigene Halbleiter entwerfen soll. Das Social-Media-Unternehmen suchte einen Manager für den Aufbau einer "End-to-End SoC/ASIC-, Firmware- und Treiberentwicklungsorganisation", wie aus der zitierten Jobliste auf der Unternehmenswebsite hervorging.
Ein System on Chip, kurz SOC, ist ein Halbleiter, der mehrere diskrete Komponenten in einem Stück Silizium enthält. Sie werden typischerweise in mobilen Geräten eingesetzt. Die Hauptfunktionen der meisten Smartphones werden von SOCs bereitgestellt.
Ein ASIC wiederum, oder anwendungsspezifischer integrierter Schaltkreis, ist ein Chip, der für einen spezifischen Zweck taugt. Solche Komponenten sind oft die schnellsten oder effizientesten bei der Ausführung einer bestimmten Software.
Facebook könnte also eigene Chips verwenden, um wie Google Systeme für künstliche Intelligenz zu versorgen. Möglich wäre aber auch eine Bestückung von entsprechenden Endgeräten, etwa für das das „Oculus Go“ einführen, ein Virtual-Reality-Headset für rund 200 Dollar, in dem einem Qualcomm-Prozessor steckt. Facebook arbeitet aber auch an einer Reihe von intelligenten Lautsprechern. Durch den Einsatz eigener Prozessoren hätte das Unternehmen eine bessere Kontrolle über die Produktentwicklung und könnte seine Soft- und Hardware besser aufeinander abstimmen.
:quality(80)/images.vogel.de/vogelonline/bdb/1375100/1375147/original.jpg)
ARM und NVIDIA beginnen gemeinsame Entwicklung von KI-Chips
:quality(80)/images.vogel.de/vogelonline/bdb/1305900/1305930/original.jpg)
Intel Nervana: Erster dedizierter Prozessor für neuronale Netze
Dieser Beitrag stammt von unserem Partnerportal Datacenter-Insider.de.
(ID:45330439)