Anbieter zum Thema
An den Grenzen der effizienten Leistungssteigerung

Neben der Bitbreite gab es noch zwei weitere wesentliche Schrauben zur Erhöhung der Rechengeschwindigkeit: die Erhöhung des Taktes und die Erhöhung der Anzahl der Operationen (in einem Programm), die pro Takt durchführbar sind. Ersteres hat man leidlich ausgenutzt; die maximalen Betriebsfrequenzen können auch so schön auf die Verpackung gedruckt werden, und große Zahlen sind ein tolles Verkaufsargument. Jedenfalls fand das solange statt, bis Pat Gelsinger, damals CTO bei Intel, im Jahr 2001 deutlich machte, dass man etwa 2010 dann bei einer Verlustleistung einer CPU ankommen würde, die der Leistungsdichte der Sonne auf der Oberfläche entsprach. Die Sonne im Rechnergehäuse also - keine schöne Vorstellung, oder?
Über die andere Tuning-Schraube las man schon 1995 beim Institute of Electrical and Electronics Engineers (IEEE), dass man nun kurz davor stünde, die 4-fach parallel rechnenden CPUs superskalarer Bauart nun durch 16-fach rechnende CPUs superskalarer Bauart zu ergänzen, womit eine 4-fache Geschwindigkeitssteigerung einhergehen würde. 2003 konnte man diese Ankündigung erneut finden – ebenfalls beim IEEE. Seitdem hat man davon aber nichts mehr gehört.
Was war passiert? Vierfache Superskalarität bedeutet, dass man theoretisch vier Instruktionen parallel, also gleichzeitig ausführen kann. Das kostet grob geschätzt die 16-fache Siliziumfläche, aber Transistorknappheit ist nun wirklich nicht das Problem, nur bleiben davon im Schnitt 1,3 Instruktionen pro Takt übrig. Steigert man das auf die 16-fache Superskalarität, also die vielleicht 256fache Fläche, steigt die erhaltene Performance nur marginal. Ein schlechtes Geschäft also, das keiner wollte.
Überhaupt sind die technologischen Randbedingungen schlechter geworden. Der Mikroprozessor, der schon einmal als „der eigentlich größte Unfall der Technikgeschichte“ bezeichnet wurde, ist natürlich nicht wegzudenken, aber seine Weiterentwicklung in Richtung Geschwindigkeit des einzelnen Prozessors ist praktisch zum Erliegen gekommen. Die schöne Rechnung, dass bei einer relativen Skalierung S der Herstellungstechnologie die Anzahl der Transistoren mit S² und die Geschwindigkeit (Taktfrequenz) mit S skalieren während die Verlustleistung konstant bleibt (Dennard’sches Gesetz, 1974), findet einfach nicht mehr statt. Mann kann derzeit entweder die Geschwindigkeit erhöhen und dafür die Transistoren nicht mehr ausnutzen, oder man muss wesentlich mehr Verlustleistung, verbunden mit erheblichem Aufwand zur Kühlung, in Kauf nehmen. Man spricht auch von Dark Silicon.
Artikelfiles und Artikellinks
(ID:44145894)