Anbieter zum Thema

Zwar fand sich zwischenzeitlich noch ein Ausweg: Die Multicores. Die Transistoren im Chip werden genutzt, die Geschwindigkeit pro Core bleibt konstant, die Verlustleistung ebenfalls, und die Marketing-Abteilung kann von einer tollen Peak-Performance sprechen.
Wenn da nicht das Problem der parallelen Bearbeitung wäre, mit Parallelisierung der Applikation oder Synchronisierung der Teile, die nur schwer effizient hinzubekommen ist. Ich habe z.B. an diesem Beitrag netto ca. 2 Stunden für die erste Version geschrieben. Eine totale Parallelisierung auf 120 Menschen wäre dann effizient, wenn 1 Minute Arbeitszeit für jeden herausgekommen wäre und das Ergebnis einen gewissen inneren Zusammenhang zwecks Lesbarkeit hätte. Leider muss ich sagen, dass ich an der Qualität eines auf diese Art entstandenen Textes ein wenig zweifle.
Alleskönner mit Pünktlichkeitsproblem
So rundet sich das aktuelle Bild um die Mikroprozessoren: Sie können alles berechnen, was berechenbar ist (abgesehen von ihrem begrenzten Speicher), sie sind universell anwendbar (wie es Neumann mit seinem Modell 1946 auch gewollt hatte), sie sind darauf getrimmt, alles sequenziell zu bearbeiten, und jede Form der Parallelisierung zwecks Beschleunigung zieht leider Verluste (an der linearen Skalierung) nach sich. Algorithmisch sind sie die Alleskönner, aber wirkliche Pünktlichkeit, also präzises Einhalten von Rechenzeiten z.B. in eingebetteten Systemen, ist nicht ihre hervorragende Eigenschaft.
Warten wir es ab: Vielleicht bekommen wir ja doch bald eine Ablösung der CMOS-Technologie und damit neuen Schwung in die Entwicklung der Mikroprozessoren.
* Prof. Dr. Christian Siemers lehrt am Institut für Informatik an der TU Clausthal und an der Fachhochschule Nordhausen.
Artikelfiles und Artikellinks
(ID:44145894)