Fragen an die „Urgesteine“ „Das tiefere Verständnis der Hardware ist verloren gegangen“

Das Gespräch führte Dipl.-Ing. (FH) Hendrik Härter 7 min Lesedauer

Anbieter zum Thema

Ingenieure arbeiten oft mit massiven Software-Layern. Doch wo ist das Gespür für die Hardware? Prof. Dr. Christian Siemers bildet seit Jahrzehnten Entwickler aus. Ein Gespräch über den Wandel einer Branche.

Prof. Dr. Christian Siemers ist Hochschullehrer und Autor: „Zeitlos geblieben ist der Wille, die entwickelten Systeme wirklich verstehen zu wollen.“ (Bild:  TU Clausthal)
Prof. Dr. Christian Siemers ist Hochschullehrer und Autor: „Zeitlos geblieben ist der Wille, die entwickelten Systeme wirklich verstehen zu wollen.“
(Bild: TU Clausthal)

Vom programmierbaren Taschenrechner und dem legendären Commodore C-64 bis hin zu hochkomplexen eingebetteten Systemen und künstlicher Intelligenz: Prof. Dr. Christian Siemers bildet als studierter Physiker angehende Ingenieure aus und prägt als langjähriger Autor sowie Kongress-Mitgestalter den Wissenstransfer der Elektronikbranche. Im persönlichen Interview spricht er über den schleichenden Verlust des tiefen Hardware-Verständnisses oder über die Gefahren von blindem Vertrauen in KI bei sicherheitskritischen Systemen.

Christian, wenn du auf die Anfänge deiner Karriere zurückblickst: Was war der Moment oder welcher spezielle Prozessor hat dich zum ersten Mal gezeigt, dass Mikroprozessoren die Welt grundlegend steuern werden?

Es gab in meinem Studium der Physik – 1975 bis 1980 – und der nachfolgenden Assistenzzeit bis 1986 mehrere solcher Momente. Es fing mit einem programmierbaren Taschenrechner an, einem von einem Versandhaus vertriebenen No-Name-Produkt, den ich aus Langeweile während einer Grippe quälte. Die Programmierung und vor allem die Programmausführung waren schon etwas kurios: Es gab einen (!) Entscheidungspunkt im ganzen Programm, bei dem man händisch entscheiden konnte, wie weitergerechnet werden sollte. Es reichte aber für kleine Programme aus, und ich konnte viel lernen: Programmstruktur, Programmablauf und Rechengenauigkeit. Letztere näherte sich nämlich mit komplexer werdenden Algorithmen der Rechenstab-Genauigkeit an. Was ich aber nicht sah, war der Aufbau der Hardware.

Mit wenigen Zwischenschritten an Minicomputern (PDP8) und Mainframe-Rechnern (PDP10) mit schon ein bisschen mehr Einblick in den Aufbau der Rechner kam dann der Durchbruch: der Commodore C-64. Mein Doktorvater kaufte einige davon, da er davon überzeugt war, Studierenden (die damals noch Studenten hießen) physikalische Probleme damit besser vermitteln zu können, während ich an meiner Promotion forschte. Aber einen habe ich dann auch selbst besessen. Den konnte ich aufschrauben, erweitern und das Betriebssystem, das sehr gut dokumentiert war, ändern, verstehen und natürlich auch verbessern. Wir bauten dann am Institut Erweiterungsplatinen, bis ich schließlich den ersten Mikrorechner selbst entwarf – basierend auf der 6504-CPU, einer etwas kleineren Variante des 6502 bzw. des 6510, der im C-64 eingebaut war.

Ich konnte meinen eigenen C-64 aufschrauben, erweitern und das Betriebssystem ändern und sogar verbessern.

Prof. Christian Siemers

Rockwell kündigte Mitte der 1980er-Jahre auch an, einen Doppelprozessor (zwei 6502 auf einem Die) zu fertigen. Den wollte ich unbedingt haben, nur leider ist das nie erfolgt. Dual-Cores gab es zumindest gedanklich damals schon. Für die Steuerung von Experimenten in der Physik haben wir kleine Einplatinenrechner mit einer Vernetzung über das serielle IEC-Protokoll, das von Commodore entwickelt worden war, genutzt. Das waren meine Startschüsse in die Welt der Mikroprozessoren; den C-64 habe ich heute noch. Später wurde die 6502-Familie bei mir durch den Motorola 68008 abgelöst, was doch eine ganz andere Performancewelt war – aber das ist auch schon lange Geschichte.

Prof. Dr. Christian Siemers

Als Physiker, Hochschullehrer und Autor verbindet Christian Siemers die komplexe Welt der eingebetteten Systeme mit kritischen Fragen zu funktionaler Sicherheit und Zuverlässigkeit. Heute sensibilisiert er angehende Ingenieure für den Umgang mit künstlicher Intelligenz und plädiert unermüdlich für ein tiefes Hardware-Verständnis.

Du bildest seit Jahrzehnten Ingenieure aus. Was unterscheidet einen guten Entwickler von damals, der noch jedes Register händisch optimiert hat, von einem aus dem Jahr 2026? Welche Eigenschaften sind zeitlos geblieben?

Zeitlos geblieben ist der Wille, die Systeme, die man entwickelt, wirklich verstehen zu wollen. Ich kann das nur unterstreichen: Dies ist der richtige Weg zu guten Produkten, und um die soll es ja letztendlich gehen. In den 1980er-Jahren wollten wir eigentlich alles verstehen, weil genau daraus auch das Verständnis für extra-funktionale Eigenschaften erwächst. Diese vermaledeiten Extras, die in der Zeit noch nicht-funktionale Eigenschaften hießen, lassen sich nämlich nur indirekt beeinflussen: Kein Compiler der Welt schafft es, ein Programm z. B. auf einen garantierten Ablauf in xx ms – also hart echtzeitfähig – zu trimmen. Hierzu musste man schon recht gute Kenntnisse über die Hardware haben und eben auch eingreifen.

Heute sind die Rechensysteme auch im eingebetteten Bereich sehr viel komplexer, da ist dieser Ansatz kaum mehr möglich. Heute zeichnen sich gute Entwicklerinnen und Entwickler dadurch aus, dass sie mit den angebotenen Tools gut umgehen können und die Ergebnisse kritisch betrachten. Das krasse Gegenbeispiel erlebte ich in einem von mir angebotenen Praktikum, als mich ein Studierender ernsthaft empört fragte, warum sein Programm nicht laufen würde; der Compiler hätte doch keinen Fehler gemeldet.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Heute arbeiten junge Ingenieure oft mit massiven Software-Layern und Bibliotheken. Haben wir dadurch die Seele und das tiefe Verständnis für die Hardware verloren? Was davon klingt für dich heute vertraut und was ist dir in der modernen Herangehensweise fremd?

Ja, für mich ist das tiefere Verständnis der Hardware verloren gegangen – zwangsläufig. Immer mehr Schichten um die Hardware herum lassen einen schon fragen, ob man die Hardware überhaupt noch benötigt. So hatte sich ein Kollege einer anderen Hochschule einmal in einer Einführung geäußert, dass man demnächst nur noch Software benötige. Und dennoch benötigt man ein gewisses Verständnis für die Hardware. Virtualisierungen sind, wenn sie vernünftig angewendet werden, ein unabdingbarer Verzicht auf direkte Hardwarenähe, aber auch sie abstrahieren von der Hardware und verursachen längere Laufzeiten im Programm.

Vertraut ist für mich natürlich grundsätzlich die strukturierte Herangehensweise, auch wenn die Strukturen heute andere sind und die Hardware fast außer Acht gelassen wird. Fremd ist mir dabei eben das Ausklammern der Hardware und das manchmal schon blinde Vertrauen darin („Die muss es ja nur noch schnell ausführen, was ist daran schon schwer?“).

Du hast die ELEKTRONIKPRAXIS über Jahrzehnte als Autor und Experte begleitet. Welchen Stellenwert hat der Wissenstransfer zwischen Forschung und Industrie durch solche Magazine für dich? Gab es eine Geschichte oder einen Trend, den du in der EP besonders gern mitgeprägt hast (Stichwort: ESE Kongress)?

Da sage ich doch zweimal ja: Einmal gab es vor über 25 Jahren einen Marktüberblick und Vergleich von Mikroprozessorarchitekturen im Embedded-Bereich, den ich verfassen durfte. Sehr herausfordernd, viel Arbeit und sehr viel Vergnügen – so kann ich es zusammenfassen, und ich profitiere heute noch davon. Und nochmals ja: Besonders gern habe ich die Kongresse mitgeprägt, natürlich so weit sie mich fachlich betrafen. Da gab es zum Beispiel die HiSys 1998, einen Kongress mit einem Spitzenprogramm. Leider wurde die Ausstellung nicht so angenommen, sodass es bei der einen Veranstaltung unter diesem Namen blieb. Ähnliches war dem Automation Software Engineering Kongress beschieden, der nach 2019/2020 wieder eingestellt wurde. Meiner Meinung nach zu Recht, das Interesse war nicht so groß, vielleicht noch nicht.

Aber dann gibt es ja dieses Leuchtturmprojekt „Embedded Software Engineering“, das seit vielen Jahren der Renner ist. Ich fand es von Anfang an sehr spannend: ein Kongress, der Praktiker und Wissenschaftler zusammenbringt.

Egal ob beim Rechenstab oder moderner IT: Das größte Fehlerpotenzial sitzt nicht im Gerät, sondern davor – genau zwischen zwei Ohren

Prof. Christian Siemers

In deinen Vorlesungen geht es oft um Sicherheit und Zuverlässigkeit. Wenn wir heute über KI in eingebetteten Systemen sprechen: Wo endet für dich der technische Fortschritt und wo beginnt die Pflicht zum Innehalten, um die Kontrolle über die Logik nicht zu verlieren?

Künstliche Intelligenz ist auch nur eine Software, allerdings eine sehr ausgeklügelte, die wir leider nicht gleich durchschauen können. Ich sage allen Studierenden, dass es, bei Ausarbeitungen jeglicher Art, eine respektable und gute Idee ist, KI-Algorithmen zu befragen. Es ist aber zugleich sehr gefährlich, die Ergebnisse dann ungeprüft zu übernehmen. Nein, die Ergebnisse sollten nie einfach so übernommen werden. Dieser Teil der Antwort wird aber gerne überhört. Da bekomme ich dann schon mal Antworten, die einfach querab liegen.

Wenn ich das jetzt auf funktionale Sicherheit und Zuverlässigkeit übertrage, bekomme ich doch ein mulmiges Gefühl. Wer checkt denn dann die Reaktionen, zumindest auf Plausibilität? Ich glaube, hier steht uns allen noch eine riesige Lernkurve bevor. KI-Systeme müssen sich den Notwendigkeiten anpassen, nicht die Menschen den Unzulänglichkeiten. Denn bei Zuverlässigkeit ist meistens 'Schluss mit lustig'.

Gibt es ein Board, einen Chip oder ein technisches Gerät aus deiner Laufbahn, welches du niemals wegwerfen würdest? Vielleicht sogar ein Erbstück, das heute noch auf deinem Schreibtisch oder Schrank steht, weil es eine besondere Geschichte erzählt?

Na klar (auf Norddeutsch) oder auch logisch (auf Bayerisch). Zwei Dinge hege ich: meinen Rechenstab aus der Schulzeit. Nicht, weil er so präzise gerechnet hat (die Fehlerquelle saß vor ihm zwischen zwei Ohren), sondern weil ich dadurch lernte, mit Größenordnungen umzugehen und ein Gefühl für die numerischen Werte zu entwickeln. Und dann noch den C-64, den ich ja schon erwähnt habe und an dem ich das Werkeln am und das Arbeiten mit dem Computer so richtig gelernt habe. Damals wie heute gilt: Das größte Fehlerpotenzial sitzt nicht im Gerät, sondern davor – genau zwischen zwei Ohren. (heh)

(ID:50784643)