Wollen die Fahrzeughersteller Level 4 und 5 des autonomen Fahrens erreichen, wären noch mehr reale Straßentests notwendig oder verbesserte Simulationen. Aktuell lassen sich maximal 32 Objekte nachbilden. Für höhere Level autonomen Fahrens sind allerdings mehr Objekte notwendig.
Autonomes Fahren: Für die Level 4 und 5 sind bessere Simulationen notwendig.
(Bild: (c) metamorworks - stock.adobe.com)
Die vollautonomen Fahrzeuge der nicht allzu fernen Zukunft versprechen einen enormen Zuwachs an Sicherheit und Effizienz im Verkehr. Um dieses Versprechen einzulösen, müssen die Automobil-OEMs jedoch über das heutige Niveau der Fahrzeugautonomie hinausgehen. Dabei spielen die Radarsensoren eine wesentliche Rolle. Ihr Test entscheidet über Sicherheit der Fahrerassistenzsysteme (ADAS) und autonomen Fahrsystemen. Außerdem ist es mit ausgeklügelten Testmethoden möglich, neue Methoden für das Training von Algorithmen zu entwickeln. Dafür haben herkömmliche Anwendungen bisher nicht ausgereicht.
SAE International (früher Society of Automotive Engineers) definiert sechs Level der Fahrzeugautonomie, wobei Level 0 für vollständig manuelles Fahren und Level 5 für vollständig autonomes Fahren steht. Aktuelle Fahrzeuge erreichen Level 3. Damit sind sie in der Lage, einige Entscheidungen wie Beschleunigung oder Bremsen ohne menschliches Eingreifen zu treffen. Um von Stufe 3 auf Stufe 5 zu gelangen, sind noch zahlreiche technische Entwicklungen notwendig. Dazu gehören beispielsweise das Schließen der Lücke zwischen Softwaresimulation und Straßentests sowie das Training von ADAS und autonomen Fahralgorithmen unter realen Bedingungen.
Softwaresimulation und autonomes Fahren
Bei der Entwicklung autonomer Fahrzeuge spielt die Softwaresimulation eine wichtige Rolle. Die Simulation der Umgebung durch Software kann helfen, die Fähigkeiten von ADAS und autonomen Fahrsystemen zu validieren. Die Simulation kann jedoch weder die realen Fahrbedingungen noch das Potenzial für unzureichende Sensorreaktionen vollständig nachbilden – etwas, mit dem vollständig autonome Fahrzeuge unweigerlich konfrontiert sein werden.
Die Automobilhersteller setzen auf Straßentests, um ADAS und autonome Fahrsysteme zu validieren, bevor sie auf den Markt kommen. Straßentests sind und bleiben ein wichtiger und notwendiger Bestandteil des Entwicklungsprozesses. Allerdings sind sie zeitaufwendig, kostspielig und schwer zu reproduzieren. Das ist vor allem dann schwierig, wenn es um die Kontrolle der Umweltbedingungen geht. Die Entwicklung von Fahrzeugen, die zuverlässig sind und mit 100 Prozent sicher auf städtischen und ländlichen Straßen fahren, würde mit Straßentests allein noch Jahrzehnte dauern. Damit die Entwicklung in einem realistischen Zeitrahmen erfolgen kann, werden Trainingsalgorithmen benötigt.
Trainingsdaten für autonome Fahrzeuge
Eine entscheidende Aufgabe ist es, Algorithmen für das autonome Fahren auf der Grundlage von Radarsensoren zu validieren. Die Sensoren erfassen Informationen über die Straßen- und Verkehrsbedingungen und leiten diese Informationen an Prozessoren und Algorithmen weiter. Mit den Sensordaten können die Algorithmen Entscheidungen treffen, wie das Fahrzeug in einer bestimmten Situation reagieren sollte. Stehen den autonomen Fahrzeugen keine entsprechenden Trainings bereit, dann treffen autonome Fahrzeuge Entscheidungen, welche die Sicherheit von Fahrern, Passagieren oder Fußgängern beeinträchtigen.
Genauso wie Menschen mit der Zeit und Erfahrung bessere Fahrer werden, verbessern autonome Fahrsysteme mit der Zeit und dem Training ihre Fähigkeit, mit realen Fahrbedingungen umzugehen. Und um Level 5 der Autonomie zu erreichen, werden komplexe Systeme erforderlich sein, die die Fähigkeiten der besten menschlichen Fahrer übertreffen.
Reale Straßenszenarien emulieren
Verfrühte Straßentests von unerprobten ADAS- und autonomen Fahrsystemen bergen zudem Risiken. Deshalb müssen OEMs in der Lage sein, reale Szenarien zu emulieren. Damit lassen sich nicht nur reale Sensoren validieren, sondern auch die Codes der elektronischen Steuereinheit oder die künstliche Intelligenz. Die derzeitigen Simulationen im Labor bieten keine echte Annäherung an reale Fahrszenarien. Sie haben ein begrenztes Sichtfeld und können Objekte in Entfernungen von weniger als vier Metern nicht auflösen.
Einige der Systeme verwenden mehrere Radarzielsimulatoren, die den Radarsensoren jeweils Punktziele präsentieren und die horizontale und vertikale Position durch mechanisches Bewegen der Antennen simulieren. Diese mechanische Automatisierung verlangsamt die Gesamtprüfzeit. Bei anderen Entwicklungen wird eine Wand aus Antennen mit nur wenigen Zielsimulatoren aufgebaut, sodass ein Objekt überall in der Szene erscheinen kann, aber nicht gleichzeitig. In einer statischen oder quasistatischen Umgebung ermöglicht dieser Ansatz die Prüfung mit einer Handvoll von Zielen, die sich seitlich mit einer Geschwindigkeit bewegen, die durch die Geschwindigkeit der Roboterarme begrenzt ist.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Bis zu 512 Objekte simulieren
Aktuelle Simulatoren können maximal 32 Objekte nachbilden. Darunter sind Fahrzeuge, Infrastruktur, Fußgänger, Hindernisse und andere Objekte. Das sind weit weniger Objekte, als ein Fahrzeug auf der Straße zu einem gegebenen Zeitpunkt vorfinden kann. Das Testen von Radarsensoren anhand einer begrenzten Anzahl von Objekten vermittelt ein unvollständiges Bild von Fahrszenarien und verdeckt die Komplexität der realen Welt.
Um die Technologie des autonomen Fahrens auf Level 4 und 5 voranzutreiben, benötigen Automobil-OEMs technische Entwicklungen, die mehr Objekte schneller und in geringerer Entfernung darstellen können. Um diese Lücken zu schließen, hat Keysight beispielsweise einen proprietären skalierbaren Emulationsbildschirm entwickelt, der Hunderte von Miniatur-Zielradarsimulatoren kombiniert und bis zu 512 Objekte in einer Entfernung von nur 1,5 Metern emulieren kann. Das Ergebnis ist eine deterministische, realitätsnahe Umgebung für Labortests komplexer Szenen, die bisher nur auf der Straße getestet werden konnten.
* Thomas Götzl ist Vice President und General Manager für Automotive & Energy Solutions (AES) der Electronic Industrial Solutions Group bei Keysight sowie Geschäftsführer von Keysight Technologies in Deutschland.