Wer Fahrerassistenzsysteme entwickelt, ist auf viele Millionen von Testkilometern angewiesen. Diese automatisiert und reproduzierbar zu ermitteln, ist Aufgabe des virtuellen Fahrversuchs. Alle im realen Fahrzeug benötigten Sensoren sollen in der Simulation hinreichend genau abgebildet werden.
Virtueller Fahrversuch: Wer Fahrerassistenzsysteme testet und entwickelt, weiß um den hohen Arbeits- und Zeitaufwand. Abhilfe verspricht der virtuelle Fahrversuch auf Basis virtueller Prototypen und frei definierbarer Szenarien.
(Bild: Clipdealer)
Der steigende Funktionsumfang von Fahrerassistenzsystemen in Fahrzeugen erfordert effiziente Testmethoden, da innerhalb kurzer Zeit immer größere Testkataloge bewältigt werden müssen. Der virtuelle Fahrversuch, also Entwicklung, Test und Absicherung in der Simulation, ist dafür unabdingbar, da Millionen von Testkilometern automatisiert und reproduzierbar durchgeführt werden können. Gegenüber dem klassischen Fahrversuch lässt sich außerdem viel Zeit sparen. Auf diese Weise ist es möglich, etwaige negative Effekte von Software- oder Parameteränderungen zu erkennen, ohne Personal oder Fahrzeug zu gefährden.
Im Mittelpunkt steht dabei der virtuelle Prototyp; ein Gesamtfahrzeugmodell, das aus Modellen sämtlicher Komponenten und Systemen des realen Fahrzeugs aufgebaut ist. Die vollständige Parametrierung ermöglicht es, alle Abhängigkeiten und Einflüsse der verschiedenen Fahrzeugsysteme untereinander zu simulieren, was zu einem realitätsgetreuen fahrdynamischen Verhalten führt. Im Vergleich zu realen Prototypen ist außerdem eine deutlich frühere Verfügbarkeit im Entwicklungsprozess gegeben, welche den durchgängigen Einsatz des virtuellen Prototyps in jeder Entwicklungsphase ermöglicht. Er ist zu jedem Zeitpunkt mit dem aktuellen Entwicklungsstand innerhalb sämtlicher involvierten Abteilungen verwendbar. Damit lassen sich Tests früher ausführen, als es mit herkömmlichen Entwicklungsmethoden umsetzbar ist.
Bildergalerie
Fahrerassistenzsysteme und autonome Fahrfunktionen
Für Fahrerassistenzsysteme und autonome Fahrfunktionen ist es herausfordernd, die Umgebung des Fahrzeugs zu erfassen. Verkehrsteilnehmer oder Umweltbedingungen wie Witterungsverhältnisse, schwierige Lichtverhältnisse, verdeckte Verkehrszeichen oder schlecht erkennbare Fahrbahnmarkierungen dürfen nicht zu Fehlfunktionen führen. Damit die fehlerfreie Funktion von Fahrerassistenzsystemen und automatisierten Fahrfunktionen sichergestellt werden kann, muss die Umgebung daher zu jedem Zeitpunkt komplett und fehlerfrei von den Fahrzeugsystemen erfasst werden.
Bei der Definition der Umgebung für den virtuellen Fahrversuch werden daher die detaillierten Eigenschaften der darin befindlichen Objekte definiert. Das sind sowohl Geometrie- und Materialeigenschaften als auch die Bewegung. Ergänzend werden Umweltbedingungen wie Wind, Niederschlag und Lichtquellen festgelegt. Abhängig von der verwendeten Sensortechnik und den atmosphärischen Bedingungen wird die jeweilige Szene auf eine für die entsprechende Technik typische Art und Weise erfasst. Um die Realität in der Simulation exakt abbilden zu können, ist es notwendig, alle physikalischen Phänomene nachzubilden.
Der Sensor in der Simulation und das Sensormodell
In der Simulation wird die (virtuelle) Umgebung durch die Sensormodelle erfasst. An diese Sensormodelle gibt es eine Vielzahl von Anforderungen, die sich nur schwer gleichzeitig erfüllen lassen. Auf der einen Seite sollen die Sensormodelle eine hohe Performanz aufweisen, auf der anderen Seite aber realitätsgetreue, physikalisch korrekte und vollständige Abbildungen realer Sensoren darstellen.
Eine Möglichkeit, diesen Konflikt zu beseitigen, soll im Folgenden mit der sogenannten Methode „Purpose Driven Fidelity“ beschrieben werden. Sie gibt an, dass für jeden Anwendungsfall nur bestimmte Modelle des Fahrzeugs über einen hohen Detaillierungsgrad verfügen müssen, während andere eher vereinfacht abgebildet werden können. So eine Vorgehensweise führt unter anderem dazu, dass während des gesamten Entwicklungsprozesses die Echtzeit- und Hardware-in-the-Loop (HiL)-Fähigkeit des Fahrzeugmodells sichergestellt werden kann oder sogar mehrfache Echtzeitfähigkeit gegeben ist.
Um die relevanten Modelle für den virtuellen Prototyp auswählen zu können, bevor mit dessen Aufbau begonnen wird, muss demnach der Anwendungsfall bekannt sein. Beispielsweise bilden Kamera- und Radarinformationen die Basis für ein ACC- (Adaptive-Cruise-Control-)System. Für die Untersuchung eines ACC sind daher die Sensoren enorm wichtig, während der Antriebsstrang und das Fahrwerk durchaus oberflächlicher und damit performanter modelliert werden können.
Um der Methode Purpose Driven Fidelity auch bei den Sensormodellen zu folgen, testet man mit dem Fokus auf der Kamera und bildet den Radarsensor vereinfacht ab. Anschließend kann das Prinzip umgekehrt werden, indem der Fokus auf den Radarsensor gelegt wird. Abschließend wird eine überschaubare Anzahl an Integrationstests durchgeführt, in denen sowohl Kamera als auch Radar detailliert modelliert werden. Um dieses Vorgehen realisieren zu können, müssen verschiedene Modellierungstiefen (Bild 1) für alle Sensoren zur Verfügung stehen. Die offene Integrations- und Testplattform CarMaker von IPG Automotive stellt für diesen Zweck drei verschiedene Sensorklassen zur Verfügung, die nachfolgend mitsamt ihren Vor- und Nachteilen sowie deren Einsatzgebieten aufgezeigt werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Verschiedene Sensormodelle im Überblick
Klasse 1: Ideale Sensormodelle: Ideale Sensormodelle, wie sie das Bild 2 zeigen, liefern eine Objektliste. Ihre Informationen erlangen sie durch die direkte Extraktion aus dem Simulationsmodell. Es erfolgt eine ideale Umfelderfassung ohne detaillierte Betrachtung der Physik oder der Abbildung sensortechnologietypischer Fehler in der Objektliste. Die idealen Sensormodelle bieten unter anderem den Vorteil einer einfachen Parametrierung sowie einer sehr guten Performanz, während die fehlende Abbildung physikalischer Effekte ihren Anwendungsbereich gegebenenfalls einschränken kann. Anwendung finden ideale Sensormodelle bei grundlegenden Tests von Fahrzeugfunktionen. Als Beispiel kann an dieser Stelle ein ACC-Funktionstest genannt werden, bei dem validiert wird, ob das ACC korrekt funktioniert, wenn der genaue Abstand zum vorausfahrenden Fahrzeug bekannt ist. Weiterhin können ideale Sensormodelle auch als Referenz für vom Kunden eigens entwickelte Sensormodelle dienen.
Klasse 2: HiFi-Sensormodelle: Genau wie die idealen Sensormodelle liefern auch die HiFi-Sensormodelle (Bild 3) eine Objektliste. Wie die idealen Sensormodelle beziehen sie ihre Informationen durch die direkte Extraktion aus dem Simulationsmodell, allerdings werden diese durch vereinfachte physikalische Ausbreitungsmodelle und/oder technologiespezifische, stochastische Fehlermodelle angereichert.
Die erlangten Informationen berücksichtigen grundlegende physikalische Phänomene und bilden typische technologiebedingte Fehler ab. Ein Vorteil der HiFi-Sensormodelle ist die gute Performanz unter Berücksichtigung der typischen Fehler. Zu beachten ist dabei, dass physikalische Effekte im Mittel zwar korrekt abgebildet werden, im Einzelfall jedoch Abweichungen auftreten können. Ein möglicher Einsatzzweck eines HiFi-Sensormodells sind Robustheitstests von Fahrzeugfunktionen. Robustheit bedeutet in diesem Fall, dass die Funktion korrekt ausgeführt wird, obwohl der Sensor fehlerhafte Informationen liefert. So könnte beispielsweise der Fall eintreten, dass der Radarsensor das vorausfahrende Fahrzeug kurzzeitig nicht mehr erkennt. An dieser Stelle ist es relevant, ob das Auffahren auf dieses Fahrzeug durch Abgleich der Informationen mit denen aus der Kamera verhindert wird.
Klasse 3: Rohsignalschnittstellen (Raw Signal Interfaces): Die Rohsignalschnittstellen = Raw Signal Interfaces (siehe Bild 4) liefern Rohdaten des Sensors (Kanalimpulsantwort). Mithilfe eines Raytracing-basierten Verfahrens wird die 3D-Umgebung abgetastet. Das geschieht unter Berücksichtigung der Materialeigenschaften der 3D-Objekte und detaillierter physikalischer Effekte bei der Signalausbreitung. Vorteilhaft sind hier die detaillierte Abbildung und der Zugriff auf Rohdaten, wobei die Modellklasse erhöhte Anforderungen an die Hardware stellt. Insbesondere der Grafikprozessor wird an dieser Stelle stark gefordert. Ein Einsatzzweck der Rohdatenschnittstellen kann beispielsweise ein Test einer Sensorkomponente bzw. des dahinterstehenden Detektionsalgorithmus sein. Wenn die Rohdatenschnittstelle Radarimpulse liefert, kann beispielsweise geprüft werden, ob die entsprechende Komponente daraus die korrekte Fahrzeugklasse sowie Abstands- und Beschleunigungswerte liefern kann.
Was der virtuelle Fahrversuch bietet
Der Test und die Entwicklung von Fahrerassistenzsystemen erfordern einen derartig hohen Arbeits- und Zeitaufwand, dass dies nicht ausschließlich im realen Fahrversuch abgedeckt werden kann. Um dieser Problematik zu begegnen, stellt der virtuelle Fahrversuch dar, der auf Basis virtueller Prototypen und frei definierbaren Szenarien eine immense Zeit- und Kostenersparnis ermöglicht.
Um Fahrerassistenzsysteme und autonome Fahrfunktionen abbilden zu können, ist es unumgänglich, alle im realen Fahrzeug benötigten Sensoren in der Simulation hinreichend genau abzubilden. Bei der Implementierung der virtuellen Sensoren in die Simulationsumgebung gibt es allerdings einen großen Anforderungskonflikt. Auf der einen Seite sollen die Sensormodelle hochperformant sein, auf der anderen Seite realitätsgetreue und vollständige Informationen bereitstellen.