Autonomes Fahren Virtuelle Testfahrten mit Kamera, Radar und Lidar realistisch simulieren
Eine Sensorsimulation erzeugt in Echtzeit fotorealistische Bilder zur Kamerasimulation und simuliert per Raytracing exakt die Umgebung für Radar und Lidar. Die Anwendung lässt sich wahlweise in der Cloud oder lokal betreiben.
Anbieter zum Thema

Bevor ein autonomes Fahrzeug mit seinen Sensoren und Kameras auf die Straße kommt, muss es verschiedene Testfahrten meistern. Doch reale Testfahren kosten den Herstellern Geld. Deshalb setzen sie auf virtuelle Testfahrten. Damit lassen sich hunderte Millionen Testkilometer abfahren und gleichzeitig eine schier unendliche Anzahl möglicher Anforderungen und Verkehrsszenarien durchfahren. Speziell für die in einem autonomen Fahrzeug verbauten Sensoren gibt es verschiedene Software, um Funktionen zu testen und zu validieren.
Eine solche Sensorsimulation ist Aurelion des Herstellers dSpace. Sie lässt sich über alle Phasen des Entwicklungsprozesses einsetzen: beim Test SIL-Test (Software in the Loop), HIL-Test (Hardware in the Loop) oder wenn Entwickler die Daten parallel in der Cloud validieren wollen. Denn das ist ein Vorteil der Sensorsimulation: Sie lässt sich sowohl lokal beim Anwender betreiben oder wahlweise in der Cloud.
Viele unterschiedliche Szenarien durchspielen
Die Testumgebung unterstützt dabei, wenn auf künstlicher Intelligenz basierte Funktionen und Trainingsdaten entwickelt werden sollen. Es lassen sich neuronale Netze trainieren und testen. Dank einer 3D-Rendering-Engine, der Simulationsmodelle des Herstellers dSpace sowie realistische 3D-Assests wie Fußgänger oder Fahrzeuge lassen sich die Sensoren, Umgebungen, Wetterbedingungen, Helligkeitsverhältnisse (Tag und Nacht) und verschiedene Materialien simulieren.
Entwickler können so ganz unterschiedliche Szenarien simulieren und Corner Cases durchtesten, die bei realen Testfahrten in der Realität nur selten vorkommen. Dabei greift die Sensorsimulation immer auf eine aktuelle und umfangreiche Bibliothek von Sensormodellen zurück.
Vorteil: Neue Sensoren können in der Simulation präzise nachgebildet werden, lange bevor sie auf den Markt kommen. Dazu hat dSpace Kooperationen mit führenden Sensorherstellern für Kamera-, Lidar- und Radar-Technik geschlossen. Zudem lassen sich Sensormodelle von Drittanbietern integrieren.
Autonomous Vehicle Stack absichern
Nach Angaben des Hersteller bündelt die Sensorsimulation bereits bestehende Funktionen aus der Software für 3D-Online-Animation MotionDesk sowie der Umgebungssimulation SensorSim und erweitert beide durch verbesserte Funktionen. Weitere Werkzeuge wie den ASM-Simulationsmodellen, der Simulationsplattform VEOS sowie ModelDesk zur Parametrierung sichert die Sensorsimulation den Autonomous Vehicle Stack ab.
(ID:48018853)