So halten autonome Fahrzeuge auch bei Dämmerung die Spur
Anbieter zum Thema
Autonome Fahrzeuge haben Schwierigkeiten, bei Dämmerung und auf nasser Fahrbahn die Spur zu halten. Spezielle Bildverarbeitungs-Systeme sind die Lösung.

Das Interesse an autonomen Fahrzeugen steigt – es gibt aber eine große Kluft zwischen der Technik, mit der heutige selbstfahrende Autos gut beleuchtete, markierte Autobahnen entlang fahren, und der Technik die notwendig ist, um bei Regen auf einer unbeleuchteten, nicht markierten Landstraße bei Dämmerung sicher fahren zu können.
Große Datenmengen sind eine Herausforderung für die Hardware
Viele Unternehmen versuchen, diese Lücke zu schließen, indem sie anspruchsvolle Embedded-Bildverarbeitungssysteme entwickeln, die große Mengen an Umgebungsdaten erfassen können und dann maschinelles Lernen anwenden, um die nächste Etappe einer Fahrzeugroute zu planen. Solche Systeme erfordern ein Entwicklungssystem, das schnelles Experimentieren, eine Systemoptimierung und eine rasche Markteinführung ermöglicht. Eine der größten Herausforderungen bei der Entwicklung von Bildverarbeitungssystemen für autonome Fahrzeuge besteht im Umgang mit den immensen Datenmengen, die von mehreren Kameras und Sensoren erzeugt werden.
Die heutigen fortschrittlichen Fahrerassistenzsysteme (ADAS) haben mehrere Kameras sowie Radar- und LIDAR-Sensoren, um ein Sichtfeld von 360° zu erzeugen. Im Fahrzeug befinden sich häufig Kameras, die die Aufmerksamkeit des Fahrers und andere sicherheitsrelevante Faktoren erfassen. Auf dem Weg hin zu mehr Fahrzeugautonomie wird die Anzahl der Kameras zunehmen, die Auflösung wird von 1 auf 8 Megapixel und die Bildraten werden von heute 10 bis 30 auf 60 fps ansteigen.
Ähnlich verhält es sich mit UAVs (Unmanned Aerial Vehicles; unbemannte Luftfahrzeuge) oder Drohnen, die ihre Umgebung mit mehreren Kameras erfassen und mit anwendungsspezifischen Sensoren für Aufgaben wie landwirtschaftliche Inspektion, Sicherheit und Überwachung ausgestattet sind. Autonom geführte Roboter nutzen ebenfalls mehrere Kameras, sodass sie Situationen erfassen, Bewegungen verfolgen und Entscheidungen koordinieren können, um in belebten Umgebungen schnelle Reaktionen zu ermöglichen.
Bildverarbeitungssysteme in autonomen Fahrzeugen müssen einen hohen Grad an funktionaler Sicherheit und Zuverlässigkeit bieten und zahlreiche Funktionen unterstützen wie die Echtzeitausführung mit niedriger Latenzzeit, einen geringen Stromverbrauch, Flexibilität beim Arbeiten mit unterschiedlichen Kamerakonfigurationen und umfangreiche Möglichkeiten zur Implementierung von Bildverarbeitungs- und Maschinenlern-Algorithmen zur Objekterkennung, -klassifizierung und -verifizierung. Bildverarbeitungssysteme für Fahrzeuge müssen zudem Automotive-qualifiziert sein, das heißt, die verwendeten Bauelemente müssen über einen relativ langen Produktlebenszyklus und in Automotive-Qualitätsklassen erhältlich sein. Entwickler müssen daher sicherstellen, dass ein einfacher Übergang von den Entwicklungssystemen, auf denen sie ihre Hardware und Software entwickeln und testen, zu qualifizierten kommerziellen Systemen möglich ist.
Große Datenmengen fordern auch die Software
Auf der Softwareseite ist die Datenmenge, die verwaltet werden muss, sehr groß – und die Arbeit mit den heterogenen Multiprozessorsystemen, die zur Verarbeitung dieser Daten nötig sind, vergrößert die Software-Komplexität. Zudem entwickeln sich die Maschinenlern-Algorithmen extrem schnell, sodass es sehr wahrscheinlich ist dass zen-trale Codeteile später im Entwicklungsprojekt überarbeitet werden müssen. Zuverlässigkeits- und Sicherheitsaspekte erschweren den Entwicklungsprozess zusätzlich.
Eine der wesentlichen Aufgaben bei der Entwicklung von Bildverarbeitungssystemen für autonome Fahrzeuge ist die Zusammenführung der Eingangssignale verschiedener Sensoren (auch als Sensorfusion bezeichnet) – zum Beispiel Bildsensoren, LIDAR- und Radarsensoren in einem Fahrzeug, um Defizite einzelner Sensoren zu korrigieren und genauere Ergebnisse für die Positionsbestimmung und die Bewegungsdaten zu ermöglichen. Ist die Endanwendung zum Beispiel eine Kollisionsvermeidung, muss die Sensorfusion mit geringer Latenz erfolgen. Dies ist in der Praxis eine Herausforderung – aber die gute Nachricht ist, dass bereits seit Jahren entsprechende Lösungen entwickelt werden.
Die zweite große Softwareaufgabe besteht in der Implementierung effizienter Maschinenlern-Algorithmen, um die Objekterkennung, -klassifizierung und -verifizierung durchführen zu können, wie sie für ein autonomes Fahrzeug erforderlich ist, das seine Umgebung „verstehen“ und angemessen reagieren muss. Maschinelle Lernstrategien, insbesondere solche, die auf der Nachahmung des menschlichen Gehirns basieren, gibt es seit Jahrzehnten. Die stetige Zunahme der verfügbaren Rechenleistung und die Verfügbarkeit spezieller Prozessoren wie Grafikprozessoren (GPUs) und flexibler Rechenressourcen wie FPGAs (Field Programmable Gate Arrays) als Beschleuniger stellen mittlerweile genügend lokale Rechenleistung bereit, um diese Technologie nicht mehr nur im Labor, sondern auch in der Praxis einzusetzen. Die Verfügbarkeit sehr großer Datensätze, etwa von markierten Bildern, ermöglicht das Training der neuronalen Netze. Aktuelle Forschungen zeigen, dass das Trainieren eines neuronalen Netzwerks zwar viel Rechenleistung erfordert – es gibt jedoch Ansätze, die die Rechenlast trainierter neuronaler Netzwerke reduzieren können.
Artikelfiles und Artikellinks
(ID:45674235)