Kfz-Bordnetze

Wie sich Bilder und Videos optimal im Bordnetz übertragen lassen

Seite: 2/3

Anbieter zum Thema

Komplexität des Systems und Größe der Kameramodule

Single-Pair-Ethernet-Verbindungen im Auto unterstützen derzeit Übertragungsraten bis zu 100 MBit/s. Diese Bandbreitenbegrenzung macht es notwendig, Videos hoher Auflösung in der Kamera zu komprimieren und am anderen Ende der Verbindung wieder zu dekomprimieren (Bild 3). Diese meist nach dem M-JPEG-Verfahren (Motion JPEG) oder H.264/5 durchgeführte Videokompression erfordert einen relativ leistungsfähigen Mikrocontroller in den Kameramodulen, was sowohl die Leistungsaufnahme als auch den Bauteileaufwand und die Kosten des Systems erhöht. Abgesehen davon entstehen durch die Kompression Rausch-Artefakte im Video, was der Effektivität von Objekterkennungs-Algorithmen potenziell abträglich ist.

Die zahlreicheren Bauelemente im Kameramodul machen möglicherweise die Verwendung mehrerer Leiterplatten mit den entsprechenden Steckverbindern sowie unter Umständen auch flexible Leiterplatten erforderlich, was wiederum die Montagekosten und die Abmessungen des Moduls in die Höhe treibt. Gegen Ethernet spricht ferner die Tatsache, dass neuere Bildsensoren in zusätzlichen, zu Steuerungszwecken dienenden Zeilen und Frames möglicherweise größere Mengen an Daten übertragen, die keine Videoinformationen enthalten.

Diese Steuerungsdaten sollten nicht komprimiert werden, da jegliche Bitfehler hier zu einer unkorrekten Verarbeitung in der ECU führen würden. Im Gegensatz dazu kann das FPD-Link SerDes-System die Videosignale unkomprimiert direkt vom Bildsensor der Kamera übertragen. Es ist deshalb deutlich einfacher und erfordert weniger Bauelemente.

Image Sensor Processor muss bei UTP-Kabel ins Kameramodul

Viele Systeme enthalten als Companion Chip einen Image Sensor Processor (ISP) (Bild 3) zur Aufbereitung des Videosignals beispielsweise für die Farb- und Gammakorrektur, die automatische Belichtungsregelung, den Weißabgleich und weitere Funktionen. Dieser Coprozessor muss über ein Steuer-Interface mit geringer, deterministischer Latenz mit dem Bildsensor kommunizieren. Handelt es sich um ein UTP-Kabel ist aus Latenzgründen die Unterbringung des Coprozessors innerhalb des Kameramoduls nötig. Der äußerst latenzarme I2C-Steuerungskanal der SerDes-Lösung dagegen lässt die Anordnung des Coprozessors abgesetzt von der Kamera im ECU zu, sodass Verlustleistung, Größe und thermisches Rauschen des Kameramoduls minimiert werden können.

Typisches SerDes-System mit minimalem Bauteileaufwand

In Bild 4 ist ein typisches, mithilfe eines SerDes-Chipsatzes implementiertes Surround-View-System dargestellt. Bauteileaufwand und Platzbedarf sind gering und helfen damit, die Größe des Kameramoduls zu minimieren. Wichtig ist dies, weil diese Module meist so klein wie möglich sein müssen, um weit entfernten an Orten mit beengten Platzverhältnissen (z.B. im Seitenspiegel oder im Stoßfänger) untergebracht werden zu können. Die Übertragung der Videodaten und der bidirektionalen Steuersignale erfolgt über ein und dasselbe Koaxkabel. Die Tatsache, dass hierfür im Kameramodul kein Mikrocontroller benötigt wird, senkt die Kosten und spart Platz. Die Herstellungskosten werden ebenfalls reduziert, weil sämtliche Bauelemente auf eine Leiterplatte passen.

Ein weiterer Vorteil ist die Möglichkeit, das Koaxkabel auch für die Stromversorgung der dezentralen Kameramodule zu nutzen, die durch den Wegfall separater Steckverbinder für Versorgungsspannung und Masse kleiner konstruiert werden können. Die Verwendung eines einzigen Koax-Steckverbinders für Video, Steuersignale, Versorgungsspannung und Masse erleichtert die Platzierung der Kamera im Fahrzeug und resultiert in niedrigeren Kabel- und Installationskosten. Die Power-over-Coax-Implementierung mit dem SerDes erfolgt auf der Basis gängiger Gleichspannungswandler unter Verwendung eines einfachen Schalters zum Ein- und Ausschalten der Versorgungsspannung sowie für den Schutz im Störungsfall.

Ethernet mit ungünstigen Latenz-Eigenschaften

In Systemen mit mehreren Kameras geht es nicht ohne ein Synchronisieren der Video-Frames. Für Systeme auf Ethernet-Basis greift man zum Synchronisieren der Kameras in der Regel auf AVB-Software (Audio Video Bridging) zurück. Der Verarbeitungsaufwand für die AVB-Software, die Kompression, das Codieren bzw. Decodieren und die Paketbildung kann dazu führen, dass Ethernet-Kameraverbindungen eine Latenz von bis zu 10 ms oder mehr aufweisen.

In einigen ADAS-Anwendungen, zum Beispiel Frontsicht-Kameras aber müssen die Kameras stets eingeschaltet bleiben, und selbst bei Einparkhilfen ist es notwendig, dass die Kameras bei Geschwindigkeiten bis 40 oder 50 km/h aktiv bleiben. Bei diesem Tempo aber legt das Fahrzeug pro Millisekunde mehr als einen Zentimeter zurück (Bild 5).

Distanzen von 5 bis 10 cm wiederum können für das Design von ADAS-Applikationen bereits eine echte Herausforderung darstellen, mit möglichen Auswirkungen auf die Performance-Reserven des Systems und die Integrität des Fahrzeugs. Hier bewähren sich SerDes-Lösungen wie der Chipsatz DS90UB913A/914A, dessen maximale Latenz von 15 µs bei einer Fahrgeschwindigkeit von 50 km/h einer Fahrstrecke von nur 0,2 mm entspricht.

(ID:42530453)