Data Respons

Echtzeit-Videoverarbeitung besser über FPGA betreiben

Seite: 2/2

Anbieter zum Thema

Für Applikationen mit variabler Videoverarbeitung werden die Verarbeitungseinheiten als autonome Geräte zusammengeschlossen, die sich eine bestehende interne und externe Bandbreite teilen. FPGAs haben relativ geringe interne Speicherkapazitäten, so dass breite parallele Speicherschnittstellen von den Videoverarbeitungseinheiten angesteuert werden müssen. Indem man einen Prozessorkern für die übergeordnete Applikation hinzufügt, erhält man ein komplettes Mikrosystem.

Algorithmen für die Bildverarbeitung

Data Respons war in letzter Zeit an mehreren Entwicklungsprojekten für Echtzeit-Videoverarbeitung für unterschiedliche Kundenapplikationen beteiligt. Der Kern dieser Systeme besteht immer aus einem leistungsfähigen FPGA für die benötigten Rechenoperationen, einem internen oder externen Prozessor zur Steuerung, und aus der erforderlichen Menge paralleler Speicherschnittstellen und Video-I/O-ICs. Beispiele für implementierte Algorithmen sind: Skalierungsfilter mit auswechselbaren Filterkernen, die elektronische Bildstabilisierung basierend auf Fourier-Transformationen, Bildoptimierung basierend auf Luminanzhistogrammen oder Wavelet-Transformationen und das Mischen von mehreren Kameraquellen.

Der Entwicklungsablauf beginnt immer mit Bandbreitenberechnungen, um die tatsächlichen Anforderungen an die Verarbeitung zu klären, gefolgt von der Vorstudie, in der in Frage kommende Implementierungen bewertet und verfügbare FPGA-Technologien ohne technologische Präferenzen untersucht werden. Die Implementierung wird immer gegen Softwaremodelle verifiziert und Echtzeit-Systemtests mit realen Videoquellen und Applikationssoftware unterzogen. Jeglicher Code sollte portierbar sein, um Applikationen bei neuen Anforderungen anpassen oder um Upgrades auf die nächste FPGA-Generation durchführen zu können.

Artikelfiles und Artikellinks

(ID:310919)