Intelligente 3D-Brille unterstützt Sehbehinderte im Alltag

Redakteur: Sebastian Gerstl

Zusammen mit dem CDTM-Institut der TU München hat FRAMOS ein neuartiges System aus mit KI ausgestatteter 3D-Brille und Wearable am Arm entwickelt. Dieses soll die Wahrnehmung von Sehbehinderten erweitern, indem visuelle Informationen in andere Sinne übersetzt werden

Anbieter zum Thema

Navigationshilfe 3D-Brille: Ein von der TU München und FRAMOS gemeinsam entwickeltes System setzt räumlich erfasste Bildinformationen in Echtzeit in akustische und haptische Signale um, um Sehbehinderten die Orientierung zu erleichtern.
Navigationshilfe 3D-Brille: Ein von der TU München und FRAMOS gemeinsam entwickeltes System setzt räumlich erfasste Bildinformationen in Echtzeit in akustische und haptische Signale um, um Sehbehinderten die Orientierung zu erleichtern.
(Bild: FRAMOS)

Das Auge ist wahrscheinlich der wichtigste menschliche Sinn. Aber visuelle Eindrücke und Informationen bleiben für über 108 Millionen Blinde und Sehbehinderte weltweit verborgen. Die Namen von Geschäften, Straßen, die Linien öffentlicher Verkehrsmittel oder Verkehrszeichen sind unsichtbar, eine Navigation ohne diese Informationen ist für die Betroffenen eine echte Herausforderung. Die von FRAMOS und der TU München entwickelten 3D-Brillen sollen nun für Sehbehinderte eine neuartige Möglichkeit schaffen, ihre Umgebung zu erkunden und dabei von fortschrittlichster Technologie zu profitieren.

Wenn sich Sehbehinderte nicht mehr auf ihre Augen verlassen können, müssen andere Sinne einspringen, um ihnen den Alltag leichter zu machen. Hier setzt das gemeinsam von der TU München und FRAMOS entwickelte System an: Eine mit Kameras und Sensorik ausgestattete 3D-Brille erfasst die Umgebung. Das System erfasst die visuellen Informationen und setzt sie in Echtzeit um: Teilweise in akustische Signale, teilweise in Form von haptischem Feedback auf eine am Arm getragene Manschette.

Bildergalerie

Die 3D-Brillen sind mit Intel RealSense Stereokameras ausgestattet. Intelligente Algorithmen übersetzen die visuellen Signale in haptische und akustische Informationen. Die Audioinformation basiert auf der Erkennung von Objekten und Schriften.

Über ein mit Vibrationsmotoren ausgestattetes Armband erhält der Träger zudem haptische Informationen, die ihn über Distanzen und Bewegung von Dingen in seinem Sichtfeld informiert. Diese neue Art der Wahrnehmung soll es Blinden und Sehbehinderten ermöglichen, ihre Umgebung vollständig zu erfassen und so sicher zu navigieren.

GPS-Sensor und LTE-Modul steuern das System

Das System selbst wird von einem Processing-Hub mit einem GPS-Sensor zur Positionsbestimmung und einem LTE-Modul zur mobilen Datenverbindung gesteuert. Ein Mikrochip sendet die Daten via Bluetooth an das durch ein 2D-Array und Vibrationsmotoren betriebene Armband. Eine Sprachsteuerung erleichtert die Interaktion, wiederaufladbare Batterien ermöglichen eine ganztägige Nutzung.

"Wir sind stolz darauf, mit modernster Technologie eine Anwendung entwickelt zu haben, die einen großen Einfluss auf das tägliche Leben von Sehbehinderten hat," sagt Dr. Christopher Scheubel, FRAMOS Business Development. "Das Außergewöhnliche an der Technologie ist die Fähigkeit, visuelle Informationen zu liefern, die normalerweise vom menschlichen Auge ausgegeben werden und diese neu zu übersetzen. Unsere Technologie schafft damit eine neue Art der Wahrnehmung."

Mit mehr als 37 Jahren Erfahrung ist FRAMOS einer der Vorreiter in der Bildverarbeitung und hilft Kunden bei der Entwicklung innovativer und wettbewerbsfähiger Vision-Systeme. Als globaler Bildverarbeitungsexperte bietet FRAMOS ein breites Lösungsportfolio, das von Sensoren über komplette Systeme bis hin zu zusätzlichen Dienstleistungen in allen Phasen der Imaging-Wertschöpfungskette reicht.

(ID:45150897)