Robotertechnologie Teil 3 Robotik: Optimierte Positionierung und Navigation ermöglicht Heimroboter

Von Mark Patrick*

Anbieter zum Thema

Roboter bewegen sich heute mittels Hardwaresensoren und Software-Algorithmen selbstständig am Arbeitsplatz. Dies eröffnet ganz neue Einsatzgebiete. Roboter werden künftig vermehrt zu Hause und am Arbeitsplatz zu finden sein.

Roboter bewegen sich am Arbeitsplatz mittlerweile selbstständig.
Roboter bewegen sich am Arbeitsplatz mittlerweile selbstständig.
(Bild: Mouser)

Schon seit fast 70 Jahren sind Industrieroboter sehr beweglich. Bereits der allererste Industrieroboter hatte einen zentralen „Arm“ mit neun Freiheitsgraden und ermöglichte Roll- und Gierbewegungen in der „Hand“. Dabei lassen sich die relativen Positionen dieser beweglichen Teile auf verschiedene Weise verfolgen.

Das einfachste Bewegungsverfahren dürfte das so genannte „Dead Reckoning“ sein, das auch als „Koppelnavigation“ bezeichnet wird und bei dem die Position relativ zu einem bekannten Startpunkt gemessen wird. Das Ausmaß der Bewegung hängt dann davon ab, wie lange die Antriebskraft aufgebracht wird. Diese Methode setzt voraus, dass die Beweglichkeit der beteiligten Teile unter allen Bedingungen gleich ist. Durch den Einsatz von Sensoren kann dies weiter verbessert werden.

Wenn man die Umdrehungen eines laufenden Motors zählt, ist die aus der Anzahl der Umdrehungen errechnete Bewegungsstrecke absolut. Durch die Kombination dieser Messungen für jedes motorgesteuerte Teil eines Roboterarms lässt sich dieser im dreidimensionalen Raum positionieren. Somit kann der Roboter erfassen, wo er sich in seinem Arbeitsraum befindet. Für diese Art der Positionserfassung werden unter anderem folgende Sensoren verwendet:

• Potenziometer,

• optische Encoder,

• Hall-Effekt-Sensoren.

Dieses Verfahren zur Positionsbestimmung funktioniert gut in einer Umgebung, in der nichts „Unerwartetes“ passiert. Es bietet jedoch nicht das Maß an räumlicher Erfassung, das von Robotern verlangt wird, die in einer offeneren Umgebung arbeiten sollen. Aber selbst statische Roboter besitzen bessere Fähigkeiten, wenn sie ihre Umgebung erfassen und verstehen können.

Miniatur-Bewegungssensoren liefern entscheidende Informationen

Eine der wichtigsten Innovationen in diesem Bereich war die Entwicklung von MEMS-basierenden Bewegungssensoren. MEMS ist eine Technologie, die elektromechanische Funktionen in der Größe von IC-Bauelementen bietet. Daraus entsteht ein Sensor, der an jeder Seite nur wenige Millimeter groß ist. Dennoch kann er Bewegungen in neun Freiheitsgraden erfassen. Damit eröffnet er völlig neue Möglichkeiten für die Positionserfassung durch Koppelnavigation. MEMS-Sensoren unterstützen Steuerungssysteme dabei, die Winkelposition aller ihrer beweglichen Teile genau zu erfassen.

Der Neigungsmesser SCL3300 von Murata ist ein hervorragendes Beispiel für diese in der Robotik angewandte Technologie. Er misst die Bewegung in drei Achsen mit kapazitiver 3D-MEMS-Technologie. Das MEMS-Gyroskop iSensor von Analog Devices kann außerdem die Winkelgeschwindigkeit auf der Grundlage der Beschleunigung messen. Es liefert eine Ausgabe, die auf einem relativen Verschiebungswinkel basiert. Steuerungssysteme können diese Informationen nutzen, um die Bewegungsgeschwindigkeit zu überwachen.

Roboter nutzen Licht für die dreidimensionale Orientierung

Zu den weiteren Sensortechnologien, die heute in der Robotik eingesetzt werden, zählt Time of Flight (ToF). Dabei handelt es sich um ein Verfahren, das den Abstand zwischen einem Sender und einem Empfänger genau misst, indem es die Zeit erfasst, die das Licht benötigt, um sich zwischen zwei Punkten zu bewegen. Dieses Verfahren ist nicht neu, sondern wird schon seit vielen Jahren in Autofokus-Kameras eingesetzt und gilt daher als eine bewährte Technologie. Mehrere Hersteller bieten ToF-Sensoren für Anwendungen an, bei denen es auf eine präzise Abstandsmessung ankommt. ToF kann nicht nur zur Näherungserkennung eingesetzt werden, sondern auch sehr detaillierte 3D-Reliefabbildungen einer Oberfläche liefern. Roboter können ToF also auch zur Erkennung und sogar zur Identifizierung von Objekten verwenden.

Für Entwickler, die ToF in einer Roboteranwendung einsetzen möchten, ist das Videomodul Basler Blaze 101 ein ausgezeichneter Ausgangspunkt. Diese ToF-Kamera erreicht über eine Entfernung von mehreren Metern beinahe eine millimetergenaue Präzision. Sie bietet einen Echtzeit-Stream vorverarbeiteter Bilder mit 3D-Punkten und 2D-Intensität. Beim ToF-Verfahren wird reflektiertes Licht erfasst, sodass nur Objekte „gesehen“ werden können, die direkt mit diesem Licht in einer Linie liegen. Dadurch stehen genügend Daten zur Verfügung, um so genannte „Punktwolken“ zu erzeugen, mit denen die von den ToF-Technologien erzeugten 3D-Bilder beschrieben werden.

Diese Punktwolken können dann mit Hilfe von KI-Techniken weiterverarbeitet werden, um Formen zu erkennen und ihre Entfernung zu bestimmen. Dies ist besonders wichtig für Roboter, die Objekte zunächst erkennen müssen, bevor sie diese bearbeiten können und auch dann, wenn sie sich auf einem Förderband bewegen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Roboter-Navigation mit LiDAR

Die LiDAR-Technologie (Light Detection and Ranging) ist eine weitere Technologie, die Einzug in die Robotik und insbesondere in Bewegungsroboter hält. Diese Technologie nutzt das Licht und ähnelt damit in vielerlei Hinsicht der ToF-Technologie. ToF kann als eine Unterkategorie von LiDAR angesehen werden.

Die LiDAR-Technologie arbeitet im Prinzip mit der Messung der Amplituden- oder Phasenänderung der reflektierten Lichtquelle. Die gesteuerte (typischerweise gepulste) Lichtquelle wird beim Scanning-LiDAR gelenkt oder fixiert, wenn das System kein 3D-Bild liefert.

Die Größe dieser Amplituden- oder Phasenverschiebung der reflektierten Lichtquelle zeigt die Entfernung des gescannten Objekts an. LiDAR-Systeme sind heute klein und genau genug für den Einsatz in der Robotik. Die RealSense LiDAR-Kamera L515 von Intel ist eine Festkörper-LiDAR-Tiefenkamera, die einen MEMS-basierten Spiegel verwendet, der das Sichtfeld abtasten kann. In einem Video ist die Technologie Aktion zu sehen.

Die nächste große Herausforderung für mobile Roboter

Diese Technologien werden heute in der Robotik eingesetzt, um eine der nächsten großen Herausforderungen für Entwickler und Hersteller anzugehen: Wie können Roboter in die Lage versetzt werden, sich in einer ungewohnten Umgebung zu bewegen? Dieses Problem ist nicht nur auf den Bereich der Robotik beschränkt, sondern beschäftigt auch die Informatiker und Ingenieure, die sich mit künstlicher und virtueller Realität beschäftigen.

Das SLAM-Verfahren (Simultane Lokalisierung und Kartierung) ist eine der Technologien, die derzeit entwickelt werden. Hierbei wird ein Bereich abgetastet und die Objekte in diesem Sichtfeld abgebildet. Gleichzeitig wird die Position des Abtastgeräts kompensiert, während es sich durch den Raum bewegt. Dadurch entsteht eine Karte der Umgebung und der darin befindlichen Objekte. Autonome Fahrzeuge werden mit SLAM navigieren, und Roboter verwenden dieselbe Technologie, um ihre Autonomie zu verbessern.

Halbleiterhersteller, die Lösungen für die Robotik entwickeln, bieten auch Software Development Kits an. Sie unterstützen die Integration von Hardware wie Positions- und Navigationssensoren mit Software-Algorithmen zur Implementierung von SLAM. Weitere Informationen über Software und Betriebssysteme, die in der Robotik eingesetzt werden, erfahren Sie im nächsten Blog dieser Serie.

Schauen Sie sich in der Zwischenzeit auch die weiteren Ressourcen von Mouser an, um mehr über die Welt der Robotik zu erfahren.

Details zur Reihe „Prägende Schlüsseltechnologien der Robotik“

In dieser sechsteiligen Serie wirft Mouser einen Blick auf die Schlüsseltechnologien, die prägend für die Art und Weise sind, wie Roboter heute konstruiert und eingesetzt werden, und wie sich dies in Zukunft entwickeln könnte. Dabei geht es um Entwicklungen auf der Hard- und Softwareebene sowie um die Frage, auf welche Weise Innovationen wie die KI bereits heute die Zukunft der Robotik beeinflussen.

Teil 1: Von stationären Roboterarmen bis hin zu autonomen mobilen Robotern.

Teil 2: Mobilität und Geschicklichkeit

Teil 3: Positionierung und Navigation

Teil 4: Roboter-Betriebssysteme

Teil 5: Kollaborative Roboter (CoBots) und KI

Teil 6: Die Zukunft der Robotik

Zu Mouser

* Mark Patrick ist Technical Marketing Manager EMEA Marketing bei Mouser.

(ID:47330902)