Roboter bewegen sich heute mittels Hardwaresensoren und Software-Algorithmen selbstständig am Arbeitsplatz. Dies eröffnet ganz neue Einsatzgebiete. Roboter werden künftig vermehrt zu Hause und am Arbeitsplatz zu finden sein.
Roboter bewegen sich am Arbeitsplatz mittlerweile selbstständig.
(Bild: Mouser)
Schon seit fast 70 Jahren sind Industrieroboter sehr beweglich. Bereits der allererste Industrieroboter hatte einen zentralen „Arm“ mit neun Freiheitsgraden und ermöglichte Roll- und Gierbewegungen in der „Hand“. Dabei lassen sich die relativen Positionen dieser beweglichen Teile auf verschiedene Weise verfolgen.
Das einfachste Bewegungsverfahren dürfte das so genannte „Dead Reckoning“ sein, das auch als „Koppelnavigation“ bezeichnet wird und bei dem die Position relativ zu einem bekannten Startpunkt gemessen wird. Das Ausmaß der Bewegung hängt dann davon ab, wie lange die Antriebskraft aufgebracht wird. Diese Methode setzt voraus, dass die Beweglichkeit der beteiligten Teile unter allen Bedingungen gleich ist. Durch den Einsatz von Sensoren kann dies weiter verbessert werden.
Wenn man die Umdrehungen eines laufenden Motors zählt, ist die aus der Anzahl der Umdrehungen errechnete Bewegungsstrecke absolut. Durch die Kombination dieser Messungen für jedes motorgesteuerte Teil eines Roboterarms lässt sich dieser im dreidimensionalen Raum positionieren. Somit kann der Roboter erfassen, wo er sich in seinem Arbeitsraum befindet. Für diese Art der Positionserfassung werden unter anderem folgende Sensoren verwendet:
• Potenziometer,
• optische Encoder,
• Hall-Effekt-Sensoren.
Dieses Verfahren zur Positionsbestimmung funktioniert gut in einer Umgebung, in der nichts „Unerwartetes“ passiert. Es bietet jedoch nicht das Maß an räumlicher Erfassung, das von Robotern verlangt wird, die in einer offeneren Umgebung arbeiten sollen. Aber selbst statische Roboter besitzen bessere Fähigkeiten, wenn sie ihre Umgebung erfassen und verstehen können.
Eine der wichtigsten Innovationen in diesem Bereich war die Entwicklung von MEMS-basierenden Bewegungssensoren. MEMS ist eine Technologie, die elektromechanische Funktionen in der Größe von IC-Bauelementen bietet. Daraus entsteht ein Sensor, der an jeder Seite nur wenige Millimeter groß ist. Dennoch kann er Bewegungen in neun Freiheitsgraden erfassen. Damit eröffnet er völlig neue Möglichkeiten für die Positionserfassung durch Koppelnavigation. MEMS-Sensoren unterstützen Steuerungssysteme dabei, die Winkelposition aller ihrer beweglichen Teile genau zu erfassen.
Der Neigungsmesser SCL3300 von Murata ist ein hervorragendes Beispiel für diese in der Robotik angewandte Technologie. Er misst die Bewegung in drei Achsen mit kapazitiver 3D-MEMS-Technologie. Das MEMS-Gyroskop iSensor von Analog Devices kann außerdem die Winkelgeschwindigkeit auf der Grundlage der Beschleunigung messen. Es liefert eine Ausgabe, die auf einem relativen Verschiebungswinkel basiert. Steuerungssysteme können diese Informationen nutzen, um die Bewegungsgeschwindigkeit zu überwachen.
Roboter nutzen Licht für die dreidimensionale Orientierung
Zu den weiteren Sensortechnologien, die heute in der Robotik eingesetzt werden, zählt Time of Flight (ToF). Dabei handelt es sich um ein Verfahren, das den Abstand zwischen einem Sender und einem Empfänger genau misst, indem es die Zeit erfasst, die das Licht benötigt, um sich zwischen zwei Punkten zu bewegen. Dieses Verfahren ist nicht neu, sondern wird schon seit vielen Jahren in Autofokus-Kameras eingesetzt und gilt daher als eine bewährte Technologie. Mehrere Hersteller bieten ToF-Sensoren für Anwendungen an, bei denen es auf eine präzise Abstandsmessung ankommt. ToF kann nicht nur zur Näherungserkennung eingesetzt werden, sondern auch sehr detaillierte 3D-Reliefabbildungen einer Oberfläche liefern. Roboter können ToF also auch zur Erkennung und sogar zur Identifizierung von Objekten verwenden.
Für Entwickler, die ToF in einer Roboteranwendung einsetzen möchten, ist das Videomodul Basler Blaze 101 ein ausgezeichneter Ausgangspunkt. Diese ToF-Kamera erreicht über eine Entfernung von mehreren Metern beinahe eine millimetergenaue Präzision. Sie bietet einen Echtzeit-Stream vorverarbeiteter Bilder mit 3D-Punkten und 2D-Intensität. Beim ToF-Verfahren wird reflektiertes Licht erfasst, sodass nur Objekte „gesehen“ werden können, die direkt mit diesem Licht in einer Linie liegen. Dadurch stehen genügend Daten zur Verfügung, um so genannte „Punktwolken“ zu erzeugen, mit denen die von den ToF-Technologien erzeugten 3D-Bilder beschrieben werden.
Diese Punktwolken können dann mit Hilfe von KI-Techniken weiterverarbeitet werden, um Formen zu erkennen und ihre Entfernung zu bestimmen. Dies ist besonders wichtig für Roboter, die Objekte zunächst erkennen müssen, bevor sie diese bearbeiten können und auch dann, wenn sie sich auf einem Förderband bewegen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Roboter-Navigation mit LiDAR
Die LiDAR-Technologie (Light Detection and Ranging) ist eine weitere Technologie, die Einzug in die Robotik und insbesondere in Bewegungsroboter hält. Diese Technologie nutzt das Licht und ähnelt damit in vielerlei Hinsicht der ToF-Technologie. ToF kann als eine Unterkategorie von LiDAR angesehen werden.
Die LiDAR-Technologie arbeitet im Prinzip mit der Messung der Amplituden- oder Phasenänderung der reflektierten Lichtquelle. Die gesteuerte (typischerweise gepulste) Lichtquelle wird beim Scanning-LiDAR gelenkt oder fixiert, wenn das System kein 3D-Bild liefert.
Die Größe dieser Amplituden- oder Phasenverschiebung der reflektierten Lichtquelle zeigt die Entfernung des gescannten Objekts an. LiDAR-Systeme sind heute klein und genau genug für den Einsatz in der Robotik. Die RealSense LiDAR-Kamera L515 von Intel ist eine Festkörper-LiDAR-Tiefenkamera, die einen MEMS-basierten Spiegel verwendet, der das Sichtfeld abtasten kann. In einem Video ist die Technologie Aktion zu sehen.
Die nächste große Herausforderung für mobile Roboter
Diese Technologien werden heute in der Robotik eingesetzt, um eine der nächsten großen Herausforderungen für Entwickler und Hersteller anzugehen: Wie können Roboter in die Lage versetzt werden, sich in einer ungewohnten Umgebung zu bewegen? Dieses Problem ist nicht nur auf den Bereich der Robotik beschränkt, sondern beschäftigt auch die Informatiker und Ingenieure, die sich mit künstlicher und virtueller Realität beschäftigen.
Das SLAM-Verfahren (Simultane Lokalisierung und Kartierung) ist eine der Technologien, die derzeit entwickelt werden. Hierbei wird ein Bereich abgetastet und die Objekte in diesem Sichtfeld abgebildet. Gleichzeitig wird die Position des Abtastgeräts kompensiert, während es sich durch den Raum bewegt. Dadurch entsteht eine Karte der Umgebung und der darin befindlichen Objekte. Autonome Fahrzeuge werden mit SLAM navigieren, und Roboter verwenden dieselbe Technologie, um ihre Autonomie zu verbessern.
Halbleiterhersteller, die Lösungen für die Robotik entwickeln, bieten auch Software Development Kits an. Sie unterstützen die Integration von Hardware wie Positions- und Navigationssensoren mit Software-Algorithmen zur Implementierung von SLAM. Weitere Informationen über Software und Betriebssysteme, die in der Robotik eingesetzt werden, erfahren Sie im nächsten Blog dieser Serie.
Schauen Sie sich in der Zwischenzeit auch die weiteren Ressourcen von Mouser an, um mehr über die Welt der Robotik zu erfahren.
Details zur Reihe „Prägende Schlüsseltechnologien der Robotik“
In dieser sechsteiligen Serie wirft Mouser einen Blick auf die Schlüsseltechnologien, die prägend für die Art und Weise sind, wie Roboter heute konstruiert und eingesetzt werden, und wie sich dies in Zukunft entwickeln könnte. Dabei geht es um Entwicklungen auf der Hard- und Softwareebene sowie um die Frage, auf welche Weise Innovationen wie die KI bereits heute die Zukunft der Robotik beeinflussen.