KI trifft auf Bildverarbeitung Wie eine smarte Drohne kritische Infrastruktur selbstständig inspiziert

Von Manuel Christa 2 min Lesedauer

Anbieter zum Thema

Drei Meter Abstand, ein Strommast, eine Drohne mit Kamera: An der Universität Klagenfurt testen Forschende, wie autonome Quadrocopter mit KI kritische Infrastruktur untersuchen, ganz ohne menschlichen Eingriff.

(Bild:  IDS Imaging/Uni Klagenfurt)
(Bild: IDS Imaging/Uni Klagenfurt)

Ausgestattet mit einer Kamera von IDS und einem kompakten KI-System, fliegen sie Strommasten millimetergenau ab und erkennen Isolatoren und deren Position. Das soll gefährliche Inspektionsflüge für Menschen überflüssig machen.

KI verleiht der Drohne Objektverständnis

Das Projektteam hat eine Drohne entwickelt, die selbstständig erkennt, was sie sieht, und sich daran orientiert. Dafür kombinieren die Forschenden intelligente Bildverarbeitung mit einem KI-basierten Navigationsalgorithmus. Beim Flug um Strommasten identifiziert die Drohne mithilfe KI-gestützter Bildverarbeitung Isolatoren und schätzt deren Position im Raum. Statt bloßer Farbwerte interpretiert die Software Bildpunkte als Bestandteile relevanter Objekte – eine Technik, die als semantische Bildverarbeitung bezeichnet wird.

Bildergalerie
Bildergalerie mit 6 Bildern

Thomas Georg Jantos, Doktorand in Klagenfurt, sagt: „Die genaue Lokalisierung ist wichtig, damit die Kameraaufnahmen auch vergleichbar sind.“ Statt einer simplen GPS-Position erlaubt die Objektposenschätzung Aussagen wie „1,5 Meter links vom oberen Isolator“.

Echtzeit mit wenig Rechenleistung

Damit die KI ihre Entscheidungen in Echtzeit treffen kann, müssen sämtliche Bilddaten an Ort und Stelle verarbeitet werden. Rechenleistung und Energieversorgung sind aber in kleinen Drohnen limitiert. Um dennoch komplexe KI-Modelle in Echtzeit nutzen zu können, kommt ein Nvidia Jetson Orin AGX zum Einsatz. Eine Kamera aus der uEye LE-Serie von IDS mit Sony Pregius Sensor erfasst 3,19-Megapixel-Bilder bei bis zu 58 Bildern pro Sekunde – verzerrungsfrei durch Global Shutter-Technologie.

„Die Fähigkeiten der Kamera sind essentiell für den neuartigen KI-basierten Navigationsalgorithmus.“, betont Jantos. Die Software IDS peak SDK bindet die Kamera ins Robot Operating System (ROS) ein und erlaubt effiziente Steuerung der Kamerafunktionen.

Sensorfusion stabilisiert den Flug

Die Steuerung übernimmt ein Pixhawk PX4-Autopilot. Die Drohne nutzt eine IMU zur Lageerkennung, kombiniert mit Bilddaten. Ein Kalman-Filter prognostiziert Bewegung und gleicht sie mit Sensordaten ab, um die aktuelle Position und Fluglage der Drohne präzise zu berechnen. So bleibt die Drohne stabil und präzise.

Die Tests laufen in der Drohnenhalle der Universität Klagenfurt. Die Drohne fliegt in konstantem Abstand von etwa drei Metern um die Isolatoren – autonom und unter wiederholbaren Bedingungen. Der CNS Flight Stack übernimmt Flugplanung, Missionsmanagement und Datenerfassung. Jantos sieht darin einen Standard für die Zukunft: „Industriekameras sind notwendig für viele Anwendungen in der mobilen Robotik. Wichtig ist, dass sie robust, kompakt, schnell und hochauflösend sind.“ (mc)

(ID:50441568)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung