NXP: So bringt man Ethik und Edge-KI zusammen
Anbieter zum Thema
Was bedeutet KI-Ethik für Embedded-Entwickler? NXP hat einen Leitfaden entwickelt, der anhand von fünf Prinzipien die Integration ethischer Aspekte in KI-Komponenten und -Systeme für Edge-Geräte aufzeigt.

Je mehr das Thema Künstliche Intelligenz (KI) in den Fokus der öffentlichen Aufmerksamkeit rückt, desto lauter werden die Rufe nach ethischen Grenzwerten, die eine KI nicht überschreiten darf. Das betrifft ganz besonders die Elektronikbranche, in der KI-Systeme letztlich entwickelt werden – zum Beispiel für die Medizintechnik oder Automotive-Anwendungen.
Über die letzten Monate haben viele Akteure Ethik-Richtlinien formuliert, die KI-Algorithmen tunlichst einhalten sollen. Auch auf höchster politischer Ebene wird das Thema diskutiert. So hat etwa Ursula von der Leyen vor dem EU-Parlament versprochen, einen „ethischen Rahmen für Künstliche Intelligenz“ zu schaffen. Doch bleiben solche Ankündigungen zahnlos, wenn nicht klar ist, wie man sie umsetzen und kontrollieren soll. Ohne konkrete Anweisungen bleibt es oft bei salbungsvollen Worten.
Rahmenwerk für Edge-KI-Ethik entwickelt
Hier will der europäische Halbleiterhersteller NXP Semiconductors mit gutem Beispiel vorangehen: Er hat eine eigene KI-Ethik-Initiative gestartet und ein umfassendes Rahmenwerk für die Integration ethischer Aspekte in KI-Komponenten und -Systeme auf Edge-Geräten entwickelt. „Neben unserem Innovationsgeist ist Ethik der Kern dessen, was NXP ausmacht“, sagt Kurt Sievers, Präsident und Chief Executive Officer (CEO) von NXP.
„Als Innovatoren im Bereich der KI sind wir der Anwendung ethischer Prinzipien verpflichtet. Verbraucher würden sich zunehmend auf KI verlassen und KI-Anwendungen mehr und mehr Verantwortung bei der Entscheidungsfindung im Alltag überlassen. Insbesondere am „Edge“ wollen Menschen, dass ihre Geräte transparent, fair und sicher funktionieren, während sie gleichzeitig die Kontrolle über ihre Privatsphäre behalten. „Dabei ist die Sicherheit der Schlüssel: Wir glauben, dass der Aufbau von Vertrauen in KI mit dem Schutz der Geräte beginnt“, sagt Sievers.
Sicherheit ist der Schlüssel für den Aufbau von Vertrauen in KI
Die im neuen Whitepaper „The Morals of Algorithms“ (Die Moral der Algorithmen) veröffentlichten KI-Prinzipien reichen von der Erklärbarkeit von KI-Entscheidungen über den Datenschutz bis hin zu „Security by Design“. Nach eigenen Angaben wurzeln die Prinzipien tief in den Unternehmenswerten von NXP, seinen ethischen Richtlinien sowie der langen Tradition bei der Entwicklung fortschrittlicher Sicherheitsvorrichtungen. Laut NXP ist das KI-Rahmenwerk das Ergebnis einer unternehmensübergreifenden Zusammenarbeit. Es soll Einblicke und Beiträge von Ingenieuren sowie kundenorientierten Teams auf der ganzen Welt umfassen.
Am Edge, also nahe an dem Ort, an dem physikalische Werte erfasst und in digitale Daten gewandelt werden, ist es besonders wichtig, dass eine KI keine falschen Entscheidungen trifft. Hier nehmen Geräte ihre Umgebung wahr, interpretieren, analysieren die gesammelten Daten und reagieren nach Möglichkeit in Echtzeit darauf.
Hier getroffene Entscheidungen können ernsthafte Auswirkungen auf nachgelagerte Systeme haben – und möglicherweise auch auf die Gesundheit von Menschen. Nicht umsonst sind die Sicherheitsanforderungen beispielsweise an Komponenten, die in Fahrzeugen zum Einsatz kommen, sehr hoch.
Fünf Prinzipien für KI am Edge
Auf Basis des neuen Rahmenwerks will NXP gezielt Programme für seine Mitarbeiter entwickeln, die ihnen bei der Umsetzung von fünf KI-Prinzipien helfen sollen, die NXP folgendermaßen definiert: Nicht-Boshaftigkeit („Sei gut“), Menschliche Autonomie („Menschen-zentrierte KI“), Erklärbarkeit („Transparent arbeiten“), fortgesetzte Aufmerksamkeit und Wachsamkeit („Hohe Standards & Ökosysteme“), Datenschutz und Sicherheit von Beginn an („Vertrauenswürdige KI-Systeme“).
Dass KI-Ethik sich nicht einmal definieren und dann in Stein meißeln lässt, sondern ein fortwährender Prozess ist, ist auch NXP klar. Schließlich ist es keine einfache Aufgabe, ethische Grundwerte – die nicht absolut sind, sondern auch von Menschen je nach kulturellem und sozioökonomischem Hintergrund unterschiedlich gewichtet werden – in einen Regelsatz für Maschinen umzusetzen.
Fortwährender Prozess erfordert Austausch mit vielen Akteuren
Daher arbeitet NXP nach eigenen Angaben kontinuierlich mit führenden akademischen Institutionen, Forschungsorganisationen und wegweisenden Technologiefirmen zusammen, um die Entwicklung zu unterstützen und zu fördern. Darüber hinaus ist NXP Partner der Charter of Trust, einer 2018 gegründeten branchenübergreifenden Initiative, die das Ziel verfolgt, die digitale Welt von morgen sicherer zu machen.
Letztendlich komme es beim Thema Ethik auf die Menschen an, sagt Sievers: „Indem wir ethische Prinzipien in Geräte einbauen, die Daten an der ‚Edge‘ erfassen, interpretieren und analysieren, können wir eine KI ermöglichen, die ethisch handelt.“ NXPs Kunden würden sich darauf verlassen, dass die eigenen Lösungen die Grundprinzipien einhalten und die Transformation von Künstlicher Intelligenz sicher vorantreiben.
Glow: Neuronale Netze auf MCUs optimieren
NXP sieht sich selbst als Vorreiter der KI-Revolution. Tatsächlich bietet das Unternehmen ein Portfolio an Mikrocontrollern (MCUs) und Prozessoren an, die für KI-Anwendungen und maschinelles Lernen auf Edge-Geräten optimiert sind. Erst kürzlich hat das Unternehmen den Glow-Compiler zur Optimierung neuronaler Netze auf MCUs mit niedrigem Stromverbrauch vorgestellt. Ebenfalls in diesem Jahr kündigte NXP eine integrierte maschinelle Lernbeschleunigung für seine i.MX-8M-Plus-Prozessorfamilie an und veröffentlichte sein eIQ-Auto-Toolkit für Automobilanwendungen.
Die Produkte würden dabei helfen, Geräte wie Thermostate, Roboter, Sensoren für Autos sowie Sicherheitssysteme und Lösungen für die Industrieautomation nicht nur intelligent, sondern auch schneller, flexibler und sicherer zu machen. Im Einklang mit den selbst auferlegten fünf KI-Prinzipien.
Hier können Sie das Whitepaper „The Morals of Algorithms“ herunterladen.
:quality(80)/images.vogel.de/vogelonline/bdb/1700100/1700111/original.jpg)
Wie bringt man ethische Werte in die KI?
:quality(80)/p7i.vogel.de/wcms/95/26/952606c2ca9d5c3aa7c6f6acae5745b4/91306304.jpeg)
KI in der Medizin: Ethik muss Teil des Entwicklungsprozesses sein
(ID:46908747)