Sprachbasieter Wake-Up für KI-Beschleunigung Ultra-Low-Power NPU mit Energiebedarf von unter 1 mW

Von Sebastian Gerstl 2 min Lesedauer

Anbieter zum Thema

Die Akida Pico NPU von Brainchip zielt auf KI-Anwendungen für die Analyse von Sprache, Audio und Vitaldaten in kompakten und mobilen Anwendungen ab und verspricht einen maximalen Energiebedarf von nur 1 mW.

Blockdiagramm der Akida-Pico-IP, der ersten „Ultra-Low-Power“-NPU von Brainchip.(Bild:  Brainchip)
Blockdiagramm der Akida-Pico-IP, der ersten „Ultra-Low-Power“-NPU von Brainchip.
(Bild: Brainchip)

Brainchip, ein Fabless-Entwickler von IPs für Neural Processing Units (NPUs), hat mit Akida Pico seine erste „Ultra-Low-Power“-NPU angekündigt. Die lizenzierbare Chip-IP zielt auf Produkte ab, die im μW- bis mW-Bereich arbeiten sowie auf „always-on“-batteriebetriebene Geräte mit Anwendungsfällen, die eine lange Betriebsdauer erfordern.

Die Akida Pico NPU ist nach eigenen Angaben der stromsparendste KI-Beschleunigungs-Coprozessor, der auf dem Markt erhältlich ist. Sie soll primär zur Entwicklung von sehr kompakten, tragbaren und intelligenten Geräten für Wearables und sensorintegrierte KI dienen. Anwendungsfälle sind Consumer-Elektronik, tragbare Medizintechnik, IoT-, Verteidigungs- und Wake-up-Anwendungen dienen.

Nach Angaben des Unternehmens ist er für „Sprach-Wach-Erkennung, Keyword-Spotting, Sprachgeräuschunterdrückung, Audioverbesserung, Anwesenheitserkennung, persönliche Sprachassistenten, automatische Türklingeln, tragbare KI und Sprachschnittstellen für Geräte“ vorgesehen. Als Co-Prozessor wäre er für das Aufwecken eines Host-Prozessors zuständig und würde sein neuronales Netzwerk nutzen, um falsche Alarme herauszufiltern.

Die Akida Pico NPU wird von Brainchips hauseigenem Machine Learning Framework MetaTF unterstützt. Damit werden Entwickler in die Lage versetzt, eigene spezifische Temporal-Enabled Neural Networks (TENNs) auf einem mit der NPU-IP generierten Chip zu kompilieren und zu optimieren. MetaTF richtet sich speziell an Modelle, die mit TensorFlow/Keras oder Pytorch erstellt und trainiert wurden. Entwickler müssen somit nicht den Umgang mit einem komplett neuen Machine Learning Workflow erlernen, um schnell Edge-KI-Anwendungen zu produzieren und einsetzen zu können.

„Wie alle unsere Edge AI Enablement-Plattformen wurde Akida Pico entwickelt, um die Grenzen der KI-On-Chip-Berechnung mit niedriger Latenz und geringem Stromverbrauch, die für neuronale Anwendungen erforderlich sind, weiter zu verschieben“, sagt Sean Hehir, CEO bei BrainChip. „Ganz gleich, ob man nur über begrenzte KI-Kenntnisse verfügt oder ein Experte in der Entwicklung von KI-Modellen und -Anwendungen ist, Akida Pico und die Akida-Entwicklungsplattform bieten den Anwendern die Möglichkeit, die energie- und speichereffizientesten temporal-event-basierten neuronalen Netzwerke schneller und zuverlässiger zu erstellen, zu trainieren und zu testen.“ (sg)

(ID:50193590)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung