In-Memory-Computing Aus München: Erster KI-Chip mit Multi-State-FeFET-Zellen

Von Michael Eckstein 3 min Lesedauer

Anbieter zum Thema

Vorbild Gehirn: Ein Forscherteam hat die nach eigenen Angaben erste erfolgreiche Implementierung eines In-Memory-Computing-Makros vorgestellt, das eine Multi-State-FeFET-Zelle für vollständige MAC-Operationen verwendet und die Crossbar-Dichte ohne zusätzlichen strukturellen Overhead beibehält. Dies könnte ein großer Schritt hin zu leistungsstarken und energieeffizienten neuromorphen KI-Prozessoren sein.

Ferroelektrische FETs haben die Eigenschaft, auch im stromlosen Zustand unterschiedliche Ladungsniveaus halten zu können. Dies lässt sich für In-Memory-Computing-Prozessordesigns nutzen, die besonders gut für Berechnungen beim Maschinellen Lernen geeignet sind.(Bild:  frei lizenziert /  Pixabay)
Ferroelektrische FETs haben die Eigenschaft, auch im stromlosen Zustand unterschiedliche Ladungsniveaus halten zu können. Dies lässt sich für In-Memory-Computing-Prozessordesigns nutzen, die besonders gut für Berechnungen beim Maschinellen Lernen geeignet sind.
(Bild: frei lizenziert / Pixabay)

In-Memory-Computing (IMC, auch Processing in Memory, PIM) ist so etwas wie der heilige Gral der Rechnerarchitekturen: Anstatt zu bearbeitende Daten erst aus dem Speicher über den Flaschenhals der Speicherschnittstelle häppchenweise in den Prozessor zu laden, hier zu verarbeiten und schließlich wieder über denselben Engpass zurückzuschieben, werden sie direkt am Speicherort verrechnet. Das menschliche Gehirn arbeitet nach diesem Prinzip und erreicht damit eine erstaunliche Leistungsfähigkeit.

Nun hat ein Forscherteam um Hussam Amrouch, Professor für AI Processor Design an der Technischen Universität München (TUM), eine KI-taugliche Chiparchitektur vorgestellt, die doppelt so leistungsfähig sein soll wie vergleichbare In-Memory-Computing-Ansätze. Darüber berichtet die Fachzeitschrift Nature. Nach Angaben von Amrouch könnten KI-Anwendungen wie generative KI („ChatGPT“), Deep-Learning-Algorithmen und robotische Applikationen davon schon in wenigen Jahren profitieren.

Transistoren übernehmen Speicher- und Rechenfunktionen

Die Grundidee hinter In-Memory-Computing ist oberflächlich betrachtet einfach: Bislang sind die Transistoren für die Berechnungen und die zum Speichern räumlich getrennt. Diese Trennung hebt IMC auf. Die Transistoren übernehmen an einem Ort das Speichern und das Prozessieren der Daten. Das spart laut Amrouch sowohl Zeit als auch Energie: „Und es erhöht so die Leistungsfähigkeit der Chips.“ Doch wie so oft ist es auch hier: Gerade die einfach erscheinenden Ansätze sind im Detail sehr komplex.

Das von Amrouch in einer Forschungskollaboration mit Bosch und Fraunhofer IMPS entwickelte IMC-Crossbar-Makro basiert auf einer mehrstufigen FeFET-Zelle (ferroelektrischer Feldeffekttransistor) für Multibit-Multiplikations- und Akkumulationsoperationen (MAC). Das vorgeschlagene 1FeFET-1R-Zellendesign speichert Multi-Bit-Informationen und minimiert laut Amrouch gleichzeitig die Auswirkungen der Bauteilvariabilität auf die Genauigkeit der abgelegten Werte.

Nach eigenen Angaben ist es die erste erfolgreiche Implementierung eines IMC-Makros, das eine Multi-State-FeFET-Zelle für vollständige MAC-Operationen verwendet und die Crossbar-Dichte ohne zusätzlichen strukturellen Overhead beibehält. Die experimentelle Validierung der Schaltung wurde mit FeFET-Bauelementen in 28-nm-HKMG-Technologie durchgeführt. Konkret hat US-Chiphersteller Globalfoundries die Fertigung übernommen.

Zeit und Strom kodieren elektrischen Eigenschaften der gespeicherten Daten

Im Gegensatz zu herkömmlichen Analogrechnern mit Widerstandsspeicher nutzt Amrouchs Ansatz die elektrischen Eigenschaften der gespeicherten Daten in der Speicherzelle, um die Ergebnisse der MAC-Operationen abzuleiten. Diese sind in der Aktivierungszeit und dem akkumulierten Strom kodiert. „Bemerkenswert ist, dass unser Entwurf ohne zusätzliches Training eine Genauigkeit von 96,6 Prozent bei der Handschrifterkennung und 91,5 Prozent bei der Bildklassifizierung erreicht“, erklären die Autoren im Nature-Beitrag.

Professor Hussam Amrouch, TUM: „Jetzt können wir sehr effiziente Chipsätze bauen, die etwa für Deep-Learning-Anwendungen, in der generativen KI oder der Robotik eingesetzt werden können.“(Bild:  Andreas Heddergott / TU Muenchen)
Professor Hussam Amrouch, TUM: „Jetzt können wir sehr effiziente Chipsätze bauen, die etwa für Deep-Learning-Anwendungen, in der generativen KI oder der Robotik eingesetzt werden können.“
(Bild: Andreas Heddergott / TU Muenchen)

Darüber hinaus zeige es eine außergewöhnlich hohe Rechenleistung: Diese sei mit 885,4 TOPS/W fast doppelt so hoch ist die bestehender Designs. Hier bezieht sich das Forscherteam auf vergleichbare IMC-KI-Chips – konkret ein KI-Chip von Samsung, der mit MRAM (Magnetoresistive Random Access Memory) arbeitet.

In-Memory-Computing funktioniert wie das Gehirn des Menschen

Das Prinzip der modernen Chiparchitektur haben sich die Forschenden vom Menschen abgeschaut. „Im Gehirn übernehmen die Neuronen die Verarbeitung von Signalen, während die Synapsen in der Lage sind, sich diese Informationen zu merken“, erläutert Amrouch die Fähigkeit des Menschen, zu lernen und sich komplexe Zusammenhänge merken zu können.

Der Chip nutzt dafür die genannten FeFETs, die auch im stromlosen Zustand unterschiedliche Spannungsniveaus – und damit Informationen – halten können. „Jetzt können wir sehr effiziente Chipsätze bauen, die etwa für Deep-Learning-Anwendungen, in der generativen KI oder der Robotik eingesetzt werden können, etwa dort, wo Daten direkt am Ort ihres Entstehens verarbeitet werden müssen“, ist Amrouch überzeugt.

Laut Amrouch ist es das Ziel, den Chip zum Berechnen von Deep-Learning-Algorithmen, zum Erkennen von Gegenständen im Raum oder ohne jegliche Verzögerung von Drohnen im Flug einzusetzen. Bis es so weit ist werden nach Ansicht des Professors aus dem integrierten Forschungsinstitut Munich Institute of Robotics and Machine Intelligence (MIRMI) der TUM jedoch noch einige Jahre vergehen.

Erste praxistaugliche Chips in drei bis fünf Jahren

Mit dem ersten praxistauglichen In-Memory-Chip rechnet der Wissenschaftler in frühestens drei bis fünf Jahren. Der Grund dafür liegt unter anderem in den Sicherheitsanforderungen der Industrie. Um etwa eine solche Technologie in der Automobilindustrie einsetzen zu können, muss sie nicht nur zuverlässig funktionieren, sondern auch den individuellen Kriterien in der jeweiligen Branche genügen. „Das zeigt einmal mehr, wie wichtig es ist, dass Forschende aus unterschiedlichen Disziplinen wie Computerwissenschaft, Informatik und Elektrotechnik interdisziplinär zusammenarbeiten“, sagt Hardware-Experte Amrouch. Genau hier liege eine besondere Stärke des MIRMI. (me)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:49768562)