Raus aus der Blackbox Der Weg zur KI-Souveränität in der Industrie

Von Manuel Christa 3 min Lesedauer

Anbieter zum Thema

Die Industrie braucht keine allwissenden Sprachmodelle aus der US-Cloud, sondern smarte, ressourcenschonende LLMs direkt an der Maschine. Eine aktuelle Debatte zeigt: Um Vendor-Lock-ins zu vermeiden und das eigene geistige Eigentum zu schützen, führt an lokaler Inferenz und Open-Source-Strategien kein Weg vorbei.

Architektur-Wandel: Von der intransparenten KI-Blackbox zum offenen und souveränen Industrie-Netzwerk.(Bild:  Red Hat)
Architektur-Wandel: Von der intransparenten KI-Blackbox zum offenen und souveränen Industrie-Netzwerk.
(Bild: Red Hat)

KI ist in der Industrie angekommen, doch die Kontrolle über die Systeme hält oft kaum Schritt. Eine aktuelle Studie von Red Hat unter 500 europäischen IT-Entscheidern zeigt eine deutliche Lücke auf: Nur 57 Prozent der deutschen Unternehmen verfügen über eine definierte Exit-Strategie, falls ihr primärer KI-Anbieter den Zugang plötzlich einschränkt. Gleichzeitig erwarten 37 Prozent dieser Firmen, dass ein kurzfristiger Wechsel gravierende Auswirkungen auf ihre Geschäftskontinuität hätte.

Dominik Schmitt, Director Ecosystem bei Red Hat, fasst das infrastrukturelle Dilemma, in dem viele Unternehmen aktuell stecken, prägnant zusammen: „Wer alles sieht, aber nichts ändern kann, der ist nicht souverän.“ Um diese technologische Abhängigkeit zu durchbrechen, befürworten 72 Prozent der Befragten, dass der Gesetzgeber Open-Source-Prinzipien festschreibt.

Spezialisierte Edge-KI statt „Gott-Modelle“

In der industriellen Praxis wächst die Erkenntnis, dass die Zukunft nicht allein in gigantischen Sprachmodellen aus der Cloud liegt. Peter Blenninger, Geschäftsführer von Croz Deutschland und als Anwender sowie Partner von Red Hat auf der Pressekonferenz dabei, formuliert es zur Studie so: „Wir müssen uns davon lösen, immer diese gottgleichen Modelle als Maßstab zu betrachten, die alles und jedes beantworten können.“

Stattdessen wird sich der Markt laut Blenninger hin zu kleineren, domänenspezifischen Modellen bewegen. Die tatsächlichen Einsatzgebiete in der Industrie liegen bei Regelkreisläufen, in der Produktautomation und der vernetzten Herstellung. Ein konkretes Szenario wäre etwa ein spezialisiertes Modell für Heizungsbauer zur automatischen Optimierung von Wärmepumpen. Solche Edge-KI-Lösungen arbeiten verteilt und mit einem Bruchteil der Hardware-Ressourcen herkömmlicher LLMs.

Ressourcenschonung als harter Wettbewerbsfaktor

Die Abkehr von reinen Cloud-Giganten wird für den Mittelstand auch durch physikalische und finanzielle Grenzen erzwungen. Das faktische Monopol von Nvidia bei KI-Chips führt zu enormen Hardwarekosten und einem massiven Energiebedarf. Blenninger berichtet aus der eigenen Implementierungspraxis: „Wir mussten tatsächlich das Rechenzentrum neu dämmen, weil das Zeug einen Höllenlärm macht, und unsere Energieversorgung nochmal komplett neu designen.“ Er mahnt an: „Ressourcenschonender Umgang ist für uns in der EU ein essenzieller Wettbewerbsfaktor.“

Es braucht daher smarte Hardware-Alternativen für die KI-Ausführung (Inferenz). Nicht nur die bisherigen direkten Konkurrenten, wie AMD oder Intel, arbeiten an entsprechenden Chips, auch die Big-Tech-Riesen wie Amazon, Meta, Microsoft oder Google wollen am Monopol sägen. Doch das dauert. Forschungen des Fraunhofer-Instituts deuten auch darauf hin, dass etwa Modelle auf FPGAs mit bis zu 90 Prozent Energieeinsparung laufen können.

Die Praxis-Blaupause: Hybrider Betrieb

Doch wie implementiert ein Mittelständler, der keine gewaltige IT-Abteilung besitzt, eine souveräne KI-Architektur? Eigene Modelle kontinuierlich von Grund auf zu trainieren, ist schlichtweg zu teuer.

Die Lösung liegt in der Aufspaltung der Workloads: Blenninger rät dazu, das datenintensive Training periodisch auszulagern, etwa quartalsweise in europäische, souveräne Rechenzentren oder dedizierte Infrastrukturen wie die neue Telekom AI Factory. „Und dann läuft tatsächlich nur die Inferenz bei mir im Keller und das Training findet temporär woanders statt“, so Blenninger. Dieser hybride Ansatz schützt das kritische geistige Eigentum des Unternehmens und garantiert gleichzeitig niedrigste Latenzen an der Maschine.

Open Source verhindert den Vendor-Lock-in

Wer auf proprietäre Blackbox-Modelle setzt, begibt sich in eine gefährliche Abhängigkeit. Echte Souveränität entsteht nur, wenn die eigene Architektur flexibel bleibt.

Wie Gregor von Jagow, Senior Director Deutschland bei Red Hat, in der Studie treffend zusammenfasst: „KI-Souveränität entsteht nicht durch den Einsatz einzelner Technologien, sondern durch die Fähigkeit, sie kontrolliert zu orchestrieren und im Zweifel auch zu wechseln.“ Offene Standards und Open-Source-Prinzipien bieten die nötige Transparenz. Sie erlauben es Ingenieuren, KI-Modelle, Beschleuniger-Hardware und Infrastruktur bei Bedarf auszutauschen und machen KI in der industriellen Praxis dauerhaft beherrschbar. (mc)

(ID:50820662)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung