95 % aller KI-Projekte in Unternehmen liefern noch nicht das, was man sich von ihnen verspricht. KI-Systeme benötigen Onboarding wie neue Mitarbeiter und scheitern oft an mangelndem Kontext. Ein Blick hinter den Hype und ein Ausblick auf das, was wirklich funktioniert.
KI-Systeme benötigen ein Onboarding wie neue Mitarbeiter und scheitern oft an mangelndem Kontext. Doch hinter den Kulissen entsteht bereits die nächste Generation: adaptive Datenarchitekturen und intelligente Knowledge Graphs, die KI endlich skalierbar machen könnten.
(Bild: KI-generiert)
Nach vier Jahren KI-Hype stellen sich viele Elektronikentwickler eine zentrale Frage: Wo bleibt der ROI bei Edge-KI-Projekten? KI-Chips sind teuer, Inference läuft instabil, und klassische Embedded-Architekturen stoßen an ihre Grenzen. Die Graph-Experten von Neo4j zeigen auf, welche Trends 2026 KI in eingebetteten Systemen endlich produktiv machen könnten.
KI-Realitätscheck: Skalierung im Fokus
Die Rückmeldungen aus den Unternehmen sprechen eine klare Sprache: Die meisten KI-Projekte liefern noch nicht das, was man sich von ihnen versprochen hat. Laut einer MIT-Studie liefern 95 % der Pilotprojekte keine messbaren Ergebnisse. Gartner rechnet damit, dass 40 % der Agentic-AI-Projekte bis 2027 scheitern – gebremst durch Kosten, unklaren ROI und ungeklärte Risiken. Hier zeigt sich das GenAI-Paradox: Allgemeine KI-Tools und -Assistenten lassen sich schnell ausrollen, bringen aber schwer messbare ROI-Effekte. Die wirklich wertschöpfenden, vertikal integrierten KI-Systeme dagegen kommen nur mühsam in die Unternehmen.
Von KI-Frust zu sprechen ist dennoch verfrüht. Der Endnutzer-Hype um ChatGPT, Copilot & Co., und nicht zuletzt die enormen Investitionssummen der Tech-Riesen, haben schlichtweg Erwartungen geweckt, die mit der Realität in Unternehmen kollidieren. Denn hier müssen KI-Systeme tief und sicher in bestehende Prozesse, Datenstrukturen und IT-Landschaften integriert werden. Diese Integration braucht Zeit und Anpassungen. Selbst KI kann diesen Prozess nur bedingt beschleunigen. Zudem ist KI experimentell: Viele prototypische Projekte müssen scheitern, damit sichtbar wird, welche Ansätze langfristig funktionieren. Die eigentliche Skalierung beginnt erst noch.
SEMINAR-TIPP
KI-Potenziale in der Produktentwicklung
Sie möchten erfahren, wie künstliche Intelligenz effizient und gezielt in Entwicklung und Konstruktion eingebunden werden kann, um echten Mehrwert zu generieren? Unser zweitägiges Seminar (9. und 10. Februar 2026) führt Sie strukturiert von der Problem- und Prozessanalyse über die Priorisierung der Use-Cases bis zur Prototyp-Umsetzung mit No Code-KI-Tools.
Die wichtigsten Lerninhalte:
Analyse unternehmenseigener Prozesse und Entwicklung von Use Cases
Erstellen von Prototypen mit No-Code-Tools (z.B. n8n, Ollama, Qdrant)
Wirkungsvolles Prompt-Design für technische Aufgaben
KI-Agenten verdeutlichen dieses Paradox besonders klar. Von autonomen „Agenten-Armeen“, die ganze Abteilungen ersetzen, ist in der Praxis wenig zu sehen. Die meisten Systeme arbeiten verborgen im Hintergrund und übernehmen vor allem zeitintensive Rechercheaufgaben. Das sind beispielsweise in Recht, Compliance oder Medizin. Zwar experimentiert laut McKinsey die Mehrheit der Unternehmen mit AI-Agents, doch nur 23 % bringen sie überhaupt in einen produktiven Bereich, und in keiner Funktion überschreitet der Anteil der skalierten Agenten derzeit rund 10 %. Das zeigt: Der Nutzen ist hochgradig kontextabhängig, der produktive Einsatz eng begrenzt. Unternehmen müssen zunächst den KI-Hype ausblenden und nüchtern herausfinden, wo Agenten echte Wirkung entfalten.
Dieses iterative Vorgehen ist berechtigt, denn KI bleibt unzuverlässig. Meist liegt es nicht an der „fehlenden Intelligenz“ der Modelle. Vielmehr wurden Kontext und Anweisungen nicht klar genug vermittelt, um relevante und zuverlässige Ergebnisse zu garantieren. Für eine funktionsfähige Integration brauchen Agenten eine Art Onboarding: Sie müssen eingearbeitet, informiert, überwacht und regelmäßig korrigiert werden. Da sie probabilistisch arbeiten, liefern sie selbst bei identischen Eingaben nicht zwingend dieselben Ergebnisse. Die Validierung erfordert Tests, Feedback und Review-Prozesse. Doch das ist Aufwand und nur begrenzt skalierbar.
Das wirft eine weitere Frage jenseits der technischen Umsetzung auf: Wie lassen sich KI-Agenten in bestehende Workflows, Teams und die Unternehmenskultur einbinden? Unternehmen müssen dabei nicht nur in das Training und Setup der KI-Agenten investieren, sondern auch in das ihrer Mitarbeitenden. Sie sind es künftig, die Ergebnisse der KI-Kollegen validieren und die zugrunde liegenden Modellgrenzen verstehen müssen. Dafür gilt es, Arbeitsmodelle neu zu denken, einschließlich klarer Governance, neuer Rollen, flacherer Strukturen und besonders eindeutiger Verantwortlichkeiten.
Context Engineering und die Informationsarchitektur für die KI
KI ist nur so gut wie der Kontext, den sie erhält, selbst in agentischen, iterativen Architekturen. Doch oft bekommt sie zu wenig, zu viel oder zu ungenauen Input. Beim Prompten denken viele an direkte Anweisungen. In realen Anwendungen besteht die eigentliche Aufgabe des Systems jedoch darin, den Kontext dynamisch so zu gestalten, dass das LLM genau die Informationen erhält, die es für den nächsten Schritt benötigt.
LLMs funktionieren in mancher Hinsicht wie das menschliche Arbeitsgedächtnis: Sie behalten den Anfang und das Ende, doch in der Mitte verlieren sie den Faden, wie eine Studie der Stanford University zeigt. Langer Kontext führt zu Fehlern, Reibungsverlusten und sinkender Aufmerksamkeit (Context Rot). Modelle verwirren sich, wenn zu viele oder sehr ähnliche Tools eingesetzt werden (Context Confusion). Oder sie stolpern über widersprüchliche Arbeitsschritte (Context Clash). Obwohl die Modelle theoretisch riesige Mengen an Kontext verarbeiten könnten, zeigt die Praxis: Je mehr man ins Context Window hineinlädt, desto unzuverlässiger sind die Ergebnisse.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
In Sachen KI-Kontext gilt daher, wie so oft in der Datenverarbeitung: Qualität statt Quantität. Modelle verfügen nur über eine begrenzte Aufmerksamkeitsspanne. Jeder zusätzliche Kontextbaustein verbraucht davon etwas und verwässert das Wesentliche. Gut kuratierter Kontext, sogenanntes Context Engineering, entwickelt sich damit zur Grundvoraussetzung für verlässliche KI.
Push vs. Pull: Daten auf Abruf statt auf Vorrat
Mit dem Aufkommen von Agentensystemen verändert sich die Art, wie KI auf Informationen zugreift. Während frühere Ansätze wie Retrieval-Augmented Generation (RAG) nach dem Push-Prinzip funktionierten, setzt sich nun ein Pull-Prinzip durch. Statt Informationen im Vorfeld zu sammeln und dem Modell zuzuschieben, entscheidet die KI selbst, welche Informationen ihr fehlen, und ruft diese gezielt mittels Werkzeug ab. Statt einer Informationslawine entsteht echte Informationsauswahl.
Damit übernimmt KI zunehmend eine organisatorische Rolle: Sie analysiert die Aufgaben, identifiziert Arbeitsschritte und notwendige Informationen und wählt Tools oder Datenquellen aus, die diese Lücken schließen. Sie wird zum Koordinator der Informationsbeschaffung, was den Fähigkeiten des Sprachmodells entgegenkommt. Für Unternehmen heißt das: Denken wie ein Informations-Architekt. Entscheidend ist nicht die Menge, sondern die korrekte Dosis: das Prinzip des „Minimum Viable Context“ (MVC). Die KI soll genau die Informationen erhalten, die sie für den nächsten Schritt braucht.
Graphen sind das Navigationssystem für KI-Agenten
Welche Informationen die KI im nächsten Schritt benötigt, hängt stark vom jeweiligen Anwendungsfall ab: mal tiefe, lineare Kontextketten, mal breite, verzweigte Wissensstrukturen, Cluster von relevanten Informationen, oder nur ein einzelner präziser Ausschnitt. Genau an dieser Stelle beginnen klassische Datenstrukturen zu schwächeln. Graphdatenbanken bieten hier einen strukturell anderen Ansatz. Forrester bezeichnet das als Rückgrat für LLMs, um Kontext abzubilden, einzufangen und wieder bereitzustellen.
Gerade im Zusammenspiel mit KI-Agenten rücken Graphen 2026 stärker in den Fokus. Da KI-Systeme zunehmend selbstständig Entscheidungen, Tools und Prozesse koordinieren, benötigen sie robuste und nachvollziehbare Kontextmodelle. Graphen verknüpfen Wissen, Aktionen und Interaktionen in Echtzeit und machen Agenten dadurch navigierbar, überprüfbar und skalierbar. So entsteht eine semantische Informationsschicht (Knowledge Layer), die nicht nur präzisere Antworten ermöglicht, sondern vor allem eines schafft: Agenten, die verstehen, wo sie stehen, was sie tun, warum sie es tun und welche Folgen der nächste Schritt hat.
Die Datenbank der Zukunft ist adaptiv
Datenbanken und Dateninfrastrukturen entwickeln sich damit zu einem Dreh- und Angelpunkt für den KI-Erfolg. Nach vier Jahren KI-Hype stellt sich dabei immer deutlicher heraus: Während Hardware und Modelle in neue Dimensionen vorstoßen, stecken die Datenbanken darunter noch immer im Denken der 1970er fest. KI-Systeme sollen Spitzenleistungen liefern, arbeiten aber auf Architekturen, die nie für sie gebaut wurden. Die zentrale Frage lautet nicht länger, wie Datenbanken verbessert werden, sondern wie eine Datenbank aussieht, die für KI gebaut ist.
Die KI-Datenbank der nächsten Generation könnte zum Beispiel ähnlich wie „Live Code“ funktionieren. Abfragen werden während der Ausführung iterativ neu geschrieben und optimiert. Sie sind angelehnt an moderne Compiler-Designs wie Just-in-Time-(JIT)-Techniken. Der Ausführungsplan passt sich laufend an Datenverteilungen, Lastmuster und die jeweils verfügbare Hardware. So entsteht eine permanente Feedbackschleife, in der die Datenbank mit jeder Iteration effizienter wird, selbst wenn Komplexität und Datenmengen wachsen. Genau diese dynamische Architektur bildet das Fundament für die Knowledge Layer, die KI-Agenten künftig brauchen. (heh)