Jederzeit auf große Datenmengen zugreifen können

Anbieter zum Thema

Bei produzierenden Betrieben fallen schnell Petabytes an Rohdaten an. Alleine mit Zentralisierung, Speichergröße und stabilem Netzwerk ist dem nicht beizukommen.

Ulrich Grauvogel, ElasticGear Produktmanager und CMO der Data Ahead GmbH, Nürnberg: „Ganze Fabriken zu digitalisieren ist umfangreich. Bei Massendaten können wir vom Internet lernen.“
Ulrich Grauvogel, ElasticGear Produktmanager und CMO der Data Ahead GmbH, Nürnberg: „Ganze Fabriken zu digitalisieren ist umfangreich. Bei Massendaten können wir vom Internet lernen.“
(Bild: Data Ahead)

Im Juli 2017 las ich ein Interview zum Thema lernende Systeme mit dem Titel „Hinter den Kulissen von IBMs Supermaschine Watson IoT“. Eine Plattform organisierte in einem mehrstufigen Verfahren eine zentrale Datensammlung, transparent und für analytische Aufgaben aufbereitet. Im Kollegenkreis haben wir das mit unseren Erfahrungen in der Data Ahead GmbH abgeglichen und auf industrielle Maßstäbe unserer Kundenprojekte projiziert. So schön der Anwendungsfall zu predictive – oder wie Watson differenziert – prescriptive Maintenance auch sein mag: Ganze Fabriken zu digitalisieren ist umfangreicher.

Was tun wir, wenn nicht nur eine der zitierten Pressen zu beobachten ist, sondern Produktionslinien übergreifend 200 Pressen? Und was, wenn die Pressen als Schnellläufer im Verbund adaptive Eingangsgrößen für nachgelagerte Schritte zu liefern haben? Sollen Traceability-Anforderungen eingehalten werden, muss auch die Stimmigkeit dieser Prozessgrößen jederzeit nachweisbar sein. Es geht also um zahlreiche verschiedene Funktio­nen, wie sie beispielsweise in der VDI 5600 für Manufacturing Execution Systems umfassend benannt sind. Die Instandhaltungsplanung ist nur eine unter Vielen. Wenn Controlling oder Belegungsplanung auf relevante Rohdaten zugreifen wollen, und diese aus einem 18 Monate zurückliegenden Betriebsauftrag stammen, dann stellt sich beim Stichwort zentralisierte Datenhaltung die Skalierungsfrage.

Technische Rohdaten können bereits für einen kleineren Fabrikstandort bei mittelmäßigem Digitalisierungsgrad in Petabyte-Dimensionen liegen, bei mehrjähriger Kumulation darüber. Wenn wir es ernst meinen mit Transparenz und digitalen Geschäftsmodellen, dann sollten diese Rohdaten genau ein einziges Mal in geeigneten Granularitäten unverfälscht vorgehalten werden, ohne erst auf ein Archiv zurückzugreifen. Beim Beispiel der 200 Pressen wächst die Zugriffszeit exponentiell über der Menge der an einer Datenabfrage beteiligten und dynamisch miteinander verbundenen Instanzen.

Wenn man Zuordnungstabellen und dynamische Adressierung bemüht, dann wird es spannend. Dann hilft beim Supermaschinendenken früherer Prägung nur noch brachiale Speichergröße und ein hoffentlich stabiles Netzwerk. Maschinen oder Supermaschinen mit In-Memory- oder Near-Memory-Techniken stoßen bei Skalierungsversuchen regelmäßig an Grenzen. Wie bauen wir einen Hauptspeicher, der Petabytes im Schnellzugriff bewältigen kann? Das kann schnell teuer bis unmöglich werden.

Um große Datenmengen auszuwerten, will man auch nicht auf nächtliche Rechenläufe oder csv-Exporte für manuelle Tabellenkalkulation zurückgreifen. Wir wollen auch nicht auf Produktvarianten verzichten, nur weil die einhergehende Datenvielfalt das Leben schwer macht. Der industrielle Anwender braucht auf Ebene der Rohdaten eine beliebige Vielseitigkeit, Volatilität und Ubiquität bei voller Zugriffsgeschwindigkeit ohne Kumulationsgrenzen!

Ein Blick auf das Phänomen Internet: Während der Eingabe eines Suchbegriffes werden semantisch sinnvolle Ergänzungen vorgeschlagen. Für die Massendaten unserer Produktionsbetriebe lässt sich genau hieraus viel lernen: Das Internet wächst täglich, die Datenmenge des täglichen Produktionsausstoßes ebenfalls. Im Internet entstehen täglich neue SaaS-Produkte, ebenso entstehen in Fabriken neue Prozesse, neue Anlagen werden installiert und neue Produkte angefahren. Die Analogien sind sehr ausgeprägt und Lösungen naheliegend.

Vor dem Rollout integrierter Maintenance-Showcases muss jedes Unternehmen also erstmal Hausaufgaben auf Rohdatenlevel machen. Sind diese in Petabyte-Dimensionen skalierbar und ohne nennenswerte Beschränkungen handhabbar, dann kann man sich an die nächste Stufe machen und auch mal über alltagstaugliche künstliche Intelligenz nachdenken.

(ID:44885118)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung