BIMES

Big-Data-Projekte erfordern ganzheitliches-Know-how

Bei der Produktion fallen vor allem durch die Digitalisierung und Automatisierung immer größere Datenmengen an. Das Forschungs- und Entwicklungsprojekt PRO-OPT hat sich deshalb zum Ziel gesetzt, Unternehmen in dezentralen, kooperativen Strukturen (Smart Ecosystems) die effektive und intelligente Analyse großer Datenmengen zu ermöglichen. Dr. Dirk Ortloff, Mitglied im Konsortium des Big-Data-Forschungsprojektes PRO-OPT, erklärt warum und wie.

Claudia Reis vom Fraunhofer Institut IESE im Gespräch mit Dr. Dirk Ortloff, Mitglied im Konsortium des Big-Data-Forschungsprojektes PRO-OPT und Department Manager bei der camLine GmbH

Herr Ortloff, warum scheitern so viele Big-Data-Projekte in den Unternehmen?
Vielen Unternehmen fehlt einfach das Know-how, um große Big-Data-Projekte zu stemmen. Getreu dem Motto »Wir machen erst mal einen Data Lake« führen sie alle verfügbaren Daten in einem System zusammen. Denn oft unterliegen sie dem Irrglauben, dass man so viele Daten wie möglich in das System stecken sollte, um maximal viele und maximal flexible Auswertungen fahren zu können. So funktioniert das leider nicht, da wir hier ein Performance-Problem erwarten können. Deshalb muss sich das Unternehmen auch bei Big-Data-Analysen im Vorfeld Gedanken über sinnvolle Auswertungen machen, die unter Berücksichtigung der Kosten-Nutzen-Relation einen Mehrwert bieten. Eine vorgeschaltete Potenzialanalyse ist zu empfehlen und kann hier Aufschluss geben. Hinzu kommt, dass vielen Unternehmen das praktische Know-how bei der Speicherung der Daten in verteilten Systemen fehlt.

Speicherung in verteilten Systemen – wie muss ich mir das vorstellen?
Klassische Data-Warehouse-Systeme arbeiten mit relationalen Datenbanken, zum Beispiel SQL. Diese stoßen bei datenintensiven Anwendungen und den damit verbundenen Transaktionslasten zunehmend auf Leistungs- und Effizienzprobleme. Nicht mehr akzeptable Reaktionszeiten sind die Folge. Im Projekt PRO-OPT haben wir für die Big-Data-Analysen NoSQL-Datenbanken eingeführt. Diese sind von Grund auf als verteilte, horizontal skalierende Systeme ausgelegt. Sie können riesige Datenmengen effizient speichern und punkten auch bei einer großen Anzahl parallel stattfindender Schreib- und Lesezugriffe mit ausgezeichneten Antwortzeiten – teilweise sehen wir hier eine Verbesserung der Antwortzeiten um Größenordnungen. Allerdings benötigt man auch bei NoSQL-Datenbanken ein gewisses Fachwissen, um tatsächlich schnellen Zugriff zu ermöglichen: Denn zusammengehörende Daten sollten nicht willkürlich zusammengewürfelt, sondern aufgeteilt in möglichst wenige Partitionen auf den einzelnen Rechnern gespeichert werden.

Sie sind auch Department Manager bei der camLine GmbH einem Anbieter für Produktionssteuerungs- und Qualitätssicherungssoftware sowie Dienstleistungen im Bereich High-Tech-Fertigung. Worin besteht die Motivation der camLine GmbH, sich beim Forschungsprojekt PRO-OPT zu beteiligen?
Wir hatten uns aus zwei Motivationen heraus entschieden, uns am Projekt PRO-OPT zu beteiligen: Zum einen wollten wir einfach mehr über Big-Data-Technologien lernen, weil wir diese in unsere Produktpalette integrieren wollen. Außerdem hatte sich einer unserer größten Kunden, ein namhafter Automobilzulieferer, bereits entschieden, im Projekt mitzuwirken und seine besonderen Supply-Chain-Herausforderungen hier einzubringen. Dieser Automobilzulieferer arbeitet unter anderem mit unserer Data-Warehouse-Lösung LineWorks mDICE, die wir nun im Projekt prototypisch um neue Big-Data-Ansätze erweitert haben. mDICE ist unser Tool zur detaillierten Traceability-Analyse aus den Tracking- und Tracing-Daten der gesamten Produktion sowie zum KPI Reporting.

Worin bestanden die besonderen Herausforderungen dieses Automobilzulieferers?
Ein zentrales Thema war die Garantieabwicklung und Analyse der Tracking- und Tracing-Daten. Automobilzulieferer müssen bei Garantieanfragen schnell reagieren und als Teil der Supply Chain Auswertungen über ihre Produktion fahren – Stichwort Traceability. Dies gilt in einigen Bereichen auch für verbaute Teile von Zulieferern. Vom Automobilkonzern geforderte Reaktionszeiten von 24 Stunden waren bei der Unternehmensstruktur von über 60 Werken und deren lokaler Datenhoheit über die interne Supply Chain nur schwer realisierbar. Analysen nahm der Automobilzulieferer in jedem Werk separat vor und führte sie anschließend zusammen. Mit der Folge, dass die Reaktionsfristen manchmal nicht einzuhalten waren. Zudem führten die teilweise langen Laufzeiten bei zu weit gefassten Abfragekriterien zu Abbrüchen durch Timeouts. Außerdem ließ das eingesetzte Warehouse-System aufgrund der existierenden technischen Limitierungen bei so großen Datenmengen die Implementierung zusätzlich gewünschter Reports und Analysen einfach nicht zu.

Welchen Kundennutzen kann der Automobilzulieferer aus dem Projekt PRO-OPT ziehen?
Mit den prototypisch umgesetzten Big-Data-Erweiterungen und der ansatzweisen Umsetzung neuer Möglichkeiten sind nun teilautomatisierte Analysen über alle Standorte durchführbar – die lokale Datenhoheit bleibt dabei trotzdem erhalten. Durch die schnellen Datenanalysen über die interne Supply Chain konnten Abfragen teilweise um Größenordnungen beschleunigt werden. Dadurch kann der Zulieferer sehr rasch nachvollziehen, ob die Garantieansprüche an ihn gerechtfertigt sind oder nicht. Und das innerhalb der vom Automobilkonzern geforderten 24-Stunden-Frist. Somit können nun Garantieansprüche häufiger abgewehrt und Strafen wegen Überschreitung der Frist vermieden werden. Darüber hinaus sind jetzt erste Versionen von völlig neuen Datenanalysen und Visualisierungen möglich, durch die unser Kunde tiefere Einsichten in die Produktion und das Verhalten der Maschinen erhält. Generell hat das Projekt PRO-OPT für das Unternehmen die Perspektive auf Lösungen geschaffen, Desktop-Analysen flexibel mit Big-Data-Analysen zu verknüpfen.

Inwiefern werden Sie die Erkenntnisse aus dem Projekt in Ihre Softwarelösungen für Produktionsunternehmen einfließen lassen?
Unsere Data-Warehouse-Lösung mDice haben wir dahingehend prototypisch erweitert, dass wir nun auch eine NoSQL-Datenbank mit verteilten Systemen integriert haben. Dadurch haben wir die Performance deutlich verbessert, und die PRO-OPT-Architektur bietet jetzt die Möglichkeit des Zugriffs über Standorte hinweg, ohne Daten zentralisieren zu müssen. Außerdem haben wir unser Datenanalysetool Cornerstone um Big-Data-Datenbankabfragen und -analysen sowie neue Visualisierungen erweitert. Auch im Bereich Supply Chain Quality Management haben wir in unser Tool LineWorks SQM die Erkenntnisse aus dem Projekt einfließen lassen. Hier geht es um die Fragestellung, wie Qualitätsdaten über die Supply Chain weitergegeben werden können. Das heißt, Qualitätsdaten werden schon vor der Lieferung ausgetauscht, sodass der Empfänger die Lieferung vor Versand freigeben oder sperren kann und die Wareneingangskontrolle nur noch stichprobenartig durchführen muss.

Das Gespräch mit Dr. Dirk Ortloff führte Claudia Reis vom Fraunhofer Institut IESE, das sich ebenfalls an dem Projekt PRO-OPT beteiligt hat. Das IESE hat unter anderem Potenzialanalysen, verteilte Datenbanksysteme, Datenmodellierung und die Softwarearchitektur in das Projekt eingebracht.


Anzeige

IT-Matchmaker.guide Industrie 4.0

Standardreferenz und Einkaufsführer für IT-Entscheider

  • Tabellarische Lösungsübersicht
  • Anbieterprofile
  • Projektberichte
  • Experten beiträge
Next article SAP-Dienstleister im Vergleich
Previous article Automobilzulieferer rüstet sich für Industrie 4.0
Scroll Up