MES

Digitalisierte Auftragsabwicklung – Gibt es ein CIM 4.0?

Nach der Lean-Welle nimmt mit Industrie 4.0 wieder die Digitalisierung und Automatisierung der Unternehmensprozesse Fahrt auf. Deutlich verbesserte technische Möglichkeiten und methodische Ansätze rücken die Vision des Computer Integrated Manufacturing (CIM) aus den 1980er Jahre plötzlich in greifbare Nähe.

Ein Gespräch mit Herrn Dr. Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA.

Auf den ersten Blick gelten die klassischen logistischen Zielkonflikte einer Produktion zwischen hoher Termintreue und kurzen Durchlaufzeiten einerseits sowie geringen Beständen und hoher Auslastung anderseits weiterhin. Doch der genauere Blick auf eine digitalisierte Auftragsabwicklung eröffnet insbesondere Verbesserungen in indirekten Prozessen, was wiederum eine wirksamere Planung und Steuerung der direkten Prozesse ermöglicht.

Am 15. Oktober findet am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA der 20. Stuttgarter PPS-Tag statt, der sich mit der digitalisierten Auftragsabwicklung auseinandersetzt. Das Seminar bietet neben Einblicken in die neuesten Entwicklungen der Produktionsplanung und -steuerung auch eine Plattform zum Austausch mit Experten aus Wissenschaft und Praxis.

Wiendahl_Fraunhofer_IPADr.-Ing. habil. Hans-Hermann Wiendahl, Leiter der Gruppe Produktionsplanung und -steuerung am Fraunhofer IPA, sowie des Forschungsgebiets Auftragsmanagement am Institut für Industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart und Veranstaltungsleiter des PPS-Tags erläutert im Gespräch, wie sich die Digitalisierung auf die Auftragsabwicklung auswirkt.


Herr Dr. Wiendahl, bereits in den 1980er Jahren integrierte August-Wilhelm Scheer mit seinem Y-Modell den technischen Ast (CAx) und logistischen Ast (PPS) zu einem umfassenden Verständnis des Computer Integrated Manufacturing (CIM). Doch aus unterschiedlichsten Gründen stieß diese Vision an Grenzen, so dass viele Experten sie als gescheitert ansehen. Denken Sie, dass die unter dem Stichwort Industrie 4.0 diskutierten Möglichkeiten diese Vision nun Realität werden lassen?

Dr. Wiendahl: Die integrative Sichtweise ist heute allgemein anerkannt. Doch gegenüber den damals entwickelten Konzepten erscheinen drei Unterschiede wichtig:

  • Zum ersten hat »Lean« uns gelehrt, zuerst die Prozesse zu verbessern und sie dann erst zu automatisieren  – nicht umgekehrt, wie das in der Hochphase von CIM oft üblich war.
  • Zum zweiten stoßen zentrale Entscheidungen schnell an Grenzen; vor allem da, wo starke Umfeldveränderungen entsprechende Plananpassungen oder gar eine Umgestaltung der Produktionsprozesse und des -layouts erfordern.
  • Zum dritten ist eine menschenleere Fabrik nicht erstrebenswert. Vielmehr gilt es, die Stärken des Menschen mit denen der IT zu koppeln und so bestmögliche Ergebnisse zu erzielen.

Viele Unternehmen bevorzugen robuste, teilautomatisierte Prozesse, da diese auch unter geänderten Rahmenbedingungen noch gute Ergebnisse liefern. Demgegenüber sind hoch-integrierte, vollautomatisierte Prozesse im dafür konzipierten Zielfeld zwar typischerweise überlegen. Aber ein Verfehlen der Zielstückzahlen oder des Auftragsmix führt in der Regel auch zu deutlichen Produktivitätsverlusten. Zudem ist ihre Fehleranfälligkeit oftmals zu hoch. Diese Grundphilosophie beeinflusst auch die angestrebte IT-Unterstützung in der Fabrik.

Nun werden die IT-Systeme immer leistungsfähiger und auch indirekte Prozesse stehen seit längerer Zeit im Fokus. Wie können diese digitalisiert beziehungsweise automatisiert werden? Wo sind die Grenzen?

Dr. Wiendahl: Zunächst ist die Automatisierung indirekter Prozesse kein neues Phänomen. Beispielsweise zeigen Stichproben im Maschinen- und Anlagenbau, dass die zentrale Planungs- und Dispositionsabteilung im Vergleich zu den 1990er Jahren heute lediglich mit einem Fünftel oder nur einem Zehntel des Personals ausgestattet ist. Das ist zum einen in der Aufgabendezentralisierung in Einzelbereiche begründet. Zum anderen standardisierten viele Unternehmen ihre Auftragsabwicklungsprozesse und die damit verbundenen Planungs- und Steuerungsaktivitäten konsequent. Hier hat sich folgendes Vorgehen bewährt:

  1. Standardisieren der Abwicklungsfälle und ihrer Bearbeitungsschritte.
  2. Digitalisieren der Standardfälle. Hier sollte mit den einfachen Fällen begonnen werden.
  3. Installieren von Datenqualitäts- und Regeleinhaltungskennzahlen, um neben den operativen Prozessleistungskennzahlen – etwa First Pass Yield, Liefertreue und -zeit – auch die Wirksamkeit der Umgestaltung zu überwachen.
  4. Erarbeiten entsprechender Planungs- und Steuerungsregeln für diese Prozessschritte.

Nach Erfahrungen des Fraunhofer IPA bietet es sich an, zunächst Prozessbausteine – analog zum Lego-Prinzip – zu definieren, um diese dann zu Abwicklungsfällen zu kombinieren. Workflow Engines erlauben ihre flexible Verknüpfung. Sie sind heute oftmals Teil der Standard-ERP- und -MES-IT-Werkzeuge. Darüber hinaus ist ein reifegradbasiertes Vorgehen sinnvoll: Es berücksichtigt die heterogenen Anforderungen – beispielsweise bezüglich Wiederholhäufigkeit, Kundenindividualität oder Mitarbeiterkompetenz. Das Seminar am 15. Oktober geht ausführlich auf diese Aspekte ein und Praxisreferenten schildern ihre Erfahrungen.

Im Zuge der Digitalisierung und Industrie 4.0 halten auch maschinelles Lernen und Künstliche Intelligenz Einzug in die Produktion. Wie wird sich das auf PPS-Systeme auswirken? Rechnen Sie mit erfolgversprechenden Überlappungen beider Systeme?

Dr. Wiendahl: Historisch entstanden PPS-Systeme wie MES und ERP aus der Notwendigkeit einer IT-Unterstützung von Routineaufgaben in der Produktion. Demgegenüber entstammen Ansätze der Künstlichen Intelligenz und des maschinellen Lernens aus der IT und sie versuchen beispielsweise über Verhaltensbeobachtung aus der Vergangenheit Verhaltensempfehlungen für die Zukunft abzuleiten. Dies gelingt mit höherer Wiederholhäufigkeit besser. Für die Anwendungsfälle der Produktion bedeutet dies:

  • Entweder es herrschen Prozesse mit einer hohen Wiederholhäufigkeit vor. Dies ist für Großserien- und Massenfertigungen oder Branchen mit hohem Automatisierungsgrad typisch. Kurze Prozesszeiten begünstigen mögliche Lerneffekte zusätzlich.
  • Oder es gelingt den Verantwortlichen, die Gesamtprozesse in kleine Abschnitte zu zerlegen und diese dann zusammenzusetzen. Somit entsteht eine ähnlich vielversprechende Situation wie im ersten Fall.

Doch sinnvolle Anwendungsfälle allein reichen für aussichtsreiche Überlappungen nicht aus. Zusätzlich sind die beiden Fachdisziplinen so zusammenzuführen, dass sie eine gemeinsame Sprache sprechen und so über eine Interaktion zu einer besseren Problemlösung kommen.

Angenommen, beide Systeme sprechen eine gemeinsame Sprache und können interagieren – was ändert sich dann in der Produktion?

Dr. Wiendahl: Unter solchen Rahmenbedingungen kann es vergleichsweise schnell gelingen, erste erfolgreiche Prototypen zu installieren. Einstiegspunkte ins Machine Learning in der Produktion bilden Optimierungsprobleme bezüglich Performance, Qualität und technischer Verfügbarkeit der Maschinen und Anlagen, die bisher durch Lean-Methoden gelöst wurden. Einige dieser Analyse- und Optimierungsaufgaben lassen sich somit automatisieren und erzeugen zudem neue Geschäftsmodelle für den Handel mit domänenspezifischen Optimierungsservices, Algorithmen sowie repräsentativen Trainingsdaten. Die Durchdringungsbreite hängt allerdings von den oben genannten Faktoren ab, die aktuell sehr heterogen sind.

Was bedeutet diese Entwicklung für die Aufgaben des Produktionsplaners und -steuerers in der Zukunft?

Dr. Wiendahl: Die Stärken der IT liegen unstrittig im Verarbeiten und Aufbereiten großer Datenmengen; demgegenüber erkennt der Mensch – insbesondere erfahrungsgestützt – oftmals Unplausibilitäten schneller. Seine originäre Aufgabe besteht darin, Entscheidungen zu treffen und im Falle von Alternativen die Beste auszuwählen. So könnte also eine Aufgabenteilung so aussehen, dass die IT die erforderlichen Entscheidungsbedarfe anwendergerecht aufbereitet – beispielsweise in Form rollenspezifischer Anwender-Cockpits. Der PPS-Verantwortliche entwickelt Entscheidungsalternativen, die die IT gegebenenfalls wiederum in Form von Szenarien probeweise auf Zielerreichung prüft. Der Mensch trifft abschließend eine Entscheidung, dokumentiert diese in der IT und überwacht Umsetzung und Wirkung. Umsetzungserfahrungen bei der Realisierung solcher PPS-Assistenzsysteme bewiesen erhebliche Zeiteinsparungen in der Vorbereitung, sodass freiwerdende Zeit in einer höheren Entscheidungsqualität mündet.

Herr Dr. Wiendahl, vielen Dank für das Gespräch.


Anzeige

IT-Matchmaker.guide Industrie 4.0

  • Spezial zu MES/APS
  • Fachbeiträge
  • Firmenprofile relevanter Anbieter
  • Referenzen aus der Praxis
  • Produktübersichten

 

Next article Intelligente Mobilgeräte erfassen die Arbeitszeit
Previous article Digitalisierungstipps für den Mittelstand
Scroll Up