Eye scan

MES und KI in Kombination versprechen transparente Prozessketten und können die Produktqualität maßgeblich steigern.
Bild: Argus – stock.adobe.com

Die Rückwärtsgewandtheit eines herkömmlichen Qualitätsmanagements führt zu einem hohen Aufwand und vermeidbaren Kosten. Nicht nur, dass Ausschussteile die Produktivität im Allgemeinen verringern, für die Qualitätssteigerung von Produkten und Fertigungsprozessen muss auch Zeit und Personal investiert werden – und das immer wieder, denn schließlich handelt es sich um einen kontinuierlichen Verbesserungsprozess. Wüssten jedoch Fertigungsplaner, Schichtleiter oder Werker schon im laufenden Fertigungsprozess, wie die Produktqualität ausfallen wird, könnten sie rechtzeitig Maßnahmen ergreifen, um sich anbahnende Abweichungen zu korrigieren, bevor es zu Ausschussteilen kommt. Hier setzt Predictive Quality an.
Angenommen ein Unternehmen aus der Kunststoffindustrie produziert tagtäglich unzählige Kleinteile, die ausgeliefert und weiter verbaut werden. Die Produktqualität wird anhand einer Quality Rate (PPM) ermittelt. Diese Kontrolle ist aufwendig. Um die Transparenz zu erhöhen, müsste die Frequenz der Qualitätskontrollen erhöht werden, wodurch jedoch wiederum der Aufwand größer wird. Letztendlich wird die Qualitätskontrolle durch den Kosteten-Nutzen-Faktor limitiert.

Das digitale Abbild

Predictive Quality bricht das Spannungsfeld zwischen qualitativen Anforderungen und Kosten auf, indem zur Qualitätsanalyse historische Produkt- und Prozessdaten in Echtzeit herangezogen und extrapoliert werden. So entsteht anhand produkt- und prozessspezifischer Daten ein digitales Abbild, das permanent überwacht wird, um Abweichungen zu erkennen. Auf diese Weise dient die datengetriebene Qualitätsprognose als Grundlage für die Entscheidungen von Fertigungsplanern oder Schichtleitern. Maschinenwerker erhalten dadurch die Möglichkeit, direkt in den Fertigungsprozess einzugreifen, anstatt die Qualität eines Teils erst am Prozess-ende zu kontrollieren.

Identifikation wiederkehrender Muster
Wie kann aber aus historischen Daten eine Vorhersage über die zukünftige Produkt- und Prozessqualität abgeleitet werden? Wie wird aus einer deskriptiven, beschreibenden, eine präskriptive, vorhersagende Analyse? Durch Künstliche Intelligenz (KI). Mit den Daten der digitalen Abbilder werden statistische Hochrechnungen vorgenommen, um darin wiederkehrende Muster zu identifizieren, die auf zukünftige Qualitätsabweichungen hinweisen.
An diesen Hochrechnungen wurde im Projekt „Quality Data based Risk Assessment for Industry 4.0“ (quadrika) geforscht, an dem auch Gbo Datacomp, Augsburg, beteiligt war. Im Rahmen dieses vom Bundesforschungsministerium geförderten Projekts wurde ein Quality-Data-Modul (QDM) entwickelt, das als Add-on eines MES Prozesse online überwacht, um Prozess- und Produktrisiken zu vermeiden, noch bevor sie auftreten. Dadurch erhöht sich die Prozess- und Produktqualität und Ausschüsse werden reduziert beziehungsweise minderwertige Bauteile nicht weiterverarbeitet.

Datenintegration als zentrale Herausforderung

Es dürfte auf der Hand liegen, dass Predictive Quality ohne Online-Daten nicht möglich ist – je mehr, desto besser, denn je realistischer das digitale Abbild ist, desto höher ist die Wahrscheinlichkeit, dass die Qualitätsprognosen zutreffen. Dafür muss nicht nur das zu fertigende Produkt anhand zahlreicher Daten digital abgebildet werden, sondern auch die einzelnen Fertigungsprozesse. Dazu braucht es Daten wie etwa über die Verfügbarkeiten von Maschinen, Werkzeugen, Rüstzeiten, Temperaturen, Drücken und so weiter. Viele produzierende Unternehmen verfügen teilweise über derartige Daten in einzelnen Anwendungen. So liegt die Herausforderung weniger in der Größe der Datenmenge als vielmehr in der richtigen Auswahl, der Datenaufbereitung und vor allem in der Datenintegration.
Dabei gilt es auch zu berücksichtigen, dass die Prozessqualität eine wichtige, aber nicht die einzige Voraussetzung für eine hohe Produktqualität ist. Die angewendete Fertigungstechnologie kann ebenfalls auf die Produktqualität einwirken, selbst dann, wenn alle Prozesswerte optimal eingestellt sind. Und natürlich existieren weitere externe Faktoren, die die Prozess- und Produktqualität beeinflussen. Die gute Nachricht: Mit Predictive Quality können all diese Einflüsse berücksichtigt werden. Die Industrie 4.0 fußt auf der horizontalen und vertikalen Datenintegration, auch unter dem Begriff Internet of Production (IoP) bekannt. Im Idealfall ist jeder Unternehmensbereich mit allen anderen Bereichen vernetzt – selbst mit Anwendern und Lieferanten.
Angesichts dieser Vorstellung kann man erahnen, welch wichtige Rolle der Datenintegration zukommt. Aber nicht nur aus dieser gesamtheitlichen Betrachtung ist eine hochwertige Datenintegration ein zentraler Punkt, bevor Predictive Quality angewendet werden kann. Wie bei allen Prognosen nimmt auch hier die Güte der Vorhersage für die Prozess- und Produktqualität ab, je weiter die Prognosen in die Zukunft reichen. Anders gesagt: Es ist einfacher, den Sieger eines Pferderennens zehn Meter vor dem Ziel vorherzusagen als am Start. Aber: Je länger der Prognosehorizont ist, desto einfacher ist es, auf Qualitätsabweichungen zu reagieren. Unternehmen müssen also das Spannungsfeld zwischen Prognosehorizont und -güte austarieren, um ausreichend Spielraum für adäquate Reaktionen zu erhalten.

Modular und skalierbar

Grundlage für die Nutzung von Predictive Quality ist das MES. Je mehr Daten im System vorhanden sind, desto präziser ist das digitale Abbild und damit auch die Qualitätsvorhersage. Aber auch hier ist die Menge an Daten nicht der einzige Faktor. Die unterschiedlichen Daten aus zahlreichen Quellen müssen vereinheitlich und miteinander verknüpft werden. Die Gbo Datacomp kann hierbei einerseits auf die Erfahrungen aus dem Forschungsprojekt quadrika und andererseits auf das Know-how aus zahlreichen MES-Implementierungen zurückgreifen. Mit Bisoft MES verfügt Gbo über eine Datenplattform, die unabhängig von vorhandenen QM-Lösungen alle wichtigen Daten sammelt, verdichtet und visualisiert, um daraus anhand präskriptiver Analysen Qualitätsprognosen in Echtzeit zu entwickeln, die im laufenden Fertigungsprozess zur Verfügung gestellt werden.
Natürlich kann das Ideal der horizontalen und vertikalen Datenintegration nicht von heute auf morgen erreicht werden. Daher ist Bisoft MES modular aufgebaut, sodass die Integrationsplattform anhand der Bedürfnisse und Anforderungen des jeweiligen Unternehmens skaliert werden kann. Auf diese Weise können zum Beispiel nach einer Test-Fertigungslinie weitere Linien sukzessive in die Plattform integriert werden. Ebenso lassen sich Schritt für Schritt immer mehr Daten, auch aus Unternehmensbereichen abseits der Produktion, integrieren, um die Genauigkeit des digitalen Abbilds und damit der Vorhersagen zu erhöhen. Letztendlich können die Vorteile der Predictive Quality nicht nur in der Fertigung zum Tragen kommen, sondern überall dort im Unternehmen, wo die Prozessqualität gesteigert werden soll.

Kostenlose Registrierung

*) Pflichtfeld

Sie sind bereits registriert?

Unternehmen

gbo datacomp GmbH Informationssysteme

Schertlinstr. 12 a
86159 Augsburg
Germany