Predictive Quality

MES und KI in Kombination versprechen
transparente Prozessketten und können die Produktqualität maßgeblich steigern. (Bild: Argus – stock.adobe.com)

Das Qualitätsmanagement (QM) gleicht vielfach einem Blick in die Vergangenheit: Gefertigte Bauteile werden analysiert, um die Qualität der nächsten Teile zu verbessern. Predictive Quality ermöglicht dagegen den Blick in die Zukunft, um schneller und effizienter zu produzieren – vorausgesetzt, die vorhandenen Daten werden sinnvoll auf einer Plattform wie einem Manufacturing Execution System (MES) integriert. Entsprechende Lösungen sind bereits im Einsatz.

Die Rückwärtsgewandtheit eines herkömmlichen Qualitätsmanagements führt zu einem hohen Aufwand und vermeidbaren Kosten. Nicht nur, dass Ausschussteile die Produktivität im Allgemeinen verringern, für die Qualitätssteigerung von Produkten und Fertigungsprozessen muss auch Zeit und Personal investiert werden – und das immer wieder, denn schließlich handelt es sich um einen kontinuierlichen Verbesserungsprozess. Wüssten jedoch Fertigungsplaner, Schichtleiter oder Werker schon im laufenden Fertigungsprozess, wie die Produktqualität ausfallen wird, könnten sie rechtzeitig Maßnahmen ergreifen, um sich anbahnende Abweichungen zu korrigieren, bevor es zu Ausschuss-teilen kommt. Hier setzt Predictive Quality an.

Angenommen ein Unternehmen aus der Kunststoffindustrie produziert tagtäglich unzählige Kleinteile, die ausgeliefert und weiter verbaut werden. Die Produktqualität wird anhand einer Quality Rate (PPM) ermittelt. Diese Kontrolle ist aufwendig. Um die Transparenz zu erhöhen, müsste die Frequenz der Qualitätskontrollen erhöht werden, wodurch jedoch wiederum der Aufwand größer wird. Letztendlich wird die Qualitätskontrolle durch den Kosten-Nutzen-Faktor limitiert.

Das digitale Abbild

Predictive Quality bricht das Spannungsfeld zwischen qualitativen Anforderungen und Kosten auf, indem zur Qualitätsanalyse historische Produkt- und Prozessdaten in Echtzeit herangezogen und extrapoliert werden. So entsteht anhand produkt- und prozessspezifischer Daten ein digitales Abbild, das permanent überwacht wird, um Abweichungen zu erkennen. Auf diese Weise dient die datengetriebene Qualitätsprognose als Grundlage für die Entscheidungen von Fertigungsplanern oder Schichtleitern. Maschinenwerker erhalten dadurch die Möglichkeit, direkt in den Fertigungsprozess einzugreifen, anstatt die Qualität eines Teils erst am Prozessende zu kontrollieren.

Identifikation wiederkehrender Muster

Wie kann aber aus historischen Daten eine Vorhersage über die zukünftige Produkt- und Prozessqualität abgeleitet werden? Wie wird aus einer deskriptiven, beschreibenden, eine präskriptive, vorhersagende Analyse? Durch Künstliche Intelligenz (KI). Mit den Daten der digitalen Abbilder werden statistische Hochrechnungen vorgenommen, um darin wiederkehrende Muster zu identifizieren, die auf zukünftige Qualitätsabweichungen hinweisen.

An diesen Hochrechnungen wurde im Projekt „Quality Data based Risk Assessment for Industry 4.0“ (quadrika) geforscht, an dem auch Gbo Datacomp, Augsburg, beteiligt war. Im Rahmen dieses vom Bundesforschungsministerium geförderten Projekts wurde ein Quality-Data-Modul (QDM) entwickelt, das als Add-on eines MES Prozesse online überwacht, um Prozess- und Produktrisiken zu vermeiden, noch bevor sie auftreten. Dadurch erhöht sich die Prozess- und Produktqualität und Ausschüsse werden reduziert beziehungsweise minderwertige Bauteile nicht weiterverarbeitet.

Datenintegration als zentrale Herausforderung

Es dürfte auf der Hand liegen, dass Predictive Quality ohne Onlinedaten nicht möglich ist – je mehr, desto besser, denn je realistischer das digitale Abbild ist, desto höher ist die Wahrscheinlichkeit, dass die Qualitätsprognosen zutreffen. Dafür muss nicht nur das zu fertigende Produkt anhand zahlreicher Daten digital abgebildet werden, sondern auch die einzelnen Fertigungsprozesse.Dazu braucht es Daten wie etwa über die Verfügbarkeiten von Maschinen, Werkzeugen, Rüstzeiten, Temperaturen, Geschwindigkeiten, Drücken und so weiter. Viele produzierende Unternehmen verfügen teilweise über derartige Daten in einzelnen Anwendungen. So liegt die Herausforderung weniger in der Größe der Datenmenge als vielmehr in der richtigen Auswahl, der Datenaufbereitung und vor allem in der Datenintegration.
Dabei gilt es auch zu berücksichtigen, dass die Prozessqualität eine wichtige, aber nicht die einzige Voraussetzung für eine hohe Produktqualität ist. Die angewendete Fertigungstechnologie kann ebenfalls auf die Produktqualität einwirken, selbst dann, wenn alle Prozesswerte optimal eingestellt sind. Und natürlich existieren weitere externe Faktoren, die die Prozess- und Produktqualität beeinflussen. Die gute Nachricht: Mit Predictive Quality können all diese Einflüsse berücksichtigt werden. Die Industrie 4.0 fußt auf der horizontalen und vertikalen Datenintegration, auch unter dem Begriff Internet of Production (IoP) bekannt. Im Idealfall ist jeder Unternehmensbereich mit allen anderen Bereichen vernetzt – selbst mit Anwendern und Lieferanten.

 

Autor: Michael Möller ist Geschäftsführer der Gbo Datacomp in Augsburg.

Sie möchten gerne weiterlesen?

Unternehmen

gbo datacomp GmbH Informationssysteme

Schertlinstr. 12 a
86159 Augsburg
Germany