Datenanalyse hebt Kosten- und Effizienzpotenziale

Die Auswertung von Maschinendaten in Echtzeit gehört zu den anspruchsvollsten Bereichen von Big Data, denn Sensoren generieren Daten, zum Beispiel Temperatur oder Energiedaten, heute im Sekundentakt oder schneller. Binnen weniger Stunden entstehen so Datenberge im Terabyte-Bereich.
(Bildquelle: Danil Melekhin – iStock.com)

Ein Paradebeispiel, das im Kontext von Big Data häufig genannt wird, ist die präventive Maschinenwartung. Dadurch lässt sich erkennen, wenn Bauteile oder Fertigungsprozesse erste Symptome aufweisen, die auf einen bevorstehenden Ausfall hindeuten. Daraufhin kann der Verarbeiter gezielt und rechtzeitig in den Prozess eingreifen. Die Maschine meldet sich somit bei Wartungsbedarf oder Verschleiß selbst – eine kontinuierliche Wartung der Maschine gehört der Vergangenheit an. Derartige Anwendungsfelder lassen sich jedoch nach Belieben und individuell erweitern, denn wertvolle Rohdaten entstehen überall in der Produktion. So lassen sich mithilfe von Big-Data-Analyse die unzähligen Produktionsvariablen – vom Plastifizieren und Dosieren, Einspritzen, Abkühlen bis hin zum Entformen – analysieren, um Ursachen für Ausreißer in der Produktqualität oder zu hohe Ausschussquoten zu ermitteln.

Die Auswertung von Maschinendaten in Echtzeit gehört zu den anspruchsvollsten Bereichen von Big Data, denn Sensoren generieren Daten, zum Beispiel Temperatur oder Energiedaten, heute im Sekundentakt oder schneller. Binnen weniger Stunden entstehen so Datenberge im Terabyte-Bereich. Aufgrund der heutigen heterogenen Maschinenlandschaft liegen Daten von Produktionsmaschinen, Robotern sowie Förder- und Lagersystemen in unterschiedlichen Formaten vor. Konventionelle Monitoring- und Analyse-Tools sind hierfür angesichts der Vielfalt, Geschwindigkeit, Größe und Veränderbarkeit dieser Datensätze nicht ausgelegt. Big-Data-Analysemethoden ermöglichen es, diese Daten nach bislang unentdeckten Fehlermustern zu durchsuchen. Unstimmigkeiten werden daraufhin untersucht, ob sie wichtige Informationen über Ineffizienzen oder Fehlerquellen beinhalten. So werden Daten, die vorher aufgrund des fehlenden Kontextes ohne Aussage waren, relevant für den Produktionszustand – und zwar mit Blick auf die Zukunft, die sich aus den Daten ableiten lässt.

Führende Unternehmen der Kunststoffindustrie, die einen fortgeschrittenen Reifegrad in der Umsetzung von Big Data haben, sind heute in der Lage, die Produktionssysteme mit den IT-Systemen zu verbinden, um dadurch weitere Wertbeiträge für die Produktion zu erzielen. So konnte ein Kunststoff-Extrudeur für seine Kalkulation die Stückkosten präziser berechnen, indem er die Energiekosten und sonstige Gemeinkosten direkt auf das Enderzeugnis umlegte. Weitere Möglichkeiten ergeben sich in diesem Bereich durch die Maschinenzeiten, die sich automatisiert so planen lassen, dass die Fertigungskosten sinken beziehungsweise bestehende Ressourcen optimal ausgenutzt werden, zum Beispiel, indem energieintensive Fertigungsprozesse in die Nachtschicht verlagert werden.

Datenanalyse hebt Kosten- und Effizienzpotenziale

Mit Prozess-Analysen (Process Analytics) lassen sich die tatsächlichen Abläufe aus unterschiedlichen Quellsystemen rekonstruieren und somit die Ist-Prozesse auf allen Arbeitsebenen mit der größtmöglichen Detailschärfe sichtbar machen.
(Bildquelle: Danatomiq)

Big Data senkt Lagerbestände

Das Nachfrageverhalten in der Kunststoffindustrie hängt von zahlreichen Parametern ab, zum Beispiel von saisonalen Trends, Konjunkturerwartungen oder Witterungsbedingungen. Bestehende Dispositionssysteme stoßen dabei rasch an ihre Grenzen. Die Folge: Bestandsüber- oder -unterhänge, Sondertransporte und Stillstandszeiten in der Produktion durch Fehlmengen. Big-Data-Analysen dagegen extrahieren signifikante Wahrscheinlichkeiten auf Basis von mathematischen Modellen aus den Daten. Aufgrund dessen lassen sich die Beschaffungsdisposition besser am Bedarf des Endkunden ausrichten und die Lagerbestände senken.

Automatisiert auf rohstoffbedingte Preisschwankungen reagieren

Die hohen Preisschwankungen auf den Polymermärkten beeinflussen die Materialkosten stark. Rohstoffabhängige Anpassungen erfolgen entweder über eine indexbasierte Formel oder über ständige Nachverhandlungen des Verarbeiters. Das Einpreisen solcher rohstoffbedingten Anpassungen erfolgt dabei häufig nicht korrekt – darum weichen die Preise teils im zweistelligen Prozentbereich von den realen Entwicklungen auf den Märkten ab. Laufende manuelle Berechnungen auf Sachnummernebene sind dagegen aufgrund zahlreicher Artikelnummern sehr komplex und zeitaufwendig. Mithilfe von Big-Data-Methoden lassen sich nun index- beziehungsweise marktkonforme Anpassungen der Preise verwirklichen, was den Verarbeiter vor Überzahlungen schützt. Hierbei verknüpfen Big-Data-Analysen unternehmensinterne Einkaufsdaten auf Sachnummernebene mit lieferantenspezifischen Anpassungsformeln und den externen Daten von Rohstoffbörsen.

Interne Abläufe veranschaulichen

Big Data ist jedoch auch in administrativen Bereich ein Trendthema. Mit Prozess-Analysen (Process Analytics) lassen sich die tatsächlichen Abläufe aus unterschiedlichen Quellsystemen rekonstruieren und somit die Ist-Prozesse auf allen Arbeitsebenen mit der größtmöglichen Detailschärfe sichtbar machen. Im Gegensatz zur herkömmlichen Prozessanalyse werden hier nicht die Mitarbeiter befragt, sondern die IT-Systeme, die alle Arbeitsschritte tabellenorientiert abspeichern. Auf diese Weise erfasst, visualisiert und wertet der Verarbeiter alle Geschäftsprozesse auf den jeweiligen Arbeitsebenen aus. Beispielhaft lassen sich komplexe Prozesse mit hoher Durchlaufzeit – von der Kundenbestellung bis zur Auslieferung der Ware – um 50 Prozent verringern. Daneben lassen sich Kostentreiber und unerwünschte Prozessmuster aufspüren, die unnötige Kapazitäten  in der Verwaltung sowie Liquidität binden.

Konkurrenz aus dem Internet

Auch die Kunststoffbranche steht im Visier von Firmen, die mit internetbasierten Leistungen in den Markt eindringen möchten. Können sich diese als Anbieter von datengetriebenen Dienstleistungen den Zugang zum Kunden verschaffen, so besteht die Gefahr, dass Kunststoffverarbeiter in der Lieferkette degradiert werden. Viele Industrieunternehmen begegnen dieser Entwicklung derzeit, indem sie zusätzliche datengetriebene Dienstleistungen aufbauen. Diese setzen nach dem Verkauf an und erweitern somit die Umsatzmöglichkeiten. In diesem sogenannten Service-4.0-Verständnis ist die Kauftransaktion somit erst der Beginn einer gewinnträchtigen und kontinuierlichen Geschäftsbeziehung mit dem Kunden. Denkbar wäre, dass über eine digitale Plattform die Prozessparameter anspruchsvoller Produktionschritte, wie etwa Dosier- oder Einspritzdaten für bestimmte Polymere beziehungsweise Teile, gehandelt werden. Beteiligt sind neben dem Kunststoffverarbeiter hier auch Anlagen- und Granulathersteller sowie Endkunden, die sowohl als Nutzer als auch als Datenlieferant auftreten können.

Trotz der guten Wachstumsaussichten geht der Schritt in Richtung Service 4.0 in den meisten Unternehmen jedoch noch zu langsam. Das Management bei vielen mittelständischen Kunststoffbetrieben ist noch immer produkt- und nicht servicegetrieben, der harte Verkaufsumsatz und nicht das immaterielle Lebenszyklus-Geschäft stehen im Vordergrund – noch. Denn der Handlungsdruck in der Kunststoffbranche steigt permanent, zukunftsweisende Service-4.0-Modelle zu entwickeln und sich vom Wettbewerb abzuheben, bevor es andere tun. Das ist die Chance, um dem massiven Preisdruck zu begegnen.

Über den Autor

Christoph Gabath

ist Geschäftsführer von Datanomiq in Berlin.