gs1-neton-header-01.jpg

Damit Daten vertraut werden kann

Grosser ServerraumWenn jedes produzierte Teil zukünftig sämtliche Informationen des Lebenszyklus bei sich tragen soll, wird die Menge der Daten weiter stark ansteigen. Die Kontrolle von Qualität, Sicherheit und Verteilung solcher Daten gehört zu den grössten Herausforderungen von Industrie 4.0.

Über Industrie 4.0 wird seit geraumer Zeit viel diskutiert. Die durch das Internet getriebene vierte industrielle Revolution umschreibt den technologischen Wandel heutiger Produktionstechnik hin zu cyber-physischen Produktionssystemen, zur Smart Factory. In diesen cyber-physischen Systemen sind künftig ausserordentlich viele intelligente Objekte in einem Internet der Dinge, Daten und Dienste miteinander vernetzt und steuern sich selbstständig. Diese Vernetzung wird eine neue Qualität der Verfügbarkeit von Informationen über die Produktionsabläufe in Echtzeit bringen. Die Datenmodelle werden aktueller und das Produktionsgeschehen insgesamt transparenter, so die Erwartung der Studie «Produktionsarbeit der Zukunft – Industrie 4.0» des Fraunhofer IAO.

Datenmengen wachsen exponentiell
Bis dahin ist allerdings noch einiges zu tun. So sagen 51 Prozent der in der Studie befragten Unternehmen, schlechte Qualität der Produktionsdaten mache in starkem oder sehr starkem Masse kurzfristige Eingriffe in die Produktionssteuerung notwendig; ein weiterer wichtiger Grund hierfür ist die mangelnde Aktualität der Produktionsdaten. Zu mangelhafter Datenqualität und -aktualität kommt künftig erschwerend hinzu, dass die zu bewältigenden Datenmengen exponentiell wachsen. Wenn jedes Werkstück diverse Daten über seinen Herstellungsprozess und künftigen Einsatz «an Bord» hat, bleibt das nicht aus. Das lässt sich am Beispiel VW anschaulich zeigen. Das Unternehmen produziert an weltweit 118 Standorten rund 40 000 Autos pro Tag. Dazu bedarf es einer Milliarde Teile (25 000 Teile pro Auto) und 1,25 Milliarden Arbeitsgänge pro Tag (fünf Arbeitsgänge pro Teil, 25 Prozent Eigenfertigungsanteil). Für jeden dieser Arbeitsgänge gibt es Auftragsdaten, Maschinendaten, Fertigungshilfsmitteldaten, Material- und Lagerdaten, Prozessdaten, Qualitätsdaten und Personaldaten. Hinzu kommen Daten zu ausserhalb der Fertigung liegenden Prozessen, wie beispielsweise für Vertrieb, Einkauf, Logistik, Verwaltung und Management. Dabei ist die Digitalisierung und Vernetzung in vollem Gang. Alle fünf Jahre verdoppelt sich die Anzahl der vernetzten intelligenten Objekte: Waren es 2010 weltweit 12,5 Milliarden, sollen es 2015 bereits 25 Milliarden gewesen und 2020 gar 50 Milliarden sein, prognostiziert der US-Netzwerkspezialist Cisco. Mit Blick auf die künftigen Produktionsprozesse besteht die technologische Herausforderung darin, diese riesigen Datenmengen schnell aufzubereiten und zu analysieren, erklärt Manfred Wittenstein, Aufsichtsratsvorsitzender der Wittenstein AG.

Es läuft nichts ohne Stammdatenmanagement
Eine der grössten Aufgaben für Industrie 4.0 sei daher das Beherrschen des Datenaustauschs über die verschiedenen Wertschöpfungsketten der Produktions- und Fertigungsprozesse hinweg. Dafür gelte es, Datenverteilung, Datenqualität, Datensicherheit und Datenwachstum übersichtlich darzustellen und zu kontrollieren, so Josef Glöckl-Frohnholzer, COO des Cloud- Dienstleisters Zimory. Um diese Aufgabe zu bewältigen, ist der Einsatz von Stammdatenmanagementsystemen angeraten. Mit ihrer Hilfe lassen sich die Datenqualität und gleichzeitig Data- Governance-Aspekte über die Geschäftsprozesse hinweg sicherstellen. Gerade in der Produktion spielen Stammdaten eine wichtige Rolle (siehe Beispiel VW); damit geht ein höherer Anspruch an die Datenqualität einher. Werden beispielsweise Stücklisten nicht korrekt gepflegt, verzögert sich das Zusammenstellen des Produkts erheblich, Lieferverzögerungen und höhere Kosten können die Folge sein. Findet der Datenaustausch in der Industrie 4.0 automatisiert zwischen den intelligenten Objekten und Produktionsanlagen statt, verschwinden mehr und mehr die menschlichen «Schnittstellen », die Datenqualität sicherzustellen in der Lage sind. Werkstücke und Maschinen mögen noch so intelligent sein, Datenqualität können sie nicht beurteilen und daher auch nicht korrigierend eingreifen. Fehlt aber das menschliche Korrektiv, ist es umso unerlässlicher, datenqualitätssichernde Massnahmen mithilfe professioneller Stammdatenmanagementlösungen von vornherein zu integrieren.

Herausforderung Datenanalyse
Der fortschreitende Umgang mit Data Analytics und Big Data in den Unternehmen erhöht die Anforderungen an die Stammdatenqualität weiter, sagen Andreas Dietze und Thomas Fischer, IT-Experten bei Roland Berger Strategy Consultants. Big Data wird üblicherweise anhand dreier Charakteristika beschrieben: Datenmenge (Volume), Geschwindigkeit des Datenstroms (Velocity) und Vielfalt der Datenformate und -quellen (Variety). Allerdings müssen Unternehmen eine wichtige vierte Dimension berücksichtigen: die Richtigkeit der Daten. Die Einbeziehung von Richtigkeit (Veracity) unterstreiche, wie wichtig es sei, die implizite Unsicherheit einiger Datentypen zu berücksichtigen und in den Griff zu bekommen. Darauf haben das IBM Institute for Business Value und die Saïd Business School in ihrer schon 2012 veröffentlichten Studie «Analytics – Big Data in der Praxis» hingewiesen. Hohe Datenqualität sei eine wichtige Anforderung im Umgang mit Big Data. Kein Wunder: Auch noch so viele Daten sind ohne das Erkennen von Zusammenhängen, Bedeutungen und Mustern wertlos. Der Einsatz von Verarbeitungs- und Analysemethoden kann aber nur dann einen monetären Wert aus Big Data generieren, wenn die Daten stimmen. Auswertungen oder Planungen sind fehleranfällig, wenn sie nicht auf vollständigen, eindeutigen und richtigen Daten basieren. Daher bilde das Vertrauen in die Verlässlichkeit der Daten eine essenzielle Voraussetzung, um wichtige Entscheidungen zu treffen, sagen Dietze und Fischer. Fehlende Standards zur Datenpflege störten dieses Vertrauen jedoch. Unternehmen sollten daher die Mahnung von Marco Geuer, Senior Berater bei der ACT-Gruppe, ernst nehmen: «Ohne ein effektives Datenqualitätsmanagement werden Unternehmen es nicht schaffen, das Potenzial von Big Data und Business Analytics voll auszuschöpfen. »

Single Point of Truth durch Stammdatenmanagement
Mit Blick auf die geschilderten Herausforderungen ist es nicht übertrieben, Stammdaten als «Rückenmark» der Produktionsprozesse zu bezeichnen. Ein professionelles Stammdaten- und Datenqualitätsmanagement sind daher unerlässlich. Aufwendige Datenbereinigungsaktionen, um Inkonsistenzen zu korrigieren, lösen zwar kurzfristig Qualitätsprobleme, wirken aber nicht nachhaltig und langfristig. Es wird konsolidiert und harmonisiert, aber nicht an der eigentlichen Ursache gearbeitet. Um dauerhaft Datenqualität zu erzielen, müssen betroffene Produktionsprozesse identifiziert und Standards für Stammdaten, für Datenpflege und -freigabe (Data Governance) definiert werden. Erst wenn das geschehen ist, kann eine IT-Unterstützung erfolgen. Eine professionelle Standardlösung für das Stammdatenmanagement stellt einen «Single Point of Truth» für die verschiedenen Stammdatendomänen bereit. Sie verbessert nicht nur die Qualität und Aktualität der Stammdaten, sondern sorgt auch für effizientere Prozesse. Gleichzeitig implementieren Unternehmen einen einheitlichen und kontrollierten Ablauf für die Pflege ihrer Stammdaten. Die Daten werden über eine intuitive Weboberfläche dezentral erfasst, zentral freigegeben und an die relevanten Systeme verteilt. Jede Änderung wird auf Belegen dokumentiert. Neben der Datenhistorie ist auch eine Prozesshistorie abrufbar. Durch klar definierte Verantwortlichkeiten für die Dateneingabe und -freigabe im Zusammenspiel mit kontrollierten Prozessen für die Stammdateneingabe unterstützt eine Stammdatenmanagement- Lösung unternehmenseigene Data-Governance-Aspekte. Da durch den Einsatz einer solchen Lösung die Datenpflege nur einmalig anfällt, lassen sich zeitaufwendige und redundante Pflegeaktionen vermeiden. Es reicht die Vorstellung von geschätzten 50 Milliarden intelligenten Objekten im Jahr 2020, um ein Stammdatenmanagement in der hier grob skizzierten Form anzustreben.

Monika Pürsing CEO, Zetvisions AG, Heidelberg

Nach oben