Herausforderung
Die meisten Unternehmen haben intern die Qualität bereits unermüdlich verbessert. Bei den Verbesserungen über Unternehmensgrenzen hinweg ist es jedoch oft eine andere Geschichte. In der Vergangenheit war es zu kompliziert, über interne Richtlinien, Computersysteme und Datennetze hinauszugehen. Dieser Wandel wird sich jetzt vollziehen. Betrachtet man die Wertschöpfungskette der Glasveredelung, so sieht man viele verschiedene Interessengruppen, die alle das gleiche Ziel verfolgen: Waren von höchster Qualität zu liefern – mit der geringstmöglichen Ausschussquote. Die Temperatur des Rohmaterials spielt dabei eine große Rolle für die Qualität. In der Konsequenz muss man die Daten entlang der gesamten Wertschöpfungskette integrieren, um mögliche Fehlerquellen zu identifizieren und die Ausschussquote zu reduzieren.
Lösung
Der Data Intelligence Hub verwandelt das Internet der Dinge in das Internet der Produktion – zum Beispiel bei GlasGo, einer der weltweit führenden Glasraffinerien. Trotz einwandfreier Eingabekontrollen im Unternehmen gaben die Kunden gelegentlich Gläser zurück, weil die Farben verblassten.
Eine mögliche Ursache besteht darin, dass die Farblacke beim Versand zu niedrigen Temperaturen ausgesetzt sind. Denn die Lacke werden bei Temperaturen unter 2°C beschädigt. In den Lagern von GlasGo und seinen Lieferanten stimmen die Temperaturverhältnisse. Was ist aber mit dem kritischen Transport über die deutsche Autobahn von Bayern in den Westerwald? Mit dem Data Intelligence Hub ist es nun möglich, die von der Cloud of Things erfassten Daten durchgängig entlang der gesamten Lieferkette schnell zu verbinden und Schlüsselvariablen zu überwachen: vom Lieferanten über Autobahnen und Speicherorte bis hin zum Empfänger.
Vorteil
Der Data Intelligence Hub dient nicht nur als Datenpool, sondern auch als Werkstatt: Mit künstlicher Intelligenz und Machine Learning lassen sich Fehler schneller identifizieren, Ursachen finden und Problemlösungen ableiten. Dies bedeutet, dass GlasGo die Ausschussquote und die Retouren reduzieren kann. Darüber hinaus sparen sie Geld, weil sie auf die Umweltdaten reagieren und die Transportbedingungen anpassen können. Besonders praktisch: Alle Komponenten lassen sich nach dem Baukastenprinzip einfach kombinieren und erweitern. Die wertstiftende Analytik kann von wettbewerbsneutralen Data Scientisten entwickelt und für alle Nutzer bereitgestellt werden. Diese Neutralität ermöglicht den Mitgliedern die wettbewerbsneutrale Datenbereitstellung. Alle Nutzer verfügen jederzeit über die Datensouveränität und bestimmen Nutzungsdauer sowie Verwendungszweck. Die Deutsche Telekom garantiert die zweckgebundene Datenverwendung. Obendrein haben Kunden die Möglichkeit, durch die Monetarisierung eigener Datenbestände weitere Einnahmequellen einfach, transparent und sicher zu erschließen.