Hinweis: Der folgende Artikel ist zuerst im Onlinemagazin wt Werkstattstechnik, Band 111 (Nr.4), S.201-204, 2020 erschienen.
Die Digitalisierung findet Einzug in den deutschen produktionstechnischen Mittelstand. Bisherige Ansätze beschränken sich auf Optimierungen firmeninterner Prozesse. Der nächste Schritt ist die Nutzung dieser Ansätze, um firmenübergreifende Geschäftsmodelle zu realisieren. Noch gibt es jedoch einige Herausforderungen, die diesen Schritt behindern. Im vorliegenden Artikel werden diese Herausforderungen durchleuchtet und ein Lösungsansatz wird präsentiert.
Von firmeninterner zu firmenübergreifender Vernetzung
Die Digitalisierung im produzierenden Gewerbe schreitet seit Jahren stark voran. Bereits mittelständische Unternehmen haben längst begonnen, Prozess- und Produktinformationen digital zu erfassen und auszuwerten. Das gewonnene Wissen wird bisher genutzt, um firmeninterne Prozesse besser zu verstehen und zu optimieren. Für diese Vorgänge werden bereits etablierte Cloud-Plattformen sowie lokale, auf Unternehmen zugeschnittene Lösungen angeboten und eingesetzt. Das Resultat ist ein deutscher Mittelstand, der langsam aber sicher beginnt, den ursprünglichen Gedanken von Industrie 4.0 zu verwirklichen: die Vernetzung von Maschinen und Abläufen [1].
Nach der Verwirklichung firmeninterner Prozesstransparenz und -optimierung, ist der logische nächste Schritt das gewonnen Wissen zu nutzen, um eine effizientere Kollaboration zwischen angrenzenden Unternehmen innerhalb des Wertschöpfungsnetzes anzupeilen. Es soll ein Wertschöpfungsnetz entstehen, in dem kooperierende Firmen Informationen austauschen können, um einen Mehrwert für alle teilnehmenden Firmen zu schaffen. Ein sehr gut optimierter Prozess einer einzelnen Firma sorgt nur bedingt für Mehrwert, wenn das gewonnene Wissen nicht an die Partner im Wertschöpfungsnetz vermittelt werden kann. Dieses theoretische Konstrukt lässt sich sehr einfach an einem fiktiven Beispiel erläutern:
Ein Zulieferer für die Automobilindustrie ist durch den Einsatz aktuellster Technologie in der Lage Prozessinformationen zu nutzen, um die Qualität seiner produzierten Ware sehr detailliert zu erfassen und potentiellen Ausschuss auszusortieren. Momentan könnte der Zulieferer seinen Kunden Ware mit durchgängig sehr guter Qualität anbieten, ausschussfreie Lieferungen garantieren und sich somit einen Wettbewerbsvorteil verschaffen. Sein Kunde jedoch wird trotzdem teure Stichprobentests durchführen, da er sich sicher sein muss, dass die versprochene Qualität eingehalten wird. Der Kunde dieses Kunden wiederholt den Qualitätssicherungsprozess, da auch er seinen Kunden eine abgemachte Qualität garantieren muss. In der beschriebenen Wertschöpfungskette wird somit bei jedem Kettenglied Geld investiert, um Qualität sicherzustellen, obwohl der initiale Zulieferer durch aktuellste Technik die Qualität bereits nachweisbar garantieren kann. Die Erklärung für dieses Standardvorgehen in Prozessketten mit hohen Qualitätsansprüchen ist einfach: es herrscht kein vollständiges Vertrauen zwischen den einzelnen Firmen in der Wertschöpfungskette.
Dieser Umstand wird als normal betrachtet und wird sich auch in absehbarer Zukunft nicht ändern. Was wäre jedoch, wenn relevante Informationen zwischen Geschäftspartnern ausgetauscht werden könnten und gleichzeitig die Korrektheit dieser Informationen garantiert wird, so dass kein Vertrauen notwendig ist? Es würden datengetriebene Geschäftsmodelle entstehen, die aktuell noch nicht realistisch einsetzbar sind, da Daten aus unternehmensfremden Quellen nicht als Geschäftsgrundlage dienen können. Beispiele hierfür sind nutzungsbasierte Leasingverfahren, transparente Wartungskonzepte oder ein produktbegleitender Qualitätsnachweis.
Notwendige Eigenschaften
Um datengetriebene Geschäftsmodelle über Unternehmensgrenzen hinweg realisieren zu können, müssen bisher nicht erforderliche Systemeigenschaften erfüllt sein. Aktuelle Systeme, die sich auf die Datenhaltung und -verarbeitung in einem einzelnen Unternehmen fokussieren, konnten diese Eigenschaften bisher weitestgehend ignorieren. Neben dem bereits angesprochenen Vertrauen in überlieferte Daten, müssen technische Herausforderungen gelöst werden. Ein Datenaustausch von Hallenboden zu Hallenboden oder die Nutzung von gemeinsamen, firmenübergreifenden Speichertechnologien sind Grundsteine eines datengetriebenen Geschäftsmodells. Warum sind diese Eigenschaften jedoch nötig?
Um Daten von externen Quellen in einem Geschäftsmodell nutzen zu können, muss gewährleistet sein, dass diese korrekt sind. Da Vertrauen allein nicht zufriedenstellend ist, muss eine technische Lösung geschaffen werden, die Vertrauen unnötig macht. Etwa indem das System garantiert, dass sämtliche geteilte Daten korrekt sind. Hierzu ist der gemeinsame Datenspeicher nötig. Daten, die zentral bei einer der kooperierenden Firmen gespeichert werden, sind für die anderen Firmen potentiell fehlerhaft, da sie jederzeit manipuliert werden können. Die Daten müssen entsprechend verteilt auf alle Firmen in redundanter Art und Weise gespeichert werden. Dies führt jedoch zu einer sehr hohen Transparenz, die für viele Unternehmen nicht akzeptabel ist. Es bedarf somit einer Lösung, die semitransparent ausgewählte Informationen verteilt speichert und gleichzeitig einzelne Informationen nur bei Bedarf einsehbar macht.
Um diese Art der Datenspeicherung zu realisieren, sind Kommunikationskanäle nötig, die bisher nicht existieren. Ein Datenaustausch vom Hallenboden einer Firma zum Hallenboden einer kooperierenden Firma ist momentan nicht denkbar. Für datenbasierte Geschäftsmodelle jedoch kann dieser Kommunikationskanal von großer Bedeutung sein. Die Umsetzung dieser Anforderungen bedarf neuer Technologien, die sich sowohl auf Hardwarelösungen als auch auf Softwarelösungen stützen. Im Folgenden brechen wir die Herausforderungen herunter und stellen eine Lösungsarchitektur vor.
Hardwaretechnische Herausforderungen
Die Herausforderungen auf Hardwareseite beginnen bereits bei der Datenerzeugung und -erfassung. Auf dem momentanen Stand der Digitalisierung werden Daten einer Produktionsanlage von etlichen Sensoren erfasst. Diese Daten werden anschließend, wie in Abbildung 1 dargestellt, durch mehrere Systeme, beispielsweise Steuerung, Gateway oder interne Server geleitet und letztendlich in einer Datenbank gespeichert. In dieser Kette sind die Daten nicht vor bewusster oder unbewusster Manipulation geschützt. Dies stellt innerhalb eines Betriebs kein Problem dar, da es keinen Grund gibt, Daten zu manipulieren, die als Grundlage für die eigene Prozessverbesserung dienen. Bei einem Datenaustausch mit externen Partnern jedoch gibt es sehr wohl Gründe, die Daten gewinnbringend anzupassen. Der bereits beschriebene Qualitätsnachweis ist ein Beispiel hierfür. Die Folge ist, dass ein Geschäftspartner den Daten nicht vertraut, die undurchsichtig in der IT eines anderen Unternehmens erfasst und gespeichert werden.
Eine Anpassung des Datenerfassungsprozesses kann dieses Problem lösen. Werden erfasste Daten signiert bevor sie eines der weiterverarbeitenden Systeme erreichen, ist eine spätere Änderung nicht mehr unerkannt möglich. Der erste Ansatz hierfür ist die Signierung der Daten direkt im Sensor. Erfasste Daten werden dort signiert wo sie aufgezeichnet werden und anschließend an eine verteilte Datenbank weitergeleitet. Solche Lösungen werden bereits in kleinem Umfang kommerziell vertrieben [2].
Der Nachteil dieser Lösung ist die Beschränkung auf ausgewählte Hersteller von Sensorik. Einen universellen Ansatz bietet der Einsatz eines Microcontrollers oder eines dedizierten ASIC. Beide Systeme bieten eine minimale Angriffsfläche für Manipulation. Sie können direkt zwischen Sensor und nachgelagerten Systemen angebracht werden. Auf den Systemen werden die erfassten Daten in das Format der ausgewählten Datenbank gebracht, signiert und sicher weitergeleitet. Funktional gibt es zu herkömmlichen Verfahren der Datenerfassung keine Einschränkungen. Eine Erklärung, wie genau so ein System funktioniert und wieso die Daten manipulationssicher sind, haben Korb et al. 2019 publiziert [3]. Im Grunde erklären die Verfasser der Veröffentlichung, dass ein Mikrocontroller auf proprietäre Betriebssysteme verzichten kann und somit keine Fläche für eine ungewollte Änderung der Verarbeitungslogik von erfassten Daten bietet. Zusätzlich kann die benötigte Hardware so klein gehalten werden, dass eine Anbringung im Schaltschrank möglich ist.
Die Herausforderung dieser Lösung besteht darin, unterschiedliche Datenbanken, in diesem Fall Blockchains, zu bedienen. Jede Blockchain hat unterschiedliche Transaktionsformate und Signierverfahren. Bibliotheken oder sonstige softwaretechnische Lösungen zur Erzeugung und Signierung von Transaktionen sind für gewöhnlich nicht für Mikrocontroller-Systeme vorhanden und müssen dementsprechend neu entwickelt werden.
Softwaretechnische und datenanalytische Herausforderung
Datengetriebene Geschäftsmodelle wie beispielsweise das eingangs erwähnte transparente Wartungskonzept können mittels bekannter Machine-Learning-Algorithmen umgesetzt werden. Eine der wohl bekanntesten Herausforderungen in diesem Bereich ist die vorausschauende Wartung (Predictive Maintenance). Dabei wird die Zeit bis zum Ausfall immer genauer abgeschätzt, um Ausfallzeiten zu minimieren oder die Lebensdauer der Anlagen zu maximieren. Grundlage für die Umsetzung sämtlicher Analysen und Vorhersagen mittels Machine-Learning-Algorithmen sind immer große Mengen an Maschinendaten.
Neu in diesem Szenario ist jedoch die Blockchain-Technologie als Anlaufstelle für Daten, um zusätzlich einen Austausch über die Unternehmensgrenzen hinweg zu ermöglichen. Die grundlegenden Eigenschaften dieser Technologie versprechen eine einfache Lösung für viele Probleme beim firmenübergreifenden Datenaustausch, durch die das Vertrauen der Partner bei korrektem Einsatz gestärkt werden kann. Die Nachvollziehbarkeit durch eine dezentrale und transparente Datenverwaltung, eine Verkettung der Datensätze, sowie eine Einigung aller Netzwerkknoten über einen sogenannten Konsensus-Algorithmus bezüglich der Korrektheit von Zuständen macht eine nachträgliche Umkehrbarkeit oder Manipulation von Daten unmöglich. Gleichzeitig sorgt die automatisierte Verarbeitung erfasster Daten über sogenannte Smart Contracts für Flexibilität, indem – ausgelöst durch einen Daten-Schwellwert oder eine andere Aktion – ein Prozess angestoßen wird, der auf Basis manipulationssicher gespeicherter Daten automatisiert weitere Prozesse innerhalb einer Wertschöpfungskette ermöglicht [4].
Diese Eigenschaften klingen nach plausiblen Lösungsansätzen für viele Probleme in Kooperationsprojekten. Auf den zweiten Blick ist diese Lösung jedoch nicht ohne Anpassungen nutzbar. Aufgrund der Vielzahl unterschiedlicher Komponenten im Datenmanagement-Prozess, von Datenaufnahme über Datenhaltung bis zur Datenanalyse mittels Machine Learning Tools, existieren viele unterschiedliche Meinungen darüber, welche die besten Ansätze für Pipelines im produktiven Einsatz sind. Insbesondere bei großen Datenmengen und einer Limitierung der Datenübertragung ist es häufig sinnvoll und auch notwendig, die Vorverarbeitung und die Extraktion von Features auf dem Edge-Gerät durchzuführen und dann nur die extrahierten Features an das Vorhersagemodell zu senden, das in der Cloud ausgeführt wird. Abbildung 2 zeigt einen beispielhaften Datenmanagement-Prozess. Die Herausforderung besteht darin, die Blockchain-Technologie sinnvoll in einen komplexen und zugleich höchst flexiblen Datenmanagement-Prozess zu integrieren, ohne die Nachvollziehbarkeit der Daten zu gefährden.
Beispielhafte Architektur für die Umsetzung einer Blockchain-Lösung
Ein firmenübergreifender Datenaustausch erfordert eine hohe Datensicherheit und Datenintegrität. Deshalb ist es sinnvoll, eine mögliche Systemarchitektur in grundsätzlich zwei Gebiete zu unterteilen. Während einzelne Komponenten über das Internet erreichbar sind, sind andere lediglich in privaten Netzwerken vorhanden. Abbildung 3 zeigt eine beispielhafte Architektur, wie sie im Verbundprojekt „KOSMoS“ umgesetzt wird. Es handelt sich hierbei lediglich um logische Komponenten, nicht physische oder digitale Systemteile.
Die Industrie 4.0 fordert Systemarchitekturen, mit denen sich modulare Datenverarbeitungs- und Machine-Learning-Komponenten nicht nur in der Cloud, sondern auch „at the edge“ oder „in the fog“, also deutlich näher am „Hallenboden“ sicher und zuverlässig betrieben werden können. Insbesondere besitzt beispielsweise die Analyse-Plattform in KOSMoS nicht nur ein über das Internet erreichbares Teilsystem, sondern auch lokal ausgeführte Services. Die Überwindung der logischen Trennung von Teilsystemen kann in diesem Fall beispielsweise mittels Modellaustauschformaten oder über eine serverseitige Bereitstellung von trainierten Modellen auf dem Edge Device realisiert werden.
Die Blockchain-Komponente des Systems stellt die gemeinsame Datenbank von Maschinenherstellern und Maschinenbetreibern dar. Die Blockchain als verteilte Datenbank wird im einfachsten Fall nur mit einer Node zentral betrieben. Im Normalfall gibt es jedoch mehrere Nodes. Jede Node beinhaltet eine komplette Version der Blockchain. In unserem Falle können Nodes in der IT eines Dienstleisters, eines Maschinenherstellers oder auch beim Maschinenbetreiber liegen. Neben solchen Teilungen von logischen Komponenten kann es ebenfalls zu Duplizierungen kommen.
Das Edge Device beispielsweise wird mehrfach im Gesamtsystem vorkommen und potentiell mit mehr als einer Maschine verbunden sein. Die Kommunikation mit der internen IT-Landschaft eines Anwenders ermöglicht es, erfasste Prozessinformationen in einen Kontext zu bringen. Das globale KOSMoS-System dient als organisatorischer Einstieg in das KOSMoS-Ökosystem. Die Kommunikation zwischen globalem KOSMoS-System und Edge Device findet über das lokale KOSMoS-System statt. Ein lokales KOSMoS-System ist in der IT des Anwenders vorhanden, um die notwendige Internet-Kommunikation mit dem globalen KOSMoS-System zu minimieren. Alle kundenspezifischen Informationen sind somit lokal vorhanden und können auch von anderen Services auf dem Edge Device angesprochen werden.
Ausblick
Unternehmensübergreifende, datengetriebene Geschäftsmodelle sind noch nicht auf dem Radar des deutschen Mittelstands angekommen. Dieser Umstand wird sich jedoch in naher Zukunft ändern, wodurch die vorgestellten Herausforderungen akut werden. Der Lösungsansatz des KOSMoS-Projekts ist vielversprechend und wird in diesem Jahr auf einen nutzbaren Prototypen-Stand gehoben. Nur durch praktischen Einsatz kann evaluiert werden, ob firmenübergreifende Geschäftsmodelle tatsächlich mit Hilfe einer Blockchain realisiert werden können und ob fehlendes Vertrauen durch sichere Technologie ersetzt werden kann.
Danksagung
Die Inhalte dieser Arbeit stammen aus dem Projekt KOSMoS – Kollaborative Smart Contracting Plattform für digitale Wertschöpfungsnetze. Dieses Forschungs- und Entwicklungsprojekt wird mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) im Programm „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ (Förderkennzeichen 02P17D020) gefördert und vom Projektträger Karlsruhe (PTKA) betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autor:innen.
Literatur
[1] Plattform Industrie 4.0, “Plattform Industrie 4.0 – Was ist Industrie 4.0?“ [Online]. Available: https://www.plattform-i40.de/PI40/Navigation/DE/Industrie40/WasIndustrie40/was-ist-industrie-40.html. [Accessed: 10-Jan-2020].
[2] Ubirch GmbH, “Die Blockchain in der Produktion,“ Industrie 4.0 Magazin. [Online]. Available: https://www.i40-magazin.de/fachartikel/die-blockchain-in-der-produktion/. [Accessed: 14-Jan-2020].
[3] T. Korb, D. Michel, A. Lechler, and O. Riedel, “Securing the Data Flow for Blockchain Technology in a Production Environment,“ IFAC-Pap., vol. 52, no. 10, pp. 125–130, 2019, doi: 10.1016/j.ifacol.2019.10.012.
[4] “Vernetzung von Produktionsdaten | KOSMoS.“ [Online]. Available: https://www.inovex.de/de/leistungen/data-science-deep-learning/kollaborative-smart-contracting-plattform-kosmos/. [Accessed: 14-Jan-2020].