von Andreas Schophoven | Mai 4, 2020 | Neu
Herr Gast, Herr Prang, Sie arbeiten für Dell Technologies beziehungsweise SMC an Lösungen für die vernetzte Industrie. Wie hat sich das Internet der Dinge entwickelt und wohin geht der Trend?
Prang: Die Verbreitung und Akzeptanz des Internets der Dinge hat in den letzten Jahren enorme Sprünge gemacht. Im Privatsektor hat man sich an smarte vernetzte Geräte gewöhnt und Hersteller haben hier zu Beginn wertvolle Erfahrungen gesammelt. Nun beschäftigen sich auch Maschinenbauer im Industriebereich mit der Technologie. Dabei sind anfängliche Bedenken, Maschinen- und Prozessdaten in der Cloud zu speichern, bereits zurückgegangen. Gleichzeitig ist die Erkenntnis erwachsen, dass es nicht unbedingt sinnvoll ist, alle Daten in der Cloud vorzuhalten und erst dort zu verarbeiten. Gerade im industriellen Umfeld fallen Unmengen an Daten an und nicht alle sind zwingend relevant für die Analyse.
Daher geht der Trend in Richtung IoT-Datenmanagement. Muss ich die Daten in der Cloud vorhalten? Sind sie langfristig wertvoll? Welche Daten benötige ich in Echtzeit, welche für langfristige Optimierungen? Solche Fragen entscheiden darüber, ob die Daten an der Edge direkt verarbeitet werden oder in die Cloud gesendet werden. Maschinenbauer, die sich intensiv mit IoT-Anwendungen auseinandersetzen, wollen heute selbst entscheiden, wie und wo die Daten zum Einsatz kommen.
Gast: Ich sehe das ähnlich. Die Industrie ist mittlerweile über die PoC-Phase hinaus und viele Unternehmen arbeiten bereits an der Implementierung von validen Strategien für das (Industrial) Internet of Things. Hier hat sich einiges getan, vor allem im Datenmanagement – Stichwort “Hybrid Integration”: Hybride Modelle für das Datenmanagement, in denen Edge, Core und Cloud dedizierte Aufgaben zukommen, sind auf Entscheiderebene angekommen. Man hat in den letzten Jahren gemerkt, dass die Datenauswertung vor Ort häufig effizienter ist und dass Smart Field Analytics einen monetären Mehrwert bieten kann – direkt am Entstehungsort der Daten.
Mit Blick auf IoT-Trends für die kommenden Jahre steht aus meiner Sicht alles unter dem Motto “Collaboration”. Viele Unternehmen arbeiten nicht nur daran IoT-Daten effizient zu erheben und in Data-Lake-Systemen zusammen zu führen, sondern sie wollen auch den Zugang für interne und externe Stakeholder verbessern. Solche konsolidierten und offenen Systeme erlauben den Partnern nicht nur eine bessere Integration, sondern auch die Adaption von Geschäftsmodellen und Wertschöpfungsketten.
Warum spielt die Verarbeitung von Daten an der Edge heute so eine wichtige Rolle?
Gast: Für Unternehmen hat die Nutzung von Edge-Technologie vor allem Vorteile mit Blick auf die Kosteneffizienz. Es gibt durchaus Prozesse, bei denen sich die Nutzung von Cloud-Umgebungen anbietet, beispielsweise um Erkenntnisse aus Maschinendaten für Partner und Kunden aufzubereiten und zur Verfügung zu stellen. Doch die Cloudanbindung und das Betreiben der Infrastruktur in der Cloud ist mit nicht unbeträchtlichen Kosten verbunden. Daher macht es Sinn, Rohdaten direkt an der Edge zu verarbeiten anstatt sie zuerst in die Cloud zu senden. Maschinendaten im Industriebereich sind zwar in der Regel nicht besonders groß, doch bei der Masse an Datenpunkten, die in smarten Fabriken entstehen, macht das Volumen insgesamt durchaus einen Unterschied. Hinzu kommt die Frage nach der Latenz, also der Verzögerung, die bei der Verarbeitung und Übermittlung der Daten entsteht. Gerade wenn Geschäftsprozesse ins Spiel kommen, die Daten in Echtzeit benötigen, ist die Verarbeitung direkt auf dem Gerät von entscheidender Wichtigkeit.
Prang: Hier spielt auch die Übertragungstechnik eine nicht zu unterschätzende Rolle. Unternehmen wollen möglichst viele Daten in kürzester Zeit sammeln und analysieren, um sie nutzbar zu machen. Doch es ist weder praktikabel alle Endpunkte per DSL zu verbinden, noch den gesamten Datenverkehr über Mobilfunk abzubilden – das eine gelangt schnell an seine physikalischen Grenzen und das andere an die finanziellen. Die Edge übernimmt hier die Rolle des Gatekeepers: mit der geeigneten Software lässt sich steuern, welche Daten für die Übermittlung in die Cloud vorbereitet werden müssen und welche erst gar nicht übersendet werden sollten. In Kombination mit leistungsfähigen Sensoren und Edge-Gateways lassen sich heute auch rechenintensive Prozesse direkt vor Ort abwickeln. Das schützt die Infrastruktur vor Überlastung und das Unternehmen vor einer Kostenexplosion.
Wie ist in diesem Zusammenhang die Rolle von digitalen Ökosystemen zu bewerten?
Prang: Digitale Ökosysteme sind im IoT-Bereich von unschätzbarem Wert. Die Industrie 4.0 bedingt, dass Produktionsprozesse zunehmend digitalisiert und automatisiert werden. Gleichzeitig sind heute deutlich mehr Stakeholder involviert, Produktionen werden weltweit vernetzt und die Lieferketten werden komplexer. Dabei gilt auch heute der Grundsatz des komparativen Kostenvorteils: Nicht jedes Unternehmen kann alle Prozessschritte beziehungsweise Dienste gleich effizient anbieten. Daher müssen sie sich auf ihr bestehendes Know-How konzentrieren, dieses einbringen und mit geeigneten Partnern zusammenarbeiten, um am Ende eine für alle beteiligten Parteien vorteilhafte Lösung zu erzielen. Nehmen Sie den Bereich Automation: Wir von SMC sind Entwickler und Hersteller von industrieller Automationstechnik und stellen unseren Kunden eine extrem große Produktpalette zur Verfügung. Für unsere digitalen Geschäftsaktivitäten haben wir uns jedoch mit DELL und der Software AG geeignete Partner ins Boot geholt, die auf diesem Feld durch Expertise überzeugen. Somit bildet jeder Partner einen Teil der Lieferkette ab.
Gast: Gerade das Argument der komplexen Lieferketten spricht für digitale Ökosysteme. Jedes Unternehmen ist heute auf Lieferanten und deren Lieferketten angewiesen. Um nicht den Überblick zu verlieren und mögliche Bottlenecks zu vermeiden, sind Firmen heute auf die Transparenz innerhalb digitaler Ökosysteme angewiesen. Nehmen wir an Sie vernetzen ihre Fabrik und stellen die Daten sowohl intern als auch für externe Partner zu Verfügung. Intern führt die Aufbereitung von Maschinendaten in einer Plattform zum Beispiel zur Reduktion von Ausfallzeiten, da sich Vorhersagen zu Wartungsintervallen präziser treffen lassen können. Doch auch der Einkauf profitiert, wenn er genau über Materialbedarf oder Lagerbestände Bescheid weiß. Wenn diese Daten einheitlich an und von Partnern innerhalb der Lieferkette kommuniziert werden können, lassen sich Engpässe vermeiden und die Planungssicherheit steigt. Und nicht zuletzt sichern sich Unternehmen innerhalb eines Ökosystems durch starke Partnerschaften und den oben genannten komparativen Kostenvorteil auch entsprechend Wettbewerbsvorteile.
Welche Voraussetzungen müssen gegeben sein, damit die Edge-Cloud-Kommunikation reibungslos funktioniert?
Gast: Für die Kommunikation zwischen Edge und der Cloud gelten die gleichen Grundsätze wie für jede Art der Kommunikation: Alle betroffenen Parteien müssen involviert und gehört werden, es bedarf eines roten Fadens für die Kommunikation und ohne Verantwortlichkeiten sowie konkreten Anforderungen an den In- sowie Output geht in der Regel gar nichts. Im Kontext komplexer IoT-Cases kommt hinzu, dass das Setup mit Bedacht aufgesetzt werden muss. Dabei empfiehlt es sich, das Projekt stets ganzheitlich zu betrachten und gleichzeitig in Phasen zu unterteilen. Eine entsprechende Roadmap ist dabei genauso wertvoll wie ein vorgelagerter Business Case zur Orientierung.
Prang: Hinzu kommt aus meiner Sicht noch, dass die Komponenten für das IoT-Projekt aufeinander abgestimmt sind. Es gibt derzeit unzählige Kommunikationsprotokolle, Software- sowie Hardwarelösungen. Hier willkürlich Produkte zu kombinieren, kann sich schnell als Fehler herausstellen. Gerade wenn die Bereitstellung schnell erfolgen muss, sollten kompatible Komponenten und vorkonfigurierte Module verwendet werden, um den Setup-Prozess zu verkürzen und die Performance des Lösung langfristig zu gewährleisten.
Welche Rolle spielen Best Practices für Unternehmen?
Prang: Gerade im Bereich Industrie 4.0 lassen sich innovative Geschäftsmodelle leichter Umsetzen, wenn Best Practices vorhanden sind, an denen sich Unternehmen orientieren können. Exemplarisch lässt sich das an unserer Kooperation mit Dell Technologies und der Software AG verdeutlichen. Wir wollten für unseren Kunden eine neue Automatisierungslösung entwickeln, die es ihnen ermöglicht, Daten direkt aus der Feldebene in die Cloud-Plattform zu transferieren. Statt von Grund auf eine Neuentwicklung vorzunehmen, haben wir uns auf dem Markt umgesehen und in der Cumulocity IoT Edge, powered by Dell Technologies, einen erprobten Technologie-Stack gefunden. Diesen konnten wir im Zuge der Projektpartnerschaft an unsere Bedürfnisse und Einsatzgebiete anpassen und so schnell eine konsistente und skalierbare Lösung entwickeln.
Gast: Best Practices sind die entscheidende Voraussetzung für Fortschritt. Neue Orientierungspunkte und Erfahrungen aus der Vergangenheit helfen nicht nur bei der Erarbeitung neuer Geschäftsmodelle, sondern zeigen auch Optimierungspotential bei bestehenden Prozessen auf. Zudem haben sich am Markt Lösungen etabliert, die einfach und schnell adaptiert und produktiv eingesetzt werden können. Wie zum Beispiel die Produkt-Bundles der Software AG und Dell Technologies. Diese bieten eine Grundlage für diverse Anwendungszwecke – und die Option der ressourcenschonenden Erweiterung.
Was ist aus Ihrer Sicht der nächste logische Schritt in Richtung Industrie 4.0?
Gast: Um wirklich vorwärts zu kommen und eine Industrie 4.0 in Deutschland zu verwirklichen, müssen Unternehmen ihre IoT-Strategien konsequent vorantreiben. Bei allem Fortschritt herrscht gerade in der deutschen Industrie noch eine gewissen Risikoaversion vor. Mangelnde Fehlerkultur und Investitionsstau bremsen die Entwicklung aus. Natürlich gilt es, diverse Aspekte in die Unternehmensentscheidungen einfließen zu lassen, doch wenn Unternehmen anfangen würden, sich auf relevante KPIs zu konzentrieren und diese auch konsequent umzusetzen, wäre schon viel passiert.
Prang: Ganz genau. Unternehmen müssen sich trauen, den ersten Schritt zu machen. Die Technologie ist den Kinderschuhen längst entwachsen und es stehen bereits großartige Lösungen zur Verfügung, die sofort einsetzbar wären. Doch es wird noch immer viel geredet, diskutiert und abgewogen. Das bremst den Prozess. Es macht oft Sinn, in kleinen Projekten anzufangen, statt riesige Konzepte mit allen erdenklichen Möglichkeiten zu erarbeiten. Mein Tipp: machen Sie lieber schnell Erfahrungen, testen Sie und lernen Sie aus möglichen Fehlern. Auch die Erkenntnis, dass der eingeschlagene Weg falsch war, kann dabei als Erfolg für die Erfahrung gewertet werden.
Wir bedanken uns recht herzlich bei Herrn Gast und Herrn Prang für das ausführliche und aufschlussreiche Interview und freuen uns auf die weitere Zusammenarbeit.
von Thomas Alberti | Sep 14, 2018 | Events
Erst 20 Prozent der deutschen Unternehmen haben damit begonnen, ihre Lieferkette zu digitalisieren, so das aktuelle Hermes-Barometer. Und lediglich acht Prozent haben eine digitale Supply Chain bereits umgesetzt. Das ist erstaunlich – gilt die Logistikbranche doch als Digitalisierungs-Vorreiter. Wo drückt der Schuh?
Tatsächlich haben viele Logistik-Entscheider noch nicht erkannt, welchen wirtschaftlichen Nutzen ihnen die Digitalisierung der Supply Chain bringt. Als wichtigste Technologien für ihren Bereich sehen sie selbstlernende Systeme, mobile Anwendungen und Blockchain-Technologie. IoT erachten laut der Hermes-Studie dagegen nur 32 Prozent der Befragten als relevant, Cloud-Dienste sogar nur 25 Prozent.
Vermutlich liegt das daran, dass Unternehmen bei der Digitalisierung noch zu sehr auf ihre eigenen Prozesse konzentriert sind. Derzeit kümmern sich die meisten um die Optimierung des Lagerbestandes. In der Anfangsphase ist dies sicher richtig. Doch der nächste Schritt muss über den Tellerrand hinausgehen. Denn die Supply Chain ist kein Single-Player-Spiel, sondern ein komplexes Konstrukt, an dem viele verschiedene Firmen beteiligt sind. Jeder davon hat sein eigenes proprietäres IT-System. Die große Herausforderung besteht darin, dass alle an der Lieferkette Beteiligten ihre Prozesse digitalisieren und vernetzen müssen. Wenn diese in der Lage sind, untereinander in Echtzeit Daten auszutauschen, kann Ende-zu-Ende-Transparenz über den gesamten Lieferprozess entstehen.
In der Supply Chain gibt es viel zu verbessern
Der Aufwand lohnt sich. Denn die Digitalisierung der Supply Chain hilft Unternehmen dabei, die sieben R’s der Logistik besser umzusetzen: Die Bereitstellung des richtigen Produktes, in der richtigen Menge, in der richtigen Qualität, am richtigen Ort, zur richtigen Zeit, zu den richtigen Kosten, für den richtigen Kunden. Am Ende zahlt sich das in barem Geld aus. Denn durch die Transparenz lassen sich Prozesse optimieren, Reaktionszeiten beschleunigen und Kosten sparen.
Derzeit hat jeder der Beteiligten nur einen Teilausschnitt des Gesamtbildes. Ein Unternehmen erfährt zwar, wann die bestellte Ware versendet wurde. Was auf dem Transportweg passiert, ist jedoch wie ein großes schwarzes Loch. Wenn ein Schiff Verspätung hat oder die Ware gar beschädigt oder gestohlen wird – all das erfährt der Empfänger meist erst am Ende des Prozesses, wenn die Lieferung nicht ankommt. So verliert er wertvolle Zeit, bis er Ersatz bestellen kann.
Echtzeit-Informationen gewinnen und Medienbrüche vermeiden
In einer digitalisierten Lieferkette wäre der Empfänger dagegen jederzeit über den Standort und Zustand seiner Bestellung informiert. Er wüsste sofort über Verspätungen oder andere Probleme Bescheid und könnte umgehend reagieren – im Idealfall schon, bevor ein Problem überhaupt auftritt. So könnte ein System zum Beispiel anhand der Wetterprognose oder des Verkehrsberichts vorhersagen, wie hoch die Wahrscheinlichkeit für Verzögerungen ist.
Indem die IT-Systeme aller Beteiligten miteinander kommunizieren, können sie auch Dokumente wie Frachtpapiere oder Empfangsbestätigungen digital und medienbruchfrei austauschen. Das vermeidet Übertragungsfehler von Papierdokumenten und beschleunigt bürokratische Prozesse.
Mit Asset Tracking Waren immer im Blick behalten
Eine wichtige Rolle innerhalb der digitalisierten Lieferkette spielt das Asset-Tracking. Dafür gibt es bereits zahlreiche Anwendungen. Asset-Tracking dient sowohl dazu, die Transportmittel wie LKW oder Container zu verfolgen, als auch die Ware an sich. Dadurch können Unternehmen eine Sendung über alle Kontaktpunkte der Supply Chain hinweg überwachen. Solche IoT-Anwendungen liefern nicht nur Informationen darüber, wo sich die Bestellung gerade befindet. Sie können zum Beispiel auch über Sensoren die Temperatur in einem Container kontrollieren und eine Warnmeldung absetzen, wenn es zu warm wird. Gerade beim Transport von verderblichen Lebensmitteln kann dies wichtig sein, um Aufschluss über den Zustand der Ware zu erhalten. Lichtsensoren erkennen, wann ein Container geöffnet wird. Passiert dies zu einer ungeplanten Zeit, kann das auf einen Diebstahl hindeuten.
Die Zukunft ist vernetzt
Laut der Hermes-Studie sind sich immerhin 42 Prozent der Unternehmen bewusst, dass sie digitalisierte Prozesse in der Lieferkette schaffen müssen. Knapp die Hälfte der Befragten gab an, dass sie bei der Auswahl ihrer Logistik-Dienstleister künftig auch auf deren Digitalisierungs-Expertise achten wollen. Um Ende-zu-Ende-Transparenz über die gesamte Lieferkette hinweg zu schaffen, müssen sich alle Beteiligten vernetzen. Am besten geht das über eine zentrale Cloud-Plattform, die Schnittstellen zu den Einzelsystemen bietet und über die der gesamte Kommunikationsfluss läuft. Die Digital Business Platform der Software AG schafft dafür die Grundlage.
Erfahren Sie hier mehr über die Digitalisierung der Supply Chain oder sprechen Sie auf dem Deutschen Logistik-Kongress in Berlin direkt mit unseren Experten.
von Karl-Heinz Streibich | Jan 30, 2018 | Allgemein
Die Auswirkungen der Digitalisierung auf Wirtschaft und Gesellschaft sind gewaltig. Sie verändert die Art und Weise, wie Unternehmen mit ihren Kunden interagieren, um relevant zu bleiben und mit neuen, smarten Technologien ihre Marktposition auszubauen. So entstehen neue Märkte, neue Geschäftschancen, neue Unternehmen und Ökosysteme, aber auch neue Herausforderungen. Das Tempo des Wandels ist oft überwältigend. Worauf müssen wir uns in diesem Jahr einstellen?
Niemand kann voraussehen, wie die Welt in den nächsten Jahren, Jahrzehnten oder Jahrhunderten aussehen wird. Es gibt jedoch einige Hinweise auf die Änderungen, die uns unmittelbar bevorstehen. Die folgenden Trends in der Digitalisierung werden unsere digitale Zukunft kurz- und langfristig maßgeblich beeinflussen:
- Softwarebasierte Plattformen werden den Maschinenbau und die Fertigungsindustrien grundlegend verändern
In der Plattformwirtschaft ist Geschwindigkeit alles, deshalb werden nur die agilsten Unternehmen erfolgreich sein. Das betrifft vor allem die Fertigungsbranche, die sich inmitten der vierten industriellen Revolution befindet. Wer sich nicht zum softwaregetriebenen Unternehmen wandelt, wird vom Markt verschwinden. Durch diese Marktbereinigung werden in jeder Branche lediglich drei Plattformenübrigbleiben, die zukünftig den Ton angeben.
- Intelligente Lösungen werden 2018 in der Fertigungsindustrie florieren
Plattformen für Maschinenlernen werden im produzierenden Gewerbe zum unverzichtbaren Bestandteil einer jeden Digitalisierungsstrategie. Basierend auf Echtzeit-Daten können sie Entscheidungsprozesse automatisiert abwickeln. Es wird keine guten oder schlechten Entscheidungen mehr geben, wenn diese evidenzbasiert getroffen werden. Dabei spielen das Tempo und die Qualität der Daten eine wichtige Rolle. Unabhängige Analysten schätzen, dass der Markt für Künstliche Intelligenz (KI) von 8 Milliarden US-Dollar im Jahr 2016 auf über 47 Milliarden US-Dollar im Jahr 2020 wachsen wird.
- Die Fabrik der Zukunft wird einen digitalen Zwilling haben
Der digitale Zwilling ist mit Objekten der realen Welt und ihren Sensoren verknüpft und kann Prozesse in der Produktion reproduzieren, analysieren und prognostizieren – und zwar in Echtzeit und sehr präzise. Der Branchenanalyst Gartner erwartet, dass bis 2021 die Hälfte der großen Industriebetriebe digitale Abbildungen ihrer Fabriken erstellen – und so ihre Effektivität um bis zu zehn Prozent steigern werden.
Das neue Jahr hält viele Herausforderungen, aber auch spannende Projekt für uns bereit. Die digitale Transformation wird sowohl in der Wirtschaft als auch in der Gesellschaft eine noch größere Rolle spielen. Welche strategischen Technologietrends stehen 2018 auf Ihrer Agenda?
Lernen Sie in diesem Video bewährten Lösungen kennen, mit denen Sie die Herausforderungen der digitalen Transformation meistern können!
von Harald Schöning | Jan 25, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Der folgende Beitrag zeigt, welchen Mehrwert Maschinenlernen für das IoT birgt und wie wichtig effizientes Asset-Management ist.
Der stetige Datenfluss im Internet der Dinge bildet Datenströme. Diese Datenströme können für alle Anwendungen genutzt werden, die die betreffenden Daten benötigen und über die notwendigen Berechtigungen verfügen. Zur Verarbeitung der Datenströme bedarf es einer leistungsfähigen Streaming-Analytics-Software, die in der Lage ist, die Daten bedarfsgerecht und unter Berücksichtigung der zeitlichen Abfolge mit speziellen Operationen zu analysieren, wie sie in Complex Event Processing (CEP) Systemen vorhanden sind. Eine typische Funktion in solchen Umgebungen ist die dynamische Bildung von endlichen Abschnitten unendlicher Datenströme (Sliding Windows). Ein verbreiteter Ansatz zur Verarbeitung von IoT-Daten ist die Lambda-Architektur. Bei diesem Architekturkonzept werden Datenströme sowohl dynamisch verarbeitet als auch dauerhaft gespeichert, sodass sie für komplexe historische Analysen zur Verfügung stehen. Für beides sind Festplatten-basierte Architekturen zu langsam und liefern Ergebnisse nicht schnell genug. Vielmehr muss die Verarbeitung vollständig im Hauptspeicher erfolgen.
These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
Um bei komplexen Berechnungen mit Big Data möglichst schnelle Reaktionszeiten zu erzielen, ist ein konzeptionell unbegrenzter Hauptspeicher erforderlich. Dies gilt nicht nur für Datenströme aus dem IoT. Wenn Mediziner beispielsweise die Möglichkeit haben, Erbgut-Daten zeitnah auszuwerten, können sie schnell über zeitkritische Behandlungen entscheiden wie etwa eine lebensrettende Chemotherapie.
Maschinelles Lernen
Sind große Datenmengen verfügbar, stellt sich häufig die Frage, wie aus diesen ein Mehrwert erzeugt werden kann. Im Anwendungsfall der Predictive Maintenance liefern Sensoren laufend zahlreiche Informationen über den Betrieb einer Maschine. Was jedoch fehlt, ist das Vorwissen, welche Kombination von Sensorwerten darauf hinweist, dass Wartungsarbeiten nötig sind. In diesem Fall können durch Maschinenlernen Modelle für den Anwendungsfall abgeleitet und schrittweise angepasst werden. Das abgeleitete Modell lässt sich so operationalisieren, dass es sowohl auf große Mengen statischer Daten als auch auf die In-Stream-Verarbeitung anwendbar ist und Vorhersagen in Echtzeit ermöglicht. Das Erfassen großer Datenmengen allein ist nicht wertschöpfend. Der Mehrwert entsteht durch Modelle, die aus diesen Daten Wissen extrahieren, und durch die Fähigkeit, diese Modelle in Echtzeit anzuwenden.
These 9: Vorsprung durch Wissen aus Daten
Die Datenqualität ist dabei von entscheidender Bedeutung. Aus schlechten Daten können durch Maschinenlernen keine guten Modelle abgeleitet werden. Zur Bewertung der Datenqualität werden Informationen über den Ursprung der Daten und das erzeugende Gerät benötigt – beispielswese ein „Ding“ im IoT.
Assets und Prozesse verstehen
Das IoT ist durch eine große, sich dynamisch verändernde Anzahl an Dingen, also an Geräten, die Daten erzeugen, gekennzeichnet. Diese Dinge oder Assets und ihre Merkmale müssen verwaltet werden, damit nur bekannte und sicher identifizierte Assets Informationen beisteuern können. Darüber hinaus müssen der Standort eines Assets sowie die Softwareversionen des Geräts verwaltet werden. Gleichzeitig gilt es, die Kernprozesse eines Unternehmens zu verstehen, und in welcher Beziehung diese zu den Assets stehen. Daraus ergibt sich die letzte These:
These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
Gesetzliche Vorgaben wie die Datenschutz-Grundverordnung der Europäischen Union (EU-DSGVO) verschärfen die Anforderungen an die Dokumentation sämtlicher relevanten Prozesse. Laut der neuen Verordnung müssen Unternehmen ermitteln und erfassen, welche Geschäftsprozesse personenbezogene Daten enthalten. Wer dies versäumt und den beim Datenschutz Risiken eingeht, muss mit empfindlichen Strafen rechnen. Den Überblick über alle Prozesse und Assets zu bewahren wird für Unternehmen daher immer wichtiger.
Zusammenfassung
Die digitale Transformation nimmt zusehends an Fahrt auf. Entweder werden Unternehmen zu Software-basierten Unternehmen oder sie verschwinden vom Markt. Im Zuge der Digitalisierung entstehen neue, datenbasierte Geschäftsmodelle. Um für diese Veränderungen gerüstet zu sein und sich auch gegen Disruptoren zu behaupten, die Märkte übernehmen wollen, müssen Unternehmen Edge-, Cloud- und On-Premise-Computing in einer agilen, modularen und flexiblen IT-Infrastruktur kombinieren. Vor allem das IoT erschließt neue Geschäftschancen, erfordert jedoch auch ein umfassendes Asset-Management. Maschinelles Lernen ist aus keiner Digitalisierungsstrategie mehr wegzudenken.
Das war der letzte Teil unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle vorangegangenen Beiträge:
Teil 1:
Teil 2:
Teil 3:
Teil 4:
Teil 5:
Teil 6:
- These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
- These 9: Maschinenlernen – der unabdingbare Ansatz
- These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
von Dr. Stefan Sigg | Jan 22, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Im folgenden Beitrag geht es um die Cloud als Drehscheibe für Anwendungsentwicklung, zentrale Laufzeitumgebungen und Marktplätze.
Bereits seit einigen Jahren zeichnet sich der Trend ab, dass vor Ort installierte Anwendungen (On-Premise) durch Cloud-Services ersetzt werden. Software-as-a-Service (SaaS) ist mittlerweile ein anerkanntes Software-Delivery-Modell, bei dem für die Softwarenutzer beispielsweise Ressourcenmanagement, Updates und Versionskontrolle entfallen. Allerdings kann vorhandene Software nicht eins zu eins in der Cloud bereitgestellt werden. Software muss speziell für die Cloud konzipiert werden und rund um die Uhr verfügbar, schnell und reibungslos aktualisierbar, skalierbar und mandantenfähig sein. Vor allem im IoT-Kontext gewinnt die Cloud an Bedeutung, da die von IoT-Anwendungen benötigte Skalierbarkeit und Flexibilität beim Cloud-Computing viel eher gegeben sind als bei der On-Premise-Verarbeitung.
These 6: Die Cloud als zentrales Element
Im IoT-Kontext reicht Cloud-Computing jedoch möglicherweise nicht aus. Die riesigen, im IoT generierten Datenströme enthalten oft redundante oder irrelevante Informationen. Zudem sind die unvermeidlichen Latenzen in Cloud-Umgebungen für einige Berechnungsprozesse zu hoch. Infolgedessen muss Cloud-Computing um Edge-Computing erweitert werden. So können einige Berechnungen in der Nähe der Datenquellen erfolgen, um Datenströme zu komprimieren oder schnelle Entscheidungen zu treffen. Ein prominenter Anwendungsfall ist die Car2X-Kommunikation, bei der das Fahrzeug über die Rechenleistung verfügt, aus Sensor- und Umgebungsdaten blitzschnell Entscheidungen abzuleiten. Berechnungen, die nicht zeitkritisch sind oder Daten aus vielen Quellen heranziehen, können in der Cloud durchgeführt werden. Obwohl die Cloud ein immer breiteres Anwendungsspektrum abdeckt, werden bestimmte Berechnungen auch in Zukunft lokal (On-Premise) vorgenommen, insbesondere im B2B-Bereich. Dies gilt vor allem für geschäftskritische, maßgeschneiderte Anwendungen, die aufgrund ihrer Komplexität oder aus Sicherheits- oder Latenzgründen nicht einfach in die Cloud verlagert werden können.
Komplexe Deployments
Die Datenverarbeitung erfolgt oft über eine Mischung aus Edge-, Cloud- und On-Premise-Computing. Daher müssen diese verschiedenen Verarbeitungsumgebungen zwecks Kommunikation und gemeinsamer Datennutzung miteinander verbunden werden. Traditionelle Batch-Ansätze für das Verschieben von Massendaten werden den aktuellen Anforderungen an die Verarbeitungsgeschwindigkeit nicht gerecht. Stattdessen sind schnelle Verbindungen in Quasi-Echtzeit erforderlich. Skalierbare und verteilte Message-Bus-Installationen sind aus derartig komplexen Verarbeitungsumgebungen nicht wegzudenken.
These 7: Verteilte Daten – in Echtzeit vernetzt
Besonders Deployments im IoT-Umfeld sind gekennzeichnet durch eine hochgradig verteilte Verarbeitung mit geringer zentraler Kontrolle und intensivem Datenaustausch. Die traditionelle Vorgehensweise, Daten in zentralisierten Data-Warehouse-Systemen zu replizieren, wird zunehmend durch lokale Analysen mit Data-Streaming-Technologie ergänzt.
Da viele Anwendungsfälle Echtzeitverarbeitung und eine umgehende Reaktion auf Analyseergebnisse erfordern, ist die Latenz eines Data-Warehouse nicht mehr angemessen. Die Integration von Daten aus verteilten Quellen in Quasi-Echtzeit ist ebenfalls eine akzeptable Alternative zur physischen Batch-Replikation. Diese Entwicklungen sind vor dem Hintergrund der neuartigen Datenquellen zu sehen, die moderne IoT-Szenarien charakterisieren.
Das war Teil 5 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:
Teil 1:
Teil 2:
Teil 3:
Teil 4:
Teil 5:
- These 6: Die Cloud als zentrales Element
- These 7: Verteilte Daten – in Echtzeit vernetzt
Teil 6: