10 Thesen zur digitalen Transformation – Teil 6

10 Thesen zur digitalen Transformation – Teil 6

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Der folgende Beitrag zeigt, welchen Mehrwert Maschinenlernen für das IoT birgt und wie wichtig effizientes Asset-Management ist.

Der stetige Datenfluss im Internet der Dinge bildet Datenströme. Diese Datenströme können für alle Anwendungen genutzt werden, die die betreffenden Daten benötigen und über die notwendigen Berechtigungen verfügen. Zur Verarbeitung der Datenströme bedarf es einer leistungsfähigen Streaming-Analytics-Software, die in der Lage ist, die Daten bedarfsgerecht und unter Berücksichtigung der zeitlichen Abfolge mit speziellen Operationen zu analysieren, wie sie in Complex Event Processing (CEP) Systemen vorhanden sind. Eine typische Funktion in solchen Umgebungen ist die dynamische Bildung von endlichen Abschnitten unendlicher Datenströme (Sliding Windows). Ein verbreiteter Ansatz zur Verarbeitung von IoT-Daten ist die Lambda-Architektur. Bei diesem Architekturkonzept werden Datenströme sowohl dynamisch verarbeitet als auch dauerhaft gespeichert, sodass sie für komplexe historische Analysen zur Verfügung stehen. Für beides sind Festplatten-basierte Architekturen zu langsam und liefern Ergebnisse nicht schnell genug. Vielmehr muss die Verarbeitung vollständig im Hauptspeicher erfolgen.

These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie

Um bei komplexen Berechnungen mit Big Data möglichst schnelle Reaktionszeiten zu erzielen, ist ein konzeptionell unbegrenzter Hauptspeicher erforderlich. Dies gilt nicht nur für Datenströme aus dem IoT. Wenn Mediziner beispielsweise die Möglichkeit haben, Erbgut-Daten zeitnah auszuwerten, können sie schnell über zeitkritische Behandlungen entscheiden wie etwa eine lebensrettende Chemotherapie.

Maschinelles Lernen

Sind große Datenmengen verfügbar, stellt sich häufig die Frage, wie aus diesen ein Mehrwert erzeugt werden kann. Im Anwendungsfall der Predictive Maintenance liefern Sensoren laufend zahlreiche Informationen über den Betrieb einer Maschine. Was jedoch fehlt, ist das Vorwissen, welche Kombination von Sensorwerten darauf hinweist, dass Wartungsarbeiten nötig sind. In diesem Fall können durch Maschinenlernen Modelle für den Anwendungsfall abgeleitet und schrittweise angepasst werden. Das abgeleitete Modell lässt sich so operationalisieren, dass es sowohl auf große Mengen statischer Daten als auch auf die In-Stream-Verarbeitung anwendbar ist und Vorhersagen in Echtzeit ermöglicht. Das Erfassen großer Datenmengen allein ist nicht wertschöpfend. Der Mehrwert entsteht durch Modelle, die aus diesen Daten Wissen extrahieren, und durch die Fähigkeit, diese Modelle in Echtzeit anzuwenden.

These 9: Vorsprung durch Wissen aus Daten

Die Datenqualität ist dabei von entscheidender Bedeutung. Aus schlechten Daten können durch Maschinenlernen keine guten Modelle abgeleitet werden. Zur Bewertung der Datenqualität werden Informationen über den Ursprung der Daten und das erzeugende Gerät benötigt – beispielswese ein „Ding“ im IoT.

Assets und Prozesse verstehen

Das IoT ist durch eine große, sich dynamisch verändernde Anzahl an Dingen, also an Geräten, die Daten erzeugen, gekennzeichnet. Diese Dinge oder Assets und ihre Merkmale müssen verwaltet werden, damit nur bekannte und sicher identifizierte Assets Informationen beisteuern können. Darüber hinaus müssen der Standort eines Assets sowie die Softwareversionen des Geräts verwaltet werden. Gleichzeitig gilt es, die Kernprozesse eines Unternehmens zu verstehen, und in welcher Beziehung diese zu den Assets stehen. Daraus ergibt sich die letzte These:

These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement

Gesetzliche Vorgaben wie die Datenschutz-Grundverordnung der Europäischen Union (EU-DSGVO) verschärfen die Anforderungen an die Dokumentation sämtlicher relevanten Prozesse. Laut der neuen Verordnung müssen Unternehmen ermitteln und erfassen, welche Geschäftsprozesse personenbezogene Daten enthalten. Wer dies versäumt und den beim Datenschutz Risiken eingeht, muss mit empfindlichen Strafen rechnen. Den Überblick über alle Prozesse und Assets zu bewahren wird für Unternehmen daher immer wichtiger.

Zusammenfassung

Die digitale Transformation nimmt zusehends an Fahrt auf. Entweder werden Unternehmen zu Software-basierten Unternehmen oder sie verschwinden vom Markt. Im Zuge der Digitalisierung entstehen neue, datenbasierte Geschäftsmodelle. Um für diese Veränderungen gerüstet zu sein und sich auch gegen Disruptoren zu behaupten, die Märkte übernehmen wollen, müssen Unternehmen Edge-, Cloud- und On-Premise-Computing in einer agilen, modularen und flexiblen IT-Infrastruktur kombinieren. Vor allem das IoT erschließt neue Geschäftschancen, erfordert jedoch auch ein umfassendes Asset-Management. Maschinelles Lernen ist aus keiner Digitalisierungsstrategie mehr wegzudenken.

Das war der letzte Teil unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle vorangegangenen Beiträge:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

Teil 6:

  • These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
  • These 9: Maschinenlernen – der unabdingbare Ansatz
  • These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
Teilen:
10 Thesen zur digitalen Transformation – Teil 3

10 Thesen zur digitalen Transformation – Teil 3

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um jene neuen softwarebasierten Geschäftsmodelle und die digitalen Plattformen, die als Grundlage für individuelle und innovative Lösungen dienen.

Unsere erste These besagt, dass Software allgegenwärtig und der entscheidende Faktor für den disruptiven Marktzugang ist. Als logische Konsequenz ergibt sich daraus:

These 2: Digitalisierung führt zu neuen softwarebasierten Geschäftsmodellen.

Neue Geschäftsmodelle beruhen oft auf Geschäftsplattformen: Die Wertschöpfung findet nicht mehr in der Produktion und im Unternehmen selbst statt, sondern außerhalb. Den Vorteil davon hat der Anbieter der Plattform, denn er hat die Kontrolle über sie. Auf ihr bieten Dritte ihre Services an und können so von der Marktposition der Plattform profitieren. Der Apple-Store, in dem Anwendungsentwickler Nutzern ihre Apps zur Verfügung stellen, ist ein bekanntes Beispiel dafür. Das Unternehmen entwickelt zwar selbst keine Apps, erwirtschaftet jedoch mit jeder verkauften App einen Gewinn. Die daraus resultierenden enormen Skaleneffekte werden durch die Netzwerkeffekte noch verstärkt. Mit jedem weiteren Nutzer steigt der Wert der Plattform. Solche Geschäftsmodelle besitzen erhebliches wirtschaftliches Potenzial. Unternehmen wie Airbnb und Uber besitzen keinen einzigen Vermögenswert und haben dennoch einen beträchtlichen Anteil am Markt für Unterkünfte beziehungsweise Beförderungen. Ihre einzigen Mitbewerber sind andere Plattformanbieter, im Fall von Airbnb ist das etwa Booking.com.

Es gibt jedoch auch Unternehmen, die ihren ursprünglichen Markt erfolgreich erweitern, indem sie auf einer Plattform Akteure aus verschiedenen Branchen integrieren und damit die eigenen Services aufwerten. Die Plattform eines Landmaschinen-Herstellers namens 365FarmNet integriert beispielsweise auch Versicherungen, Düngeplanung, Finanzierung und Wetterprognosen. Eine solche Wertschöpfungsplattform, die mehrere Akteure vereint, kann oft nicht von einem Teilnehmer allein entwickelt werden, sondern erfordert vielmehr die Co-Innovation und Zusammenarbeit mit Partnern. In der Regel bedarf es zudem eines Softwareunternehmens, welches das Branchenwissen der Partner um das nötige digitale Know-how ergänzt. Wird eine solche Zusammenarbeit frühzeitig mit Unterstützung der Unternehmensleitung auf den Weg gebracht, kann sie eine Disruption durch externe Marktteilnehmer erfolgreich abwehren.

Digitale Plattformen als Grundlage für individuelle Lösungen

Echte und einzigartige Services bestimmen den Wert und das Potenzial von Geschäftsplattformen. Die Anbieter digitaler Services müssen ihre Angebote auf die speziellen Bedürfnisse ihrer Märkte abstimmen, damit sie den Anforderungen ihrer Kunden bestmöglich entsprechen und optimal zu ihrem Geschäftsmodell passen. Wem eine solche individuelle Lösung am besten gelingt, hat besonders gute Chancen, den Markt zu erschließen. Es ist offensichtlich, dass man mit Standardlösungen hier nicht weit kommt.

These 3: Auf der Grundlage offener und flexibler digitaler Plattformen lassen sich schnell neuartige Anwendungen entwickeln, die weder rein transaktional noch rein analytisch sind.

Die Markteinführungszeit ist ein maßgeblicher Faktor für Anbieter von Geschäftsplattformen und für digitale Serviceangebote. Daher ist eine komplette Neuentwicklung individueller Softwarelösungen keine Option. Besser geeignet, um ein optimales digitales Serviceangebot zu schaffen, sind leistungsstarke, benutzerfreundliche digitale Plattformen. Sie sind robust, skalierbar, hocheffizient und bieten alle erforderlichen Bausteine wie Datenmanagement und  -integration, Streaming Analytics, Adapter zu Backend-Systemen und Sicherheitsmechanismen. Außerdem können neue digitale Services auf solchen Plattformen innerhalb von Tagen oder Wochen entwickelt und implementiert werden.

Das war Teil 3 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

Teil 3:

  • These 2: Neue Geschäftsmodelle müssen softwarebasiert sein
  • These 3: Digitale Plattformen sind die Grundlage für individuelle Lösungen

Teil 4:

Teil 5:

Teil 6:

Teilen:
10 Thesen zur digitalen Transformation – Teil 2

10 Thesen zur digitalen Transformation – Teil 2

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um die Software selbst: Sie ist allgegenwärtig, und ihr Einsatz wird als Grundvoraussetzung über das Gelingen der Digitalisierung in Unternehmen entscheiden.

„Software is eating the world.“ So beschreibt Marc Andreessen unsere Zeit, in der immer mehr Softwareunternehmen in traditionelle Industriezweige vordringen und die etablierten Player mit innovativen Technologien herausfordern – heute insbesondere mit Cloud-Software. Daraus ergibt sich folgende erste These zur digitalen Transformation:

These 1: In einigen Branchen, vor allem solchen, die in der realen Welt verwurzelt sind, wie etwa die Öl- und Gasindustrie, bietet die Softwarerevolution vorrangig etablierten Unternehmen eine Chance.

In vielen anderen Branchen werden jedoch neue Softwareideen dazu führen, dass Start-up-Unternehmen wie im Silicon Valley aus dem Boden sprießen und ungehindert in bestehende Märkte eindringen. In den nächsten zehn Jahren wird es daher einen Kampf zwischen etablierten Marktteilnehmern und softwaregetriebenen Start-ups geben.

Clayton M. Christensen hat in seinem Werk „The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail“  folgende Strategien beschrieben, die etablierten Unternehmen dabei helfen, sich gegen solche Angreifer zu behaupten und die disruptive Technologie selbst in die Hand zu nehmen:

  • Disruptive Technologie wird mit den „richtigen“ Kunden entwickelt. Das ist nicht unbedingt der aktuelle Kundenstamm.
  • Zur Einführung disruptiver Technologie wird eine eigenständige Organisation gegründet.
  • Die Suche nach der richtigen disruptiven Technologie wird auch nach Misserfolgen fortgeführt.
  • Die Organisation, die sich mit disruptiver Technologie befasst, wird bei Bedarf unterstützt. Dabei ist aber sichergestellt, dass dort andere Prozesse und Werte gelten als im etablierten Unternehmen.

Die sogenannte „disruptive Technologie“ basiert auf Software, die im Unternehmen selbst entwickelt werden muss. Sie differenziert das Unternehmen von seinen Wettbewerbern und ist deshalb nicht als Standardsoftware auf dem Markt verfügbar. Genau das ist der springende Punkt: Disruptive Technologie ist in hohem Maß individuell und innovativ. Zudem ist sie genau auf eine Branche oder sogar einen Anwendungsfall zugeschnitten. Entscheidend im Kampf zwischen den softwaregetriebenen und den etablierten Unternehmen ist die Frage: Können die Softwareunternehmen sich schneller Branchenwissen aneignen als die bestehenden Marktteilnehmer in der Lage sind, eine neue Softwareeinheit aufzubauen? Für den Einzelhandel und die Medienbranche kann diese Frage wohl mit Ja beantwortet werden. Andere Branchen sind nun vorgewarnt und könnten es Software-Start-ups deutlich schwieriger machen, die Marktführerschaft zu übernehmen. Entscheidend ist in der Praxis, wie schnell etablierte Unternehmen eine Softwareplattform aufbauen können, die ihren Anforderungen entspricht.

Eine solche Plattform sollte folgendermaßen beschaffen sein:

  • Modular: Wahlmöglichkeiten bei verwendeten Komponenten und endgültiger Architektur
  • Offen: Fähigkeit zur Integration mit anderen Softwarekomponenten
  • Prozessorientiert: leichte Anpassung an die vorhandenen, durch die Software abzubildenden Geschäftsprozesse
  • Schnell: kurze Implementierungs- und Reaktionszeit
  • Robust: bewährt, unternehmensweit einsatzbereit und skalierbar
  • Echtzeitbasiert: Nutzung moderner Data-Streaming-Technologien
  • Lernfähig: ständige Selbstoptimierung durch Maschinenlernen
  • Cloudfähig: offenes Konzept für die Bereitstellung in einer öffentlichen, privaten und hybriden Cloud-Umgebung

Eine Technologie mit diesen Eigenschaften erfüllt zwei wichtige Ziele: Erstens ermöglicht sie Entwicklungsteams einen schnellen Einstieg, weil diese nicht bei null anfangen müssen. Zweitens bietet sie ein ausreichendes Maß an Agilität und Flexibilität zur Planung und Entwicklung der für die Anforderungen richtigen Lösungen. Auf diese beiden Aspekte kommt es an, egal, ob ein etabliertes Unternehmen seine Abläufe und Produkte digitalisieren oder ein Start-up mit einer neuen Lösung aufwarten möchte. Allerdings müssen auch die entsprechenden Kapazitäten für die Softwareentwicklung verfügbar sein. Viele Industrieunternehmen haben in den vergangenen Jahrzehnten ihre IT ausgelagert. Ihre eigenen IT-Abteilungen kümmern sich nur noch um den Betrieb und die Erweiterung der vorhandenen Standardsysteme. „Die Kunst der Computerprogrammierung“, wie Donald E. Knuth es nennt, wurde vernachlässigt. Und nicht nur das: Wer Softwareprodukte erfolgreich ausliefern und pflegen will, muss auch mit dem gesamten Verfahren der Softwareentwicklung vertraut sein. Sehr wahrscheinlich wird die Nachfrage nach Beratungsdiensten im Bereich der Softwareentwicklung stark ansteigen, damit IT-Mitarbeiter (wieder) lernen, Software professionell, nachhaltig und individuell zu erstellen.

Das war Teil 2 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

  • These 1: Software ist allgegenwärtig

Teil 3:

Teil 4:

Teil 5:

Teil 6:

Von Dr. Stefan Sigg, Chief Research & Development Officer, und Dr. Harald Schöning, Vice President Research, bei der Software AG.

Teilen:
Der Krise immer einen Schritt voraus

Der Krise immer einen Schritt voraus

Daten sind der Rohstoff unserer Zeit und machen den entscheidenden Unterschied – so erklingt derzeit allerorts das Mantra. Ein Mantra, das bei allen Übertreibungen völlig berechtigt ist.

Quer durch alle Branchen erhofft man sich, durch die Auswertung großer Datenmengen bislang verborgene Informationen zu gewinnen. Mit ihnen kann man vermeintlich unvorhersehbare Ereignisse präzise prognostizieren, unentdeckte Zusammenhänge aufspüren, Prozesse optimieren oder ganz neue Produkte und Dienste maßgeschneidert entwickeln. Kurzum: Daten werden zum zentralen Wertschöpfungsfaktor und damit zum Treibstoff der wirtschaftlichen Entwicklung.

Big Data im Katastrophenmanagement

Dass Big Data sogar Leben retten kann, zeigt das vom Bundeswirtschaftsministerium geförderte Forschungsprojekt sd-kama (Smart Data Katastrophenmanagement). Ziel von sd-kama ist es, eine Informationsplattform für das Katastrophenmanagement zu entwickeln und für das Hochwasserschutzmanagement der Stadt Köln zu pilotieren. Die dortige Hochwasserschutzzentrale arbeitet ganzjährig und ist damit einzigartig in Deutschland. Auf der Plattform werden Daten aus verschiedenen Quellen – Verkehrs-, Satelliten-, Pegel-, Wetter-, Bild- und Videodaten sowie Vitaldaten der Einsatzkräfte – zusammengeführt, in Echtzeit analysiert, aufbereitet und als Smart Data in eine digitale Lagekarte eingespielt. Mit ihr erhält die Kölner Hochwasserschutzzentrale nicht nur einen detaillierten Überblick über die aktuelle Situation, sondern auch verlässliche Prognosen über die weitere Entwicklung. So kann die Einsatzleitung die richtigen Prioritäten setzen und die Einsatzkräfte dort konzentrieren, wo sie am dringendsten gebraucht werden – und das sogar vorausschauend.

sd-kama stellt ein umfassendes Lagebild bereit, das neben der Hochwassersituation, den getroffenen Gegenmaßnahmen und Bild- bzw. Videomaterial auch die aktuelle Verkehrslage sowie den Standort von Depots und Logistikern umfasst. Grafische Simulationen geben Auskunft, welche Gebiete wegen des steigenden Hochwassers demnächst überspült werden. Die Einsatzleitung weiß damit bereits im Voraus, wo sich die nächsten Krisenherde anbahnen, und kann proaktiv und zielgerichtet geeignete Gegenmaßnahmen einleiten – im Ernstfall zählt schließlich jede Minute.

Eine App und Wearables unterstützen die Einsatzkräfte

Ein weiterer Clou von sd-kama: Mittels Wearables (Arm- und Brustbänder), die über diverse physiologische Werte permanent den Stresspegel der Einsatzkräfte ermitteln, kann die Einsatzleitung in Echtzeit erkennen, an welcher Stelle die Einsatzkräfte besonders unter Druck stehen, also wo Verstärkung oder Ablösungen dringend benötigt werden. Um hierbei dem Datenschutz gerecht zu werden, werden die Wearables freiwillig und erst nach Einwilligung getragen sowie ausschließlich zur Ermittlung des Stresspegels eingesetzt. Darüber hinaus wird den Einsatzkräften eine App fürs Smartphone bereitgestellt, mit denen sie vor Ort Fotos schießen sowie Videos aufnehmen und diese mit nur einem Klick automatisch an die Informationsplattform schicken können. Dieses Bildmaterial rundet das Lagebild ab und ermöglicht es der Einsatzleitung, sich in der Zentrale einen unmittelbaren Eindruck von der Situation vor Ort zu machen, etwa den Zustand der Schutzwände zu bewerten.

Praxistest bestanden

Wearables und Foto-App wurden nun im Rahmen der alljährlichen Hochwasserschutzübung der Stadtentwässerungsbetriebe Köln, AöR erstmals in der Praxis getestet. Rund 100 Einsatzkräfte waren an der Übung beteiligt, darunter Helfer des Technischen Hilfswerks sowie externe Dienstleister. Als Vorbereitung für den Ernstfall probten sie den Aufbau von knapp drei Kilometern Schutzwänden in der Kölner Innenstadt unter realitätsnahen Bedingungen. Wearables und Foto-App haben dabei den Härtetest bestanden und müssen jetzt in den letzten Monaten des Projektes von ihren technischen Kinderkrankheiten, beispielsweise in puncto Stabilität und Bedienerfreundlichkeit, befreit werden – die letzten Schritte auf dem Weg zum Projekterfolg.

Die weiteren Einsatzmöglichkeiten von sd-kama sind vielfältig. Sie reichen vom Katastrophenmanagement über die Sicherung von Großereignissen bis hin zur Überwachung der Supply Chain. sd-kama kann seine gesamten Vorteile überall dort voll ausspielen, wo es darauf ankommt, in einer unübersichtlichen Situation viele Informationen in kürzester Zeit zu bewerten und aus ihnen die richtigen Schlüsse abzuleiten. Das ist Big Data in R(h)einkultur.

Machen Sie sich selbst ein Bild: Weitere Informationen zum Projekt sd-kama finden Sie hier.

Teilen:
Industrie 4.0 – auf die Geschäftsmodelle kommt es an

Industrie 4.0 – auf die Geschäftsmodelle kommt es an

War Industrie 4.0 bis vor Kurzem nur wenigen Eingeweihten ein Begriff, hat sie inzwischen einen regelrechten Hype ausgelöst. Und dies – bei allen überzogenen Erwartungen, die ein Hype naturgemäß mit sich bringt – auch völlig zu Recht. Wie zahlreiche wissenschaftliche Studien eindrucksvoll belegen, birgt Industrie 4.0 enormes Potenzial. 

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) und der Digitalverband Bitkom prognostizieren, dass die deutsche Bruttowertschöpfung dank Industrie 4.0 bis 2025 um 78 Milliarden Euro wachsen wird. Dabei soll die Produktivität im Automobil- sowie im Maschinen- und Anlagenbau um 1,5 bzw. 2,2 Prozent im Jahr ansteigen – um nur zwei Vorreiterbranchen zu nennen. Zum Vergleich: 2016 betrug das gesamtwirtschaftliche Produktivitätswachstum in Deutschland nur magere 0,9 Prozent. Nicht verwunderlich daher, dass sich die allermeisten Unternehmen bei Industrie 4.0 derzeit auf die Optimierung ihrer Produktion konzentrieren. So zeigt eine Bitkom-Umfrage, dass sich bei 69 Prozent der befragten Unternehmen die Digitalisierung der Prozesse unter ihren drei wichtigsten Zielen bei Industrie 4.0 befindet. Diese Fokussierung greift jedoch zu kurz: Denn die wirkliche Revolution von Industrie 4.0 findet nicht in der Produktion, sondern bei den Geschäftsmodellen statt.

Product-as-a-Service: mieten statt kaufen

Die Digitalisierung ermöglicht es, physische Produkte mit sogenannten Smart Services anzureichern und damit ihren Einsatz zu optimieren oder ihnen zusätzliche Eigenschaften zu verleihen. Doch damit sind die Möglichkeiten längst nicht erschöpft: Predictive Maintenance oder per Software zuschaltbare Funktionen haben schon längst ihren Platz im Markt gefunden – und diese Trends bahnen völlig neuen Geschäftsmodellen den Weg. Als besonders aussichtsreich erscheint dabei das „Product-as-a-Service“. Anstatt das Produkt, beispielsweise eine Maschine, zu kaufen, wird es vom Anbieter gemietet, wobei typschwerweise ein nutzungsabhängiges Entgelt („pay-as-you-produce“) zu entrichten ist.

Das „Product-as-a-Service“ bietet seinem Nutzer gleich zwei Vorteile: Erstens verringert er durch die eingesparten Investitionen seine Kapitalkosten. So wird nicht nur seine Liquidität geschont, sondern auch die Rentabilität erhöht. Zweitens kann er das wirtschaftliche Risiko des Maschinenbetriebs auslagern. Steht die Maschine still – etwa infolge einer Auftragsflaute oder einer Havarie – entstehen dem Nutzer keine Kosten, da er für die Maschine nur dann bezahlen muss, wenn er sie auch einsetzt. Die wirtschaftlichen Folgen des Maschinenstillstands, und hierin liegt der Unterschied zum klassischen Leasing, hat der Anbieter zu tragen. Dieser hat zugleich einen Anreiz, Maschinenausfälle beim Nutzer aufs Minimum zu reduzieren, beispielsweise mittels Predictive Maintenance.

Servicialisierung der Industrie

Das skizzierte Geschäftsmodell, das es in unzähligen Ausprägungen gibt und stellvertretend für den epochalen Wandel der Digitalisierung steht, bietet aber auch dem Anbieter große Chancen: Er kann sich mit innovativen (Zusatz-)Services vom Wettbewerb abheben und dabei noch enger mit seinen Kunden zusammenzuarbeiten. So kann er beispielsweise den Anwenderunternehmen dank der Analyse ihrer Nutzungsdaten völlig neue, individuell auf sie zugeschnittene Lösungen bereitstellen – und so ganz neue Markt- und Umsatzmöglichkeiten erschließen. Markt- und Umsatzmöglichkeiten, die besonders profitabel sind.

Bereits heute wird im Maschinen- und Anlagenbau mehr Geld mit dem Service einer Maschine verdient als mit ihrer Herstellung. Industrie 4.0 bietet nun die einmalige Gelegenheit, das Servicegeschäft weiterer auszubauen und noch lukrativer zu gestalten. Diese „Servicialisierung“ kann sogar so weit gehen, dass sich die Hersteller von ihrem ursprünglichen Geschäftsmodell lösen. Ein Beispiel hierfür sind unternehmens- und branchenübergreifende Serviceplattformen, wie sie sich etwa im Maschinenbau oder in der Landwirtschaft etabliert haben. Sie werden von klassischen Anbietern der Branche betrieben und stehen auch den Services Dritter offen. Die Plattform wird so zum Nukleus eines ganzen Ökosystems und der Produkthersteller wandelt sich dabei zum Servicemakler. Eine Transformation, die angesichts der Skalierbarkeit digitaler Plattformen höchst einträglich ist.

Potenziale erkennen und nutzen

Bereits dieser kursorische Überblick zeigt, dass die größten Chancen von Industrie 4.0 in den Geschäftsmodellen stecken. Allerdings läuft die deutsche Wirtschaft ernsthaft Gefahr, dieses enorme Potenzial ohne Not brach liegen zu lassen. Denn nach der bereits zitierten Bitkom-Umfrage steht die Digitalisierung von Geschäftsmodellen nur bei 14 Prozent der befragten Unternehmen unter den Top-3-Prioritäten. Damit droht Wertschöpfung sinnlos verschenkt zu werden, das Geschäft machen dann eben andere. Gravierender allerdings: Mit seinem verengten Fokus auf die Produktionsoptimierung droht Deutschland eher früher als später den Anschluss bei Industrie 4.0 zu verlieren – mit schwerwiegenden Folgen. Die internationalen Herausforderer kommen dabei nicht nur aus der klassischen Industrie, sondern auch und vor allem aus der Digitalbranche. Insbesondere die sogenannten Plattformunternehmen fordern mit ihren datenbasierten Geschäftsmodellen die etablierten und vermeintlich unangreifbaren Branchengrößen heraus. Und nur mit einer effizienteren Produktion allein ist ihnen nicht Paroli zu bieten.

Allerdings bedeutet Industrie 4.0 keineswegs, dass jedes Geschäftsmodell zwingend digitalisiert werden muss. Schließlich lässt sich nicht alles sinnvoll digitalisieren und mitunter schlägt analog auch digital. Auch in Zukunft wird es daher ein buntes Neben- und Miteinander unterschiedlichster Geschäftsmodelle geben – selbst innerhalb ein und desselben Unternehmens –, das die verschiedenen Strategien, Nutzenversprechen und nicht zuletzt Kundenwünsche widerspiegelt. Klar ist allerdings, dass Industrie 4.0 die Reflexion des eigenen Geschäftsmodells – wie erfolgreich es auch sein mag – unumgänglich macht, um so dem gefürchteten Innovator´s Dilemma zu entgehen. Dabei gilt es, die Persistenz des Geschäftsmodells kritisch zu hinterfragen, die Potenziale der Digitalisierung zu eruieren und mutig zu handeln. Und zwar selbst dann, wenn das bedeutet, ein etabliertes und erfolgreiches  Geschäftsmodell zu kannibalisieren. Denn die Devise bei Industrie lautet: „Disrupt or Be Disrupted“.

Lesen Sie hier mehr zur Digitalisierung der Fertigungsindustrie.

Erleben Sie die neuesten Innovationen rund um Industrie 4.0 live auf der Innovation Tour 2017 am 12. September in Bonn.

Teilen: