von Harald Schöning | Jan 25, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Der folgende Beitrag zeigt, welchen Mehrwert Maschinenlernen für das IoT birgt und wie wichtig effizientes Asset-Management ist.
Der stetige Datenfluss im Internet der Dinge bildet Datenströme. Diese Datenströme können für alle Anwendungen genutzt werden, die die betreffenden Daten benötigen und über die notwendigen Berechtigungen verfügen. Zur Verarbeitung der Datenströme bedarf es einer leistungsfähigen Streaming-Analytics-Software, die in der Lage ist, die Daten bedarfsgerecht und unter Berücksichtigung der zeitlichen Abfolge mit speziellen Operationen zu analysieren, wie sie in Complex Event Processing (CEP) Systemen vorhanden sind. Eine typische Funktion in solchen Umgebungen ist die dynamische Bildung von endlichen Abschnitten unendlicher Datenströme (Sliding Windows). Ein verbreiteter Ansatz zur Verarbeitung von IoT-Daten ist die Lambda-Architektur. Bei diesem Architekturkonzept werden Datenströme sowohl dynamisch verarbeitet als auch dauerhaft gespeichert, sodass sie für komplexe historische Analysen zur Verfügung stehen. Für beides sind Festplatten-basierte Architekturen zu langsam und liefern Ergebnisse nicht schnell genug. Vielmehr muss die Verarbeitung vollständig im Hauptspeicher erfolgen.
These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
Um bei komplexen Berechnungen mit Big Data möglichst schnelle Reaktionszeiten zu erzielen, ist ein konzeptionell unbegrenzter Hauptspeicher erforderlich. Dies gilt nicht nur für Datenströme aus dem IoT. Wenn Mediziner beispielsweise die Möglichkeit haben, Erbgut-Daten zeitnah auszuwerten, können sie schnell über zeitkritische Behandlungen entscheiden wie etwa eine lebensrettende Chemotherapie.
Maschinelles Lernen
Sind große Datenmengen verfügbar, stellt sich häufig die Frage, wie aus diesen ein Mehrwert erzeugt werden kann. Im Anwendungsfall der Predictive Maintenance liefern Sensoren laufend zahlreiche Informationen über den Betrieb einer Maschine. Was jedoch fehlt, ist das Vorwissen, welche Kombination von Sensorwerten darauf hinweist, dass Wartungsarbeiten nötig sind. In diesem Fall können durch Maschinenlernen Modelle für den Anwendungsfall abgeleitet und schrittweise angepasst werden. Das abgeleitete Modell lässt sich so operationalisieren, dass es sowohl auf große Mengen statischer Daten als auch auf die In-Stream-Verarbeitung anwendbar ist und Vorhersagen in Echtzeit ermöglicht. Das Erfassen großer Datenmengen allein ist nicht wertschöpfend. Der Mehrwert entsteht durch Modelle, die aus diesen Daten Wissen extrahieren, und durch die Fähigkeit, diese Modelle in Echtzeit anzuwenden.
These 9: Vorsprung durch Wissen aus Daten
Die Datenqualität ist dabei von entscheidender Bedeutung. Aus schlechten Daten können durch Maschinenlernen keine guten Modelle abgeleitet werden. Zur Bewertung der Datenqualität werden Informationen über den Ursprung der Daten und das erzeugende Gerät benötigt – beispielswese ein „Ding“ im IoT.
Assets und Prozesse verstehen
Das IoT ist durch eine große, sich dynamisch verändernde Anzahl an Dingen, also an Geräten, die Daten erzeugen, gekennzeichnet. Diese Dinge oder Assets und ihre Merkmale müssen verwaltet werden, damit nur bekannte und sicher identifizierte Assets Informationen beisteuern können. Darüber hinaus müssen der Standort eines Assets sowie die Softwareversionen des Geräts verwaltet werden. Gleichzeitig gilt es, die Kernprozesse eines Unternehmens zu verstehen, und in welcher Beziehung diese zu den Assets stehen. Daraus ergibt sich die letzte These:
These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
Gesetzliche Vorgaben wie die Datenschutz-Grundverordnung der Europäischen Union (EU-DSGVO) verschärfen die Anforderungen an die Dokumentation sämtlicher relevanten Prozesse. Laut der neuen Verordnung müssen Unternehmen ermitteln und erfassen, welche Geschäftsprozesse personenbezogene Daten enthalten. Wer dies versäumt und den beim Datenschutz Risiken eingeht, muss mit empfindlichen Strafen rechnen. Den Überblick über alle Prozesse und Assets zu bewahren wird für Unternehmen daher immer wichtiger.
Zusammenfassung
Die digitale Transformation nimmt zusehends an Fahrt auf. Entweder werden Unternehmen zu Software-basierten Unternehmen oder sie verschwinden vom Markt. Im Zuge der Digitalisierung entstehen neue, datenbasierte Geschäftsmodelle. Um für diese Veränderungen gerüstet zu sein und sich auch gegen Disruptoren zu behaupten, die Märkte übernehmen wollen, müssen Unternehmen Edge-, Cloud- und On-Premise-Computing in einer agilen, modularen und flexiblen IT-Infrastruktur kombinieren. Vor allem das IoT erschließt neue Geschäftschancen, erfordert jedoch auch ein umfassendes Asset-Management. Maschinelles Lernen ist aus keiner Digitalisierungsstrategie mehr wegzudenken.
Das war der letzte Teil unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle vorangegangenen Beiträge:
Teil 1:
Teil 2:
Teil 3:
Teil 4:
Teil 5:
Teil 6:
- These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
- These 9: Maschinenlernen – der unabdingbare Ansatz
- These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
von Dr. Stefan Sigg | Jan 22, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Im folgenden Beitrag geht es um die Cloud als Drehscheibe für Anwendungsentwicklung, zentrale Laufzeitumgebungen und Marktplätze.
Bereits seit einigen Jahren zeichnet sich der Trend ab, dass vor Ort installierte Anwendungen (On-Premise) durch Cloud-Services ersetzt werden. Software-as-a-Service (SaaS) ist mittlerweile ein anerkanntes Software-Delivery-Modell, bei dem für die Softwarenutzer beispielsweise Ressourcenmanagement, Updates und Versionskontrolle entfallen. Allerdings kann vorhandene Software nicht eins zu eins in der Cloud bereitgestellt werden. Software muss speziell für die Cloud konzipiert werden und rund um die Uhr verfügbar, schnell und reibungslos aktualisierbar, skalierbar und mandantenfähig sein. Vor allem im IoT-Kontext gewinnt die Cloud an Bedeutung, da die von IoT-Anwendungen benötigte Skalierbarkeit und Flexibilität beim Cloud-Computing viel eher gegeben sind als bei der On-Premise-Verarbeitung.
These 6: Die Cloud als zentrales Element
Im IoT-Kontext reicht Cloud-Computing jedoch möglicherweise nicht aus. Die riesigen, im IoT generierten Datenströme enthalten oft redundante oder irrelevante Informationen. Zudem sind die unvermeidlichen Latenzen in Cloud-Umgebungen für einige Berechnungsprozesse zu hoch. Infolgedessen muss Cloud-Computing um Edge-Computing erweitert werden. So können einige Berechnungen in der Nähe der Datenquellen erfolgen, um Datenströme zu komprimieren oder schnelle Entscheidungen zu treffen. Ein prominenter Anwendungsfall ist die Car2X-Kommunikation, bei der das Fahrzeug über die Rechenleistung verfügt, aus Sensor- und Umgebungsdaten blitzschnell Entscheidungen abzuleiten. Berechnungen, die nicht zeitkritisch sind oder Daten aus vielen Quellen heranziehen, können in der Cloud durchgeführt werden. Obwohl die Cloud ein immer breiteres Anwendungsspektrum abdeckt, werden bestimmte Berechnungen auch in Zukunft lokal (On-Premise) vorgenommen, insbesondere im B2B-Bereich. Dies gilt vor allem für geschäftskritische, maßgeschneiderte Anwendungen, die aufgrund ihrer Komplexität oder aus Sicherheits- oder Latenzgründen nicht einfach in die Cloud verlagert werden können.
Komplexe Deployments
Die Datenverarbeitung erfolgt oft über eine Mischung aus Edge-, Cloud- und On-Premise-Computing. Daher müssen diese verschiedenen Verarbeitungsumgebungen zwecks Kommunikation und gemeinsamer Datennutzung miteinander verbunden werden. Traditionelle Batch-Ansätze für das Verschieben von Massendaten werden den aktuellen Anforderungen an die Verarbeitungsgeschwindigkeit nicht gerecht. Stattdessen sind schnelle Verbindungen in Quasi-Echtzeit erforderlich. Skalierbare und verteilte Message-Bus-Installationen sind aus derartig komplexen Verarbeitungsumgebungen nicht wegzudenken.
These 7: Verteilte Daten – in Echtzeit vernetzt
Besonders Deployments im IoT-Umfeld sind gekennzeichnet durch eine hochgradig verteilte Verarbeitung mit geringer zentraler Kontrolle und intensivem Datenaustausch. Die traditionelle Vorgehensweise, Daten in zentralisierten Data-Warehouse-Systemen zu replizieren, wird zunehmend durch lokale Analysen mit Data-Streaming-Technologie ergänzt.
Da viele Anwendungsfälle Echtzeitverarbeitung und eine umgehende Reaktion auf Analyseergebnisse erfordern, ist die Latenz eines Data-Warehouse nicht mehr angemessen. Die Integration von Daten aus verteilten Quellen in Quasi-Echtzeit ist ebenfalls eine akzeptable Alternative zur physischen Batch-Replikation. Diese Entwicklungen sind vor dem Hintergrund der neuartigen Datenquellen zu sehen, die moderne IoT-Szenarien charakterisieren.
Das war Teil 5 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:
Teil 1:
Teil 2:
Teil 3:
Teil 4:
Teil 5:
- These 6: Die Cloud als zentrales Element
- These 7: Verteilte Daten – in Echtzeit vernetzt
Teil 6:
von Dr. Stefan Sigg | Jan 11, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um API-Management und Architekturkonzepte, die auf Microservices basieren, sodass Unternehmen agil und flexibel maßgeschneiderte Lösungen entwickeln können.
Der dritte Beitrag unserer Artikel-Serie endete mit der These, dass sich auf Grundlage offener und flexibler digitaler Plattformen schnell neuartige Anwendungen entstehen können.
Diese neuen digitalen Services lassen sich nur dann schnell und flexibel entwickeln und implementieren, wenn keine Änderungen an vorhandener monolithischer Software nötig sind. Vielmehr müssen sie lose gekoppelt und modular konzipiert werden. Ein neuer Service könnte beispielsweise auf bestehende digitale Services zurückgreifen und sie den Anforderungen entsprechend miteinander kombinieren. Voraussetzung dafür sind eindeutig definierte und fokussierte Funktionen. Eine solche Servicelandschaft wird besonders gut durch ein Architekturkonzept auf der Grundlage von „Microservices“ unterstützt. Der modulare Ansatz vereinfacht Entwicklung, Test und Pflege von Anwendungen, denn die kleinen Einheiten (Microservices) können entwickelt werden, während unabhängige Teams parallel arbeiten und kontinuierlich Services zur Verfügung stellen. Daraus ergibt sich die logische Schlussfolgerung:
These 4: Microservices und APIs sind die Grundlage für maßgeschneiderte Lösungen
Eine dynamische Umgebung, die aus einer Vielzahl sich ständig ändernder Services besteht, welche das Geschäftsmodell unterstützen, muss verwaltet und gesteuert werden. Diese Aufgaben übernimmt das API-Management. Es gibt vor, wer einen Service nutzen darf, bietet Self-Service-Portale für Serviceentwickler und stellt Backend-Services mithilfe von API-Schlüsseln sowie Eingangs- und Ausgangsfiltern sicher bereit. Darüber hinaus können über das API-Management Richtlinien festgelegt und umgesetzt werden, ohne die eigentlichen Services zu verändern. Latenz und Skalierung sowie Speicherverwaltung und Caching lassen sich an den tatsächlichen Bedarf anpassen. Zudem bietet API-Management sowohl historische als auch aktuelle Informationen über die Nutzung und Performance eines Services, sodass die Nutzer Trends ablesen und ihre Systemkonfiguration bei Bedarf anpassen können. Es deckt den gesamten Lebenszyklus eines Services ab: Planung, Test, Installation, produktiver Betrieb, Versionskontrolle und schließlich die Einstellung des Supports. Die digitale Transformation setzt eine „IT der zwei Geschwindigkeiten“ voraus. Mit der einen Geschwindigkeit werden zentralisierte Speicher- und Abfragesysteme (ERP, CRM, HR usw.) betrieben, mit der anderen die agile Entwicklung neuer Anwendungen, die die neuen „digitalen“ Geschäftsmodelle abbilden. API-Management schafft diese Möglichkeit, indem es die vergleichsweise unflexible Umgebung der Legacy-Systeme von der rasanten App-Entwicklung abkoppelt, die auf den neuen Datenströmen basiert.
Das Internet der Dinge
Eine anwendungsorientierte Sicht auf die digitale Transformation führt direkt zum Internet der Dinge (IoT). Die folgende Abbildung veranschaulicht das Zusammenspiel der physischen Dinge, einem sogenannten digitalen Zwilling und den erzeugten Daten.
In einer solchen Konstellation mit Dingen wie Fahrzeugen, Waschmaschinen, Kühlschränken oder anderen Gegenständen der realen Welt, legen die verfügbaren Daten den Grundstein für eine neue Art von Anwendungen. Die folgenden Beispielszenarien werden häufig diskutiert:
- Predictive Maintenance: Analyse der Daten, um vorherzusagen, wann die nächste Wartungsmaßnahme ansteht
- Bedarfsprognose: Nutzung der Daten, um die Nachfrage nach einem bestimmten Produkt zu einem bestimmten Zeitpunkt und an einem bestimmten Ort zu prognostizieren
- Patientenfernbetreuung: Überwachung des Gesundheitszustands von Patienten in ihrer alltäglichen Umgebung
- Vernetzte Fahrzeuge: Datenaustausch Car2Car (zwischen Fahrzeugen) und Car2X (zwischen Fahrzeugen und ihrer Umgebung) als Voraussetzung für Fahrerassistenz und autonomes Fahren
Diese Anwendungen haben gemeinsam, dass die zugrunde liegenden Daten nicht aus herkömmlichen IT-Systemen wie ERP-Umgebungen stammen. Allerdings erfordern die Anwendungsfälle die Interaktion mit traditionellen IT-Systemen im Unternehmen. Beispielsweise muss die Bedarfsprognose mit dem Auftrags- und Kundenmanagement verknüpft sein. Daraus folgt die fünfte These:
These 5: Digitalisierung findet größtenteils außerhalb der traditionellen IT-Systeme statt, aber die Integration mit diesen ist essenziell.
ERP-Systeme sind für Transaktionen mit klar definiertem Beginn und Ende ausgelegt, während das IoT einen fortwährenden Datenfluss oder Datenstrom erzeugt.
Typischerweise wird dabei ein riesiges Datenvolumen generiert, wobei viele dieser Daten möglicherweise irrelevant sind. Beispielsweise wird der Puls eines Patienten in regelmäßigen Abständen gemessen. Wenn es keine dramatischen Abweichungen gibt, sind die einzelnen Messungen aber nicht von Bedeutung. Daher müssen angesichts der IoT-spezifischen Gegebenheiten neue Ansätze zur Datenverarbeitung entwickelt werden. Charakteristisch für das IoT-Umfeld ist eine dreifache Interoperabilität, nämlich das Zusammenwirken von:
- Cloud
- On-Premise
- Edge
Edge-Computing bezeichnet im Allgemeinen Geräte, Maschinen, Roboter oder Computer, die sich nicht im Rechenzentrum der Firmenzentrale, sondern in einem Werk, einer Niederlassung oder an einem anderen Standort befinden.
Um einen harmonischen Dreiklang dieser unterschiedlichen Verarbeitungsmodelle zu gewährleisten, ist eine Architektur auf der Grundlage von Microservices genauso unentbehrlich wie die Verfügbarkeit geeigneter Datenintegrationsfunktionen (Konnektoren).
Das war Teil 4 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:
Teil 1:
Teil 2:
Teil 3:
Teil 4:
- These 4: Microservices und APIs: Grundlage für maßgeschneiderte Lösungen
- These 5: Digitalisierung findet größtenteils außerhalb der traditionellen IT-Systeme statt, aber die Integration mit diesen ist essenziell.
Teil 5:
Teil 6:
von Harald Schöning | Jan 3, 2018 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um jene neuen softwarebasierten Geschäftsmodelle und die digitalen Plattformen, die als Grundlage für individuelle und innovative Lösungen dienen.
Unsere erste These besagt, dass Software allgegenwärtig und der entscheidende Faktor für den disruptiven Marktzugang ist. Als logische Konsequenz ergibt sich daraus:
These 2: Digitalisierung führt zu neuen softwarebasierten Geschäftsmodellen.
Neue Geschäftsmodelle beruhen oft auf Geschäftsplattformen: Die Wertschöpfung findet nicht mehr in der Produktion und im Unternehmen selbst statt, sondern außerhalb. Den Vorteil davon hat der Anbieter der Plattform, denn er hat die Kontrolle über sie. Auf ihr bieten Dritte ihre Services an und können so von der Marktposition der Plattform profitieren. Der Apple-Store, in dem Anwendungsentwickler Nutzern ihre Apps zur Verfügung stellen, ist ein bekanntes Beispiel dafür. Das Unternehmen entwickelt zwar selbst keine Apps, erwirtschaftet jedoch mit jeder verkauften App einen Gewinn. Die daraus resultierenden enormen Skaleneffekte werden durch die Netzwerkeffekte noch verstärkt. Mit jedem weiteren Nutzer steigt der Wert der Plattform. Solche Geschäftsmodelle besitzen erhebliches wirtschaftliches Potenzial. Unternehmen wie Airbnb und Uber besitzen keinen einzigen Vermögenswert und haben dennoch einen beträchtlichen Anteil am Markt für Unterkünfte beziehungsweise Beförderungen. Ihre einzigen Mitbewerber sind andere Plattformanbieter, im Fall von Airbnb ist das etwa Booking.com.
Es gibt jedoch auch Unternehmen, die ihren ursprünglichen Markt erfolgreich erweitern, indem sie auf einer Plattform Akteure aus verschiedenen Branchen integrieren und damit die eigenen Services aufwerten. Die Plattform eines Landmaschinen-Herstellers namens 365FarmNet integriert beispielsweise auch Versicherungen, Düngeplanung, Finanzierung und Wetterprognosen. Eine solche Wertschöpfungsplattform, die mehrere Akteure vereint, kann oft nicht von einem Teilnehmer allein entwickelt werden, sondern erfordert vielmehr die Co-Innovation und Zusammenarbeit mit Partnern. In der Regel bedarf es zudem eines Softwareunternehmens, welches das Branchenwissen der Partner um das nötige digitale Know-how ergänzt. Wird eine solche Zusammenarbeit frühzeitig mit Unterstützung der Unternehmensleitung auf den Weg gebracht, kann sie eine Disruption durch externe Marktteilnehmer erfolgreich abwehren.
Digitale Plattformen als Grundlage für individuelle Lösungen
Echte und einzigartige Services bestimmen den Wert und das Potenzial von Geschäftsplattformen. Die Anbieter digitaler Services müssen ihre Angebote auf die speziellen Bedürfnisse ihrer Märkte abstimmen, damit sie den Anforderungen ihrer Kunden bestmöglich entsprechen und optimal zu ihrem Geschäftsmodell passen. Wem eine solche individuelle Lösung am besten gelingt, hat besonders gute Chancen, den Markt zu erschließen. Es ist offensichtlich, dass man mit Standardlösungen hier nicht weit kommt.
These 3: Auf der Grundlage offener und flexibler digitaler Plattformen lassen sich schnell neuartige Anwendungen entwickeln, die weder rein transaktional noch rein analytisch sind.
Die Markteinführungszeit ist ein maßgeblicher Faktor für Anbieter von Geschäftsplattformen und für digitale Serviceangebote. Daher ist eine komplette Neuentwicklung individueller Softwarelösungen keine Option. Besser geeignet, um ein optimales digitales Serviceangebot zu schaffen, sind leistungsstarke, benutzerfreundliche digitale Plattformen. Sie sind robust, skalierbar, hocheffizient und bieten alle erforderlichen Bausteine wie Datenmanagement und -integration, Streaming Analytics, Adapter zu Backend-Systemen und Sicherheitsmechanismen. Außerdem können neue digitale Services auf solchen Plattformen innerhalb von Tagen oder Wochen entwickelt und implementiert werden.
Das war Teil 3 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:
Teil 1:
Teil 2:
Teil 3:
- These 2: Neue Geschäftsmodelle müssen softwarebasiert sein
- These 3: Digitale Plattformen sind die Grundlage für individuelle Lösungen
Teil 4:
Teil 5:
Teil 6:
von Harald Schöning | Dez 20, 2017 | Allgemein
Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. Im folgenden Beitrag geht es um die Software selbst: Sie ist allgegenwärtig, und ihr Einsatz wird als Grundvoraussetzung über das Gelingen der Digitalisierung in Unternehmen entscheiden.
„Software is eating the world.“ So beschreibt Marc Andreessen unsere Zeit, in der immer mehr Softwareunternehmen in traditionelle Industriezweige vordringen und die etablierten Player mit innovativen Technologien herausfordern – heute insbesondere mit Cloud-Software. Daraus ergibt sich folgende erste These zur digitalen Transformation:
These 1: In einigen Branchen, vor allem solchen, die in der realen Welt verwurzelt sind, wie etwa die Öl- und Gasindustrie, bietet die Softwarerevolution vorrangig etablierten Unternehmen eine Chance.
In vielen anderen Branchen werden jedoch neue Softwareideen dazu führen, dass Start-up-Unternehmen wie im Silicon Valley aus dem Boden sprießen und ungehindert in bestehende Märkte eindringen. In den nächsten zehn Jahren wird es daher einen Kampf zwischen etablierten Marktteilnehmern und softwaregetriebenen Start-ups geben.
Clayton M. Christensen hat in seinem Werk „The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail“ folgende Strategien beschrieben, die etablierten Unternehmen dabei helfen, sich gegen solche Angreifer zu behaupten und die disruptive Technologie selbst in die Hand zu nehmen:
- Disruptive Technologie wird mit den „richtigen“ Kunden entwickelt. Das ist nicht unbedingt der aktuelle Kundenstamm.
- Zur Einführung disruptiver Technologie wird eine eigenständige Organisation gegründet.
- Die Suche nach der richtigen disruptiven Technologie wird auch nach Misserfolgen fortgeführt.
- Die Organisation, die sich mit disruptiver Technologie befasst, wird bei Bedarf unterstützt. Dabei ist aber sichergestellt, dass dort andere Prozesse und Werte gelten als im etablierten Unternehmen.
Die sogenannte „disruptive Technologie“ basiert auf Software, die im Unternehmen selbst entwickelt werden muss. Sie differenziert das Unternehmen von seinen Wettbewerbern und ist deshalb nicht als Standardsoftware auf dem Markt verfügbar. Genau das ist der springende Punkt: Disruptive Technologie ist in hohem Maß individuell und innovativ. Zudem ist sie genau auf eine Branche oder sogar einen Anwendungsfall zugeschnitten. Entscheidend im Kampf zwischen den softwaregetriebenen und den etablierten Unternehmen ist die Frage: Können die Softwareunternehmen sich schneller Branchenwissen aneignen als die bestehenden Marktteilnehmer in der Lage sind, eine neue Softwareeinheit aufzubauen? Für den Einzelhandel und die Medienbranche kann diese Frage wohl mit Ja beantwortet werden. Andere Branchen sind nun vorgewarnt und könnten es Software-Start-ups deutlich schwieriger machen, die Marktführerschaft zu übernehmen. Entscheidend ist in der Praxis, wie schnell etablierte Unternehmen eine Softwareplattform aufbauen können, die ihren Anforderungen entspricht.
Eine solche Plattform sollte folgendermaßen beschaffen sein:
- Modular: Wahlmöglichkeiten bei verwendeten Komponenten und endgültiger Architektur
- Offen: Fähigkeit zur Integration mit anderen Softwarekomponenten
- Prozessorientiert: leichte Anpassung an die vorhandenen, durch die Software abzubildenden Geschäftsprozesse
- Schnell: kurze Implementierungs- und Reaktionszeit
- Robust: bewährt, unternehmensweit einsatzbereit und skalierbar
- Echtzeitbasiert: Nutzung moderner Data-Streaming-Technologien
- Lernfähig: ständige Selbstoptimierung durch Maschinenlernen
- Cloudfähig: offenes Konzept für die Bereitstellung in einer öffentlichen, privaten und hybriden Cloud-Umgebung
Eine Technologie mit diesen Eigenschaften erfüllt zwei wichtige Ziele: Erstens ermöglicht sie Entwicklungsteams einen schnellen Einstieg, weil diese nicht bei null anfangen müssen. Zweitens bietet sie ein ausreichendes Maß an Agilität und Flexibilität zur Planung und Entwicklung der für die Anforderungen richtigen Lösungen. Auf diese beiden Aspekte kommt es an, egal, ob ein etabliertes Unternehmen seine Abläufe und Produkte digitalisieren oder ein Start-up mit einer neuen Lösung aufwarten möchte. Allerdings müssen auch die entsprechenden Kapazitäten für die Softwareentwicklung verfügbar sein. Viele Industrieunternehmen haben in den vergangenen Jahrzehnten ihre IT ausgelagert. Ihre eigenen IT-Abteilungen kümmern sich nur noch um den Betrieb und die Erweiterung der vorhandenen Standardsysteme. „Die Kunst der Computerprogrammierung“, wie Donald E. Knuth es nennt, wurde vernachlässigt. Und nicht nur das: Wer Softwareprodukte erfolgreich ausliefern und pflegen will, muss auch mit dem gesamten Verfahren der Softwareentwicklung vertraut sein. Sehr wahrscheinlich wird die Nachfrage nach Beratungsdiensten im Bereich der Softwareentwicklung stark ansteigen, damit IT-Mitarbeiter (wieder) lernen, Software professionell, nachhaltig und individuell zu erstellen.
Das war Teil 2 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:
Teil 1:
Teil 2:
- These 1: Software ist allgegenwärtig
Teil 3:
Teil 4:
Teil 5:
Teil 6:
Von Dr. Stefan Sigg, Chief Research & Development Officer, und Dr. Harald Schöning, Vice President Research, bei der Software AG.