IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
10 Thesen zur digitalen Transformation – Teil 6

10 Thesen zur digitalen Transformation – Teil 6

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Der folgende Beitrag zeigt, welchen Mehrwert Maschinenlernen für das IoT birgt und wie wichtig effizientes Asset-Management ist.

Der stetige Datenfluss im Internet der Dinge bildet Datenströme. Diese Datenströme können für alle Anwendungen genutzt werden, die die betreffenden Daten benötigen und über die notwendigen Berechtigungen verfügen. Zur Verarbeitung der Datenströme bedarf es einer leistungsfähigen Streaming-Analytics-Software, die in der Lage ist, die Daten bedarfsgerecht und unter Berücksichtigung der zeitlichen Abfolge mit speziellen Operationen zu analysieren, wie sie in Complex Event Processing (CEP) Systemen vorhanden sind. Eine typische Funktion in solchen Umgebungen ist die dynamische Bildung von endlichen Abschnitten unendlicher Datenströme (Sliding Windows). Ein verbreiteter Ansatz zur Verarbeitung von IoT-Daten ist die Lambda-Architektur. Bei diesem Architekturkonzept werden Datenströme sowohl dynamisch verarbeitet als auch dauerhaft gespeichert, sodass sie für komplexe historische Analysen zur Verfügung stehen. Für beides sind Festplatten-basierte Architekturen zu langsam und liefern Ergebnisse nicht schnell genug. Vielmehr muss die Verarbeitung vollständig im Hauptspeicher erfolgen.

These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie

Um bei komplexen Berechnungen mit Big Data möglichst schnelle Reaktionszeiten zu erzielen, ist ein konzeptionell unbegrenzter Hauptspeicher erforderlich. Dies gilt nicht nur für Datenströme aus dem IoT. Wenn Mediziner beispielsweise die Möglichkeit haben, Erbgut-Daten zeitnah auszuwerten, können sie schnell über zeitkritische Behandlungen entscheiden wie etwa eine lebensrettende Chemotherapie.

Maschinelles Lernen

Sind große Datenmengen verfügbar, stellt sich häufig die Frage, wie aus diesen ein Mehrwert erzeugt werden kann. Im Anwendungsfall der Predictive Maintenance liefern Sensoren laufend zahlreiche Informationen über den Betrieb einer Maschine. Was jedoch fehlt, ist das Vorwissen, welche Kombination von Sensorwerten darauf hinweist, dass Wartungsarbeiten nötig sind. In diesem Fall können durch Maschinenlernen Modelle für den Anwendungsfall abgeleitet und schrittweise angepasst werden. Das abgeleitete Modell lässt sich so operationalisieren, dass es sowohl auf große Mengen statischer Daten als auch auf die In-Stream-Verarbeitung anwendbar ist und Vorhersagen in Echtzeit ermöglicht. Das Erfassen großer Datenmengen allein ist nicht wertschöpfend. Der Mehrwert entsteht durch Modelle, die aus diesen Daten Wissen extrahieren, und durch die Fähigkeit, diese Modelle in Echtzeit anzuwenden.

These 9: Vorsprung durch Wissen aus Daten

Die Datenqualität ist dabei von entscheidender Bedeutung. Aus schlechten Daten können durch Maschinenlernen keine guten Modelle abgeleitet werden. Zur Bewertung der Datenqualität werden Informationen über den Ursprung der Daten und das erzeugende Gerät benötigt – beispielswese ein „Ding“ im IoT.

Assets und Prozesse verstehen

Das IoT ist durch eine große, sich dynamisch verändernde Anzahl an Dingen, also an Geräten, die Daten erzeugen, gekennzeichnet. Diese Dinge oder Assets und ihre Merkmale müssen verwaltet werden, damit nur bekannte und sicher identifizierte Assets Informationen beisteuern können. Darüber hinaus müssen der Standort eines Assets sowie die Softwareversionen des Geräts verwaltet werden. Gleichzeitig gilt es, die Kernprozesse eines Unternehmens zu verstehen, und in welcher Beziehung diese zu den Assets stehen. Daraus ergibt sich die letzte These:

These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement

Gesetzliche Vorgaben wie die Datenschutz-Grundverordnung der Europäischen Union (EU-DSGVO) verschärfen die Anforderungen an die Dokumentation sämtlicher relevanten Prozesse. Laut der neuen Verordnung müssen Unternehmen ermitteln und erfassen, welche Geschäftsprozesse personenbezogene Daten enthalten. Wer dies versäumt und den beim Datenschutz Risiken eingeht, muss mit empfindlichen Strafen rechnen. Den Überblick über alle Prozesse und Assets zu bewahren wird für Unternehmen daher immer wichtiger.

Zusammenfassung

Die digitale Transformation nimmt zusehends an Fahrt auf. Entweder werden Unternehmen zu Software-basierten Unternehmen oder sie verschwinden vom Markt. Im Zuge der Digitalisierung entstehen neue, datenbasierte Geschäftsmodelle. Um für diese Veränderungen gerüstet zu sein und sich auch gegen Disruptoren zu behaupten, die Märkte übernehmen wollen, müssen Unternehmen Edge-, Cloud- und On-Premise-Computing in einer agilen, modularen und flexiblen IT-Infrastruktur kombinieren. Vor allem das IoT erschließt neue Geschäftschancen, erfordert jedoch auch ein umfassendes Asset-Management. Maschinelles Lernen ist aus keiner Digitalisierungsstrategie mehr wegzudenken.

Das war der letzte Teil unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle vorangegangenen Beiträge:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

Teil 6:

  • These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
  • These 9: Maschinenlernen – der unabdingbare Ansatz
  • These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
Teilen: