IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Die bunte Welt des IoT

Die bunte Welt des IoT

Viele Unternehmen wissen heute noch nicht so recht, welche Vorteile ihnen das Internet of Things bietet oder wie sie eine IoT-Strategie entwickeln und umsetzen sollen. Wer vorne mit dabei sein will, muss schnell sein und sich auf den Geschäftsnutzen fokussieren. Die IoT Innovation Tour informiert praxisnah über die wichtigsten Innovationen und Trends in Sachen Industrie 4.0. In Stuttgart und München stellte die Software AG diese Woche zusammen mit Kunden und Partnern anhand von fünf Showcases IoT-Lösungen für die Zukunft vor:

Edge-Analytics

In smarten Fabriken mit IoT-fähigen Geräten ist die Abhängigkeit von Analysesoftware so hoch, dass selbst kurze Unterbrechungen der Internetverbindung zu einem Desaster führen können. Hier kommt Edge-Analytics ins Spiel – ein Muss für jede Industrie-4.0-Architektur und die Lösung für einen hochverfügbaren, kostengünstigen Datentransfer. Wie Edge-Analytics funktioniert, erfahren Besucher der IoT Innovation Tour anhand einer Demo, die Dell im Zusammenspiel mit Eaton Automatisierungskomponenten zeigt. Die erste Analyseebene liegt nahe an den digitalen Geräten und Sensoren, anschließend werden die Ergebnisse zur besseren Visualisierung in die Cloud übertragen.

IIOT in a box

IIoT in a Box von Pepperl+Fuchs (P+F) und der Software AG ist ein vorkonfiguriertes, vollständig integriertes IoT-Paket für Industriesensoren und unternehmenstaugliche Datenverarbeitung und -analyse in der Cloud. Teilnehmer überwachen und steuern vor Ort den Zustand einer simulierten Maschine und verfolgen auf einem Bildschirm, wie Änderungen am Zustand der Maschine visualisiert und dokumentiert werden. Nähert sich etwa der Zustand einer thermischen Belastung einem kritischen Bereich, wird eine Warnung ausgegeben, die der Verantwortliche per E-Mail erhält. Mit dieser Lösung können vernetzte Fertigungsprozesse optimiert und die Kosten nachhaltig gesenkt werden, insbesondere in bestehenden Produktionsumgebungen.

IoT-Logistik Demo

Das IoT ist auch gefragt, wenn es darum geht, Produktionsprozesse und -systeme so flexibel zu machen, dass Kundenspezifikationen und Kundenwünsche berücksichtigt werden und die Effektivität gesteigert wird. Hohe, unkalkulierbare Fehlerraten oder Lieferverzögerungen können in einer Supply-Chain enorme Kosten verursachen. Die Überwachung in Echtzeit wird immer wichtiger. Die Demo steht im Kontext der durchgängigen Überwachung von Frachtgütern vom Hersteller bis zum Kunden. An den Frachtgütern angebrachte Sensoren messen ständig die Parameter, die sich auf die Produktqualität auswirken: Beschleunigung, Temperatur und Feuchtigkeit. Der durch die Messungen erzeugte Datenstrom wird durch Cumulocity IoT in Echtzeit visualisiert und analysiert. Sobald definierte Schwellenwerte erreicht werden, wird ein Alarm ausgelöst. So werden Prognosen verarbeitet, das System kann Entscheidungen treffen und sofort Maßnahmen anstoßen, um einen Produktionsstillstand zu verhindern.

Coffee to go

Mit IoT Coffee to go, einem Showcase von nterra digitalisiert und automatisiert die Software AG den Kaffeegenuss von der Bestellung der Kapseln über die Auslieferung und Zubereitung bis hin zur Rechnungsstellung. Der smarte Kaffeeautomat verwendet Sensor-based Measurement, um die Füllstände seiner Kapseln im Blick zu halten. Verbräuche werden gemessen, Daten dazu in die Cumulocity-Cloud gespeist und im Rahmen eines Predictive Maintenance eingesetzt. Und alles liegt – samt einem dynamischen Dashboard mit den wichtigsten Businessdaten – auf jedem beliebigen Mobile Device.

Cloud of Things

Die IoT-Plattform der Software AG sammelt dezentrale Sensordaten von Maschinen, wertet sie aus und bereitet sie übersichtlich in einem webbasierten Dashboard auf. So behalten Nutzer einen umfassenden Überblick, können die Effizienz ihrer Anlage steigern und dank vorausschauender Wartung und reduzierten Ausfallzeiten nachhaltig Kosten sparen. Für den einfachen Einstieg in das Internet of Things können zwei vorkonfigurierte Komplettpakete genutzt werden: Mit Industrial Machine Monitoring lassen sich Maschinendaten einfach überwachen, visualisiern und analysieren. So können Wartungskosten reduziert und die Qualität und Output der Maschinen erhöht werden. Mit Asset Tracking wissen Verantwortliche immer wo sich ihre Güter und Maschinen gerade befinden. So vermeiden sie unwissentlichen Bestandverlust, reduzieren Diebstähle und gewinnen an Effizienz.

All diese Showcases und vieles mehr können Interessenten bei vier weiteren Stopps der IoT Innovation Tour erleben:

  • Hamburg, 24. Mai, east Hotel
  • Düsseldorf, 13. September, Hyatt Regency
  • Wien, 19. September, Sky Stage, Tech Gate Vienna
  • Zürich, 26. September, Park Hyatt Zurich

Weitere Informationen und die Möglichkeit, sich kostenlos anzumelden, gibt es hier.

Teilen:
10 Thesen zur digitalen Transformation – Teil 6

10 Thesen zur digitalen Transformation – Teil 6

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Der folgende Beitrag zeigt, welchen Mehrwert Maschinenlernen für das IoT birgt und wie wichtig effizientes Asset-Management ist.

Der stetige Datenfluss im Internet der Dinge bildet Datenströme. Diese Datenströme können für alle Anwendungen genutzt werden, die die betreffenden Daten benötigen und über die notwendigen Berechtigungen verfügen. Zur Verarbeitung der Datenströme bedarf es einer leistungsfähigen Streaming-Analytics-Software, die in der Lage ist, die Daten bedarfsgerecht und unter Berücksichtigung der zeitlichen Abfolge mit speziellen Operationen zu analysieren, wie sie in Complex Event Processing (CEP) Systemen vorhanden sind. Eine typische Funktion in solchen Umgebungen ist die dynamische Bildung von endlichen Abschnitten unendlicher Datenströme (Sliding Windows). Ein verbreiteter Ansatz zur Verarbeitung von IoT-Daten ist die Lambda-Architektur. Bei diesem Architekturkonzept werden Datenströme sowohl dynamisch verarbeitet als auch dauerhaft gespeichert, sodass sie für komplexe historische Analysen zur Verfügung stehen. Für beides sind Festplatten-basierte Architekturen zu langsam und liefern Ergebnisse nicht schnell genug. Vielmehr muss die Verarbeitung vollständig im Hauptspeicher erfolgen.

These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie

Um bei komplexen Berechnungen mit Big Data möglichst schnelle Reaktionszeiten zu erzielen, ist ein konzeptionell unbegrenzter Hauptspeicher erforderlich. Dies gilt nicht nur für Datenströme aus dem IoT. Wenn Mediziner beispielsweise die Möglichkeit haben, Erbgut-Daten zeitnah auszuwerten, können sie schnell über zeitkritische Behandlungen entscheiden wie etwa eine lebensrettende Chemotherapie.

Maschinelles Lernen

Sind große Datenmengen verfügbar, stellt sich häufig die Frage, wie aus diesen ein Mehrwert erzeugt werden kann. Im Anwendungsfall der Predictive Maintenance liefern Sensoren laufend zahlreiche Informationen über den Betrieb einer Maschine. Was jedoch fehlt, ist das Vorwissen, welche Kombination von Sensorwerten darauf hinweist, dass Wartungsarbeiten nötig sind. In diesem Fall können durch Maschinenlernen Modelle für den Anwendungsfall abgeleitet und schrittweise angepasst werden. Das abgeleitete Modell lässt sich so operationalisieren, dass es sowohl auf große Mengen statischer Daten als auch auf die In-Stream-Verarbeitung anwendbar ist und Vorhersagen in Echtzeit ermöglicht. Das Erfassen großer Datenmengen allein ist nicht wertschöpfend. Der Mehrwert entsteht durch Modelle, die aus diesen Daten Wissen extrahieren, und durch die Fähigkeit, diese Modelle in Echtzeit anzuwenden.

These 9: Vorsprung durch Wissen aus Daten

Die Datenqualität ist dabei von entscheidender Bedeutung. Aus schlechten Daten können durch Maschinenlernen keine guten Modelle abgeleitet werden. Zur Bewertung der Datenqualität werden Informationen über den Ursprung der Daten und das erzeugende Gerät benötigt – beispielswese ein „Ding“ im IoT.

Assets und Prozesse verstehen

Das IoT ist durch eine große, sich dynamisch verändernde Anzahl an Dingen, also an Geräten, die Daten erzeugen, gekennzeichnet. Diese Dinge oder Assets und ihre Merkmale müssen verwaltet werden, damit nur bekannte und sicher identifizierte Assets Informationen beisteuern können. Darüber hinaus müssen der Standort eines Assets sowie die Softwareversionen des Geräts verwaltet werden. Gleichzeitig gilt es, die Kernprozesse eines Unternehmens zu verstehen, und in welcher Beziehung diese zu den Assets stehen. Daraus ergibt sich die letzte These:

These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement

Gesetzliche Vorgaben wie die Datenschutz-Grundverordnung der Europäischen Union (EU-DSGVO) verschärfen die Anforderungen an die Dokumentation sämtlicher relevanten Prozesse. Laut der neuen Verordnung müssen Unternehmen ermitteln und erfassen, welche Geschäftsprozesse personenbezogene Daten enthalten. Wer dies versäumt und den beim Datenschutz Risiken eingeht, muss mit empfindlichen Strafen rechnen. Den Überblick über alle Prozesse und Assets zu bewahren wird für Unternehmen daher immer wichtiger.

Zusammenfassung

Die digitale Transformation nimmt zusehends an Fahrt auf. Entweder werden Unternehmen zu Software-basierten Unternehmen oder sie verschwinden vom Markt. Im Zuge der Digitalisierung entstehen neue, datenbasierte Geschäftsmodelle. Um für diese Veränderungen gerüstet zu sein und sich auch gegen Disruptoren zu behaupten, die Märkte übernehmen wollen, müssen Unternehmen Edge-, Cloud- und On-Premise-Computing in einer agilen, modularen und flexiblen IT-Infrastruktur kombinieren. Vor allem das IoT erschließt neue Geschäftschancen, erfordert jedoch auch ein umfassendes Asset-Management. Maschinelles Lernen ist aus keiner Digitalisierungsstrategie mehr wegzudenken.

Das war der letzte Teil unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle vorangegangenen Beiträge:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

Teil 6:

  • These 8: Echtzeitverarbeitung nicht ohne In-Memory-Technologie
  • These 9: Maschinenlernen – der unabdingbare Ansatz
  • These 10: Keine digitale Transformation ohne Asset- und Prozessmanagement
Teilen:
10 Thesen zur digitalen Transformation – Teil 5

10 Thesen zur digitalen Transformation – Teil 5

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Im folgenden Beitrag geht es um die Cloud als Drehscheibe für Anwendungsentwicklung, zentrale Laufzeitumgebungen und Marktplätze.

Bereits seit einigen Jahren zeichnet sich der Trend ab, dass vor Ort installierte Anwendungen (On-Premise) durch Cloud-Services ersetzt werden. Software-as-a-Service (SaaS) ist mittlerweile ein anerkanntes Software-Delivery-Modell, bei dem für die Softwarenutzer beispielsweise Ressourcenmanagement, Updates und Versionskontrolle entfallen. Allerdings kann vorhandene Software nicht eins zu eins in der Cloud bereitgestellt werden. Software muss speziell für die Cloud konzipiert werden und rund um die Uhr verfügbar, schnell und reibungslos aktualisierbar, skalierbar und mandantenfähig sein. Vor allem im IoT-Kontext gewinnt die Cloud an Bedeutung, da die von IoT-Anwendungen benötigte Skalierbarkeit und Flexibilität beim Cloud-Computing viel eher gegeben sind als bei der On-Premise-Verarbeitung.

These 6: Die Cloud als zentrales Element

Im IoT-Kontext reicht Cloud-Computing jedoch möglicherweise nicht aus. Die riesigen, im IoT generierten Datenströme enthalten oft redundante oder irrelevante Informationen. Zudem sind die unvermeidlichen Latenzen in Cloud-Umgebungen für einige Berechnungsprozesse zu hoch. Infolgedessen muss Cloud-Computing um Edge-Computing erweitert werden. So können einige Berechnungen in der Nähe der Datenquellen erfolgen, um Datenströme zu komprimieren oder schnelle Entscheidungen zu treffen. Ein prominenter Anwendungsfall ist die Car2X-Kommunikation, bei der das Fahrzeug über die Rechenleistung verfügt, aus Sensor- und Umgebungsdaten blitzschnell Entscheidungen abzuleiten. Berechnungen, die nicht zeitkritisch sind oder Daten aus vielen Quellen heranziehen, können in der Cloud durchgeführt werden. Obwohl die Cloud ein immer breiteres Anwendungsspektrum abdeckt, werden bestimmte Berechnungen auch in Zukunft lokal (On-Premise) vorgenommen, insbesondere im B2B-Bereich. Dies gilt vor allem für geschäftskritische, maßgeschneiderte Anwendungen, die aufgrund ihrer Komplexität oder aus Sicherheits- oder Latenzgründen nicht einfach in die Cloud verlagert werden können.

Komplexe Deployments

Die Datenverarbeitung erfolgt oft über eine Mischung aus Edge-, Cloud- und On-Premise-Computing. Daher müssen diese verschiedenen Verarbeitungsumgebungen zwecks Kommunikation und gemeinsamer Datennutzung miteinander verbunden werden. Traditionelle Batch-Ansätze für das Verschieben von Massendaten werden den aktuellen Anforderungen an die Verarbeitungsgeschwindigkeit nicht gerecht. Stattdessen sind schnelle Verbindungen in Quasi-Echtzeit erforderlich. Skalierbare und verteilte Message-Bus-Installationen sind aus derartig komplexen Verarbeitungsumgebungen nicht wegzudenken.

These 7: Verteilte Daten – in Echtzeit vernetzt

Besonders Deployments im IoT-Umfeld sind gekennzeichnet durch eine hochgradig verteilte Verarbeitung mit geringer zentraler Kontrolle und intensivem Datenaustausch. Die traditionelle Vorgehensweise, Daten in zentralisierten Data-Warehouse-Systemen zu replizieren, wird zunehmend durch lokale Analysen mit Data-Streaming-Technologie ergänzt.

Da viele Anwendungsfälle Echtzeitverarbeitung und eine umgehende Reaktion auf Analyseergebnisse erfordern, ist die Latenz eines Data-Warehouse nicht mehr angemessen. Die Integration von Daten aus verteilten Quellen in Quasi-Echtzeit ist ebenfalls eine akzeptable Alternative zur physischen Batch-Replikation. Diese Entwicklungen sind vor dem Hintergrund der neuartigen Datenquellen zu sehen, die moderne IoT-Szenarien charakterisieren.

Das war Teil 5 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

  • These 6: Die Cloud als zentrales Element
  • These 7: Verteilte Daten – in Echtzeit vernetzt

Teil 6:

Teilen:
Digital BPM Tour Review: Am Puls der digitalen Transformation

Digital BPM Tour Review: Am Puls der digitalen Transformation

Die Software AG und die Scheer GmbH luden diesen Sommer wieder gemeinsam zur mittlerweile dritten Digital BPM Tour ein. In fünf deutschen Städten konnten sich Interessenten, Bestands- und Neukunden zu den aktuellen Innovationen rund um ARIS 10, die Software für Digital Business Process Management, informieren und erhielten exklusive Einblicke in die neuesten Projektergebnisse. Durch den angeregten Austausch lernten die Experten der Software AG die aktuellen und tatsächlichen Bedürfnisse und Herausforderungen der Kunden noch besser kennen. Gleichzeitig konnten alle Teilnehmer in fundierten Gesprächen gemeinsam über Lösungen diskutieren, um sie voranzutreiben. 

Frankfurt, Hamburg, Düsseldorf, Stuttgart und München – das waren die Stopps der diesjährigen Digital BPM Tour. Auf der Roadshow hielten Experten der Scheer GmbH sowie der Software AG Vorträge zu Themen wie Process-driven SAP Management, ARIS Cloud by Scheer, Geschäftsprozessoptimierung, GDPR und anderen Innovations- und Trendthemen. Zudem kamen etliche Kunden zu Wort: In Referenzvorträgen erzählten sie von ihren Praxiserfahrungen aus aktuellen ARIS- und BPM-Projekten. Für Veranstalter wie für Besucher boten die Eventtage eine ideale Gelegenheit, Erfahrungen und Neuigkeiten sowie Best Practices auszutauschen.

Die Eventbesucher konnten sich zudem zu ARIS Aware und ARIS 10 informieren. Zu den Highlights der neuen Version zählen: Visuelle, intelligente Analyse von Performance-Kennzahlen (mit dem neuen Produkt ARIS Aware), Planung von IoT-Szenarien, Customer Experience Management, Umsetzung der EU-Datenschutzrichtlinie GDPR und vieles mehr. Somit ist die führende und mehrfach ausgezeichnete Software für Digital Business Process Management für eine Fortsetzung ihres mittlerweile 25-jährigen Siegeszuges gewappnet.

Interview mit Steffen Kramer von Google: Die digitale Zukunft Deutschlands

Interview mit Steffen Kramer von Google: Die digitale Zukunft Deutschlands

Am 12. September findet in Bonn die Innovation Tour 2017 der Software AG statt. Steffen Kramer, Industry Manager B2B bei Google Deutschland, wird dort die Chancen für ein digitales Deutschland beleuchten. Wir sprachen in einem zweiteiligen Vorab-Interview mit ihm darüber, welche Herausforderungen deutsche Unternehmen zu bewältigen haben und wie sie ihren Kunden in einer digitalisierten Welt begegnen müssen.  

Herr Kramer, Sie beschäftigen sich täglich mit der digitalen Zukunft Deutschlands – wie sieht diese aus?

Die deutsche Wirtschaft ist insgesamt auf einem guten Weg. Die Wichtigkeit der Digitalisierung wurde schon vor längerer Zeit erkannt. Allerdings bereitet mir die Geschwindigkeit der Umsetzung Sorgen. Das Rückgrat der deutschen Wirtschaftskraft bilden in erster Linie noch dieselben Branchen wie vor fünfzig Jahren: Automobil, Chemie, Logistik und Maschinenbau. In den Unternehmen dieser Wirtschaftszweige herrschen meist traditionelle Denkmuster sowie starre Strukturen und Prozesse vor – digitale Kompetenzen müssen sie sich erst antrainieren.  Das dauert seine Zeit. Neue digitale Geschäftsmodelle werden eher außerhalb Deutschlands, beispielsweise im Silicon Valley, entwickelt. Daher sehe ich die digitale Zukunft Deutschlands generell positiv, wenn auch mit einer gewissen Ungeduld.

Was sind gemäß Ihrer Erfahrung die größten Herausforderungen für Unternehmen im Zuge der Digitalisierung?

Es ist essenziell, digitales Wissen aufzubauen, digitale Experten einzustellen und eine neue Firmenkultur zu entwickeln. Unternehmen benötigen eine Innovationskultur, die auch Fehler erlaubt und den Mitarbeitern mehr Freiräume gibt. Nur so können sie den digitalen Wandel bewerkstelligen und schnell agieren, anstatt wie bisher häufig nur zu reagieren. Seit den 90er Jahren hat die deutsche Industrie nur noch wenige Innovationen hervorgebracht, sondern konzentriert sich als Exportweltmeister auf seine weltweit geschätzte Qualität vergangener Produktneuheiten. Damit sind wir bekanntlich durchaus erfolgreich, die Frage ist nur: Wie lange können wir davon noch zehren?
Selbstverständlich kann ein über Jahrzehnte gewachsenes Unternehmen nicht über Nacht seine Arbeitsweise auf den Kopf stellen. Vielmehr geht es um ein neues Mindset. Der digitale Wandel muss von der Führungsebene angestoßen und auch vorgelebt werden. Nur so kann die neue Kultur auf allen Ebenen diffundieren und nachhaltig in der Organisation verankert werden.

Was machen deutsche Unternehmen gut, wo sehen Sie Defizite – auch im internationalen Vergleich?

In einer aktuellen Studie von Boyden und der EBS, „Leadership in der digitalen Welt – wo stehen die deutschen Unternehmen?“, sagen 81 Prozent der befragten Manager, dass sie nur bedingt auf die Herausforderungen der Digitalisierung vorbereitet sind. Das stimmt umso bedenklicher, da in derselben Studie 68 Prozent der Befragten eine globale, digitale Strategie als entscheidend für den Unternehmenserfolg betrachten. Im internationalen Vergleich gesehen, hapert es generell an einer Innovationskultur. Deutsche Unternehmen sind eher risikoavers und konzentrieren sich darauf, Fehler zu vermeiden. Diese Einstellung bremst digitale Projekte, die von Agilität und Flexibilität leben, oftmals aus.
Auch beim Netzausbau gibt es Nachholbedarf: Der aktuellen Ausgabe des State of the Internet Reports zufolge liegt Deutschland im Ranking der Länder mit dem schnellsten Internetzugang derzeit auf Platz 25. Und schließlich fehlt es auch an Venture Capital für Start-ups: Im direkten Vergleich zu den USA beträgt die Wirtschaftsleistung lediglich das 4,5-Fache der deutschen, besitzt aber das 69-Fache an VC-Investitionsvolumen, wie aktuelle Untersuchungen zeigen.
Eine positive Entwicklung lässt sich im Bereich Industrie 4.0 beobachten: Den Unternehmen der Produktionsbranche scheint klar, dass die Digitalisierung ihnen die einzigartige Chance bietet, die vielgerühmte deutsche Qualität mit digitalem Ideenreichtum weiter nach vorn zu bringen. Auch beim Internet of Things und Smart Home sehen wir in jüngsten Jahren viele Innovationen auf dem deutschen Markt. Darauf lässt sich sicherlich aufbauen und erfolgreich umgesetzte Geschäftsmodelle haben immer auch Abstrahleffekte auf den Markt und die anderen Teilnehmer.

Und wie sieht es mit den Kunden aus?

Der B2B-Kunde verbringt im Vorfeld der Kaufentscheidung immer mehr Zeit damit, sich umfassend zu informieren. Dabei nutzt er vorwiegend digitale Kanäle wie Suchmaschinen und Unternehmenswebseiten, um dann bei der Kontaktaufnahme mit einem Lieferanten schon mit allen Informationen vertraut zu sein. Dies bestätigt eine Studie von Roland Berger und Google. Entlang der Customer Journey, die natürlich auch weiterhin klassische Offline-Touchpoints wie Printwerbung und Messeauftritte umfasst, nutzen B2B-Entscheider verstärkt unterschiedliche Geräte wie Laptops, Smartphones und Tablets, um online zu recherchieren. B2B-Marketingexperten bieten sich demzufolge viele neue, parallele Touchpoints in der digitalen Welt, die sie präzise aufeinander abstimmen sollten. Vereinfacht gesagt: Die Customer Journey wird digitaler und enthält mehr Touchpoints als früher, wird also unterm Strich komplexer.

Im zweiten Teil des Interviews erklärt Steffen Kramer demnächst, was Unternehmen tun müssen, um den neuen „Smarter Customer“ zu erreichen.

Treffen Sie Steffen Kramer auf der Innovation Tour 2017 der Software AG und diskutieren Sie mit! Alle Informationen finden Sie auf der Eventseite der Innovation Tour.

Teilen: