Die Digitalisierung erfordert Agilität und Geschwindigkeit

Die Digitalisierung erfordert Agilität und Geschwindigkeit

Auf was würden Sie lieber setzen: einen Tanker, der sich nur schwerfällig bewegt, oder ein Schnellboot, das wendig durchs Wasser flitzt und bei Bedarf auch mal einen schnellen Haken schlägt? In der Software-Entwicklung entspricht Standardsoftware dem Tanker.

Viele Unternehmen setzen für ihre großen Anwendungen wie Logistik, Warenwirtschaftssystem und Data Warehouse etablierte Produkte von der Stange ein. Doch da jedes Unternehmen individuelle Prozess-Strukturen hat, müssen die Standards zunächst angepasst werden. Das ist oft aufwändiger und teurer als anfangs gedacht. Zudem erfolgen Änderungen in Release-Zyklen, die zwischen sechs und achtzehn Monaten dauern können. Schnell mal etwas optimieren oder korrigieren? Fehlanzeige! Doch wer kann sich solche Verzögerungen noch leisten, wenn er eigentlich schon vorgestern mit seinem neuen Produkt auf dem Markt sein wollte?

Eine prozessorientierte Software-Entwicklung ist gefragt

Statt dreistellige Millionenbeträge zu investieren, um Standardsoftware aufwändig an die Unternehmens-Prozesse anzupassen, ist es oft rentabler, gleich eigene Software zu entwickeln, die auf den individuellen Workflows aufsetzt. Wer in Prozessen denkt statt in Release-Zyklen, kommt schneller und besser ans Ziel. Dafür ist es zunächst erforderlich, sich über die eigenen Business-Prozesse klar zu werden und sie zu modellieren, um sie anschließend in die einzelnen Schritte zu gliedern und passgenau in der Software umzusetzen. Auch die Anwender profitieren später davon, weil sie auf ihrem Bildschirm genau die Arbeitsschritte sehen, die sie brauchen – und das in genau der Reihenfolge, wie sie sie brauchen. Sie müssen sich nicht in einer komplizierten Standard-Eingabemaske zurechtfinden und keine Schulung absolvieren, um klarzukommen.

Eine digitale Business-Plattform unterstützt die digitale Transformation

Mit einer digitalen Business-Plattform ist es möglich, Prozesse zu planen und nahtlos in der Entwicklung umzusetzen, ohne dass dabei Medienbrüche entstehen. Dank modularem Aufbau können Entwickler Software-Bausteine wiederverwenden, sodass sich der Aufwand deutlich reduziert. Wenn man bedenkt, dass 75 bis 85 Prozent der Funktionen von Anwendungen Software-seitig identisch sind, ist das eine erhebliche Ersparnis. So lässt sich ein neuer Prozess oft schon innerhalb von wenigen Wochen statt Monaten implementieren. Unternehmen können zudem jederzeit Änderungen vornehmen, auch wenn ein Prozess bereits läuft.

Wer nicht auf Grund laufen will, muss umdenken!

Business-Prozesse sind etwas Dynamisches und erfordern in der Software-Umsetzung eine Herangehensweise, die schnelle und flexible Veränderungen ermöglicht. Standardsoftware bewegt sich dagegen nur behäbig. Am Ende muss jeder selbst für sich entscheiden, ob er lieber auf einen Tanker oder auf ein Schnellboot setzt.

Erfahren Sie hier mehr über die Digital Business Platform der Software AG.

Teilen:
Data Lakes: Stille Wasser sind tief

Data Lakes: Stille Wasser sind tief

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Jens Dittrich befasst sich am Lehrstuhl Information Systems Group der Universität des Saarlandes mit den Themen Datenbanken, Data Management und Big Data.

Traditionell werden Geschäftsdaten in hochstrukturierten relationalen Datenbanken und speziellen Analysesystemen wie Data Warehouses gespeichert. Mit dem Aufkommen von Big Data wird es jedoch immer schwieriger, all diese Daten über Datenbanken oder No-SQL-Systeme zu verwalten und zu analysieren.

„Data Lakes“ erfassen deshalb alle Daten eines Unternehmens in einem zentralen Speicher als Rohdaten, ohne sie vorher zu schematisieren oder anderen Datenbereinigungs- oder Datenimport-Operationen zu unterziehen. Solche Operationen werden erst in einem zweiten Schritt vorgenommen. So bleibt die Flexibilität für Datenabgleich und -analyse gewahrt.

In der Regel sind Data Lakes technisch als verteilte Dateisysteme (wie HDFS) implementiert und umfassen alle Daten eines Unternehmens. Für alle weiteren Analysen wie strukturierte Abfragen, Data-Mining, traditionelles Maschinenlernen oder Deep Learning findet eine Strukturierung nach Bedarf statt. Beispielsweise werden mithilfe entsprechender Workflows und Tools die Rohdaten im Data Lake schrittweise interaktiv gefiltert, bereinigt und angereichert, um klare und eindeutige Informationen zu erhalten. Im Gegensatz zu relationalen Datenbanksystemen – denen die Daten fest zugeordnet sind – werden die Daten in einem Data Lake nicht notwendigerweise einem bestimmten Tool oder System zugeordnet.

Der Grundgedanke des Data Lakes ist vergleichbar mit dem Konzept eines „Dataspaces”, in den im Lauf der Zeit Daten aus unterschiedlichen Quellen integriert werden. Data Lakes passen sehr gut zu den explorativen Workflows von Datenwissenschaftlern, die Daten eher selten in relationalen Datenbanksystemen verwalten.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen: