Die Logistikbranche hat sich mit Covid-19 stark verändert. Erfahren Sie, wie DHL Express die Zukunft der Logistik umsetzt – mit Hilfe der Software AG.
Es gibt ein Unternehmen, das sich nicht nur mit Lieferkettenproblemen befasst, sondern auch dafür sorgt, dass sie in Zukunft nicht mehr auftreten. Dieses Unternehmen ist DHL Express.
Die Logistikbranche hat mit Covid-19 einen enormen Wandel durchgemacht, und diese Herausforderungen setzen sich in der gesamten Lieferkette fort – mit Verspätungen und Störungen bei Lieferungen auf der ganzen Welt. Die Nachfrage nach Waren und Dienstleistungen nach Covid überstieg die Möglichkeiten von Transport und Logistik.
Doch DHL Express war mit seinen internationalen Versanddiensten und der eigenen Luftflotte besser vorbereitet als viele andere – das Unternehmen konnte flexibel bei Notfällen und wichtigen Lieferungen reagieren.
In einem Gespräch zwischen unserem CEO Sanjay Brahmawar und Dirk Olufs, Global Chief Information Officer DHL Express, ging es darum, warum die Lieferketten insgesamt so anfällig bleiben.
Olufs sagte: “Als die Pandemie Anfang 2020 begann, war niemand zu 100 % auf ein solches globales Ereignis vorbereitet. Die Grenzen waren geschlossen, Häfen waren geschlossen. Lagerhäuser, Geschäfte und Vorschriften hatten alle Probleme damit, auf die Geschwindigkeit der Veränderungen zu reagieren”.
Er sagte, die Pandemie habe sich auch anders auf die Lieferketten ausgewirkt – zum Teil dauerhaft. Während Covid kehrte sich der Urbanisierungstrend radikal um und immer mehr Menschen zogen in die Vorstädte und sogar aufs Land. Dies führte zu völlig neuen Logistikproblemen.
“Dies hat enorme Auswirkungen auf die Nutzung von Arbeits- und Lebensraum und das ist eine Herausforderung für Logistikunternehmen. In gewisser Weise war Homeoffice ein Segen für die Lieferfirmen, weil die Kunden zu Hause waren, um ihre Lieferungen anzunehmen”, sagte Olufs.
Aber egal, ob Sie zu Hause oder bei der Arbeit sind, wichtig ist, dass Sie Ihr Paket erhalten. Für DHL Express bedeutet das, die letzte Meile zu managen, um die Kunden bestmöglich zu erreichen”, so Olufs.
Nachhaltigkeit ist heutzutage ein heißes Thema für Unternehmen – Investoren und Aktionäre nehmen die Anstrengungen von Unternehmen sehr genau unter die Lupe. Die Logistikbranche ist eine der kohlenstoffintensivsten Branchen überhaupt. Emissionen (Lkw, Schiffe, Motorräder usw. für Lieferungen) und Verpackungen (Plastik, Papier) stellen eine große Herausforderung dar. Was können Logistikunternehmen also tun, um ihren ökologischen Fußabdruck zu verringern?
Olufs sagte: “Wir nehmen Nachhaltigkeitsmaßnahmen sehr ernst und haben uns selbst eine Frist bis 2050 gesetzt, um Netto-Null-Emissionen zu erreichen. Bis dahin ist es ein langer Weg und wir werden bis 2030 sieben Milliarden Euro investieren, um neue Lösungen im Sinne unserer Kunden zu finden.”
Ein hervorragendes Beispiel dafür sind vollelektrische Frachtflugzeuge. DHL Express hat 12 Alice eCargo-Flugzeuge mit einer Kapazität von 1,2 Tonnen und einer Reichweite von 815 km bestellt, die von einem einzigen Piloten geflogen werden können. Die Flugzeuge sollen 2024 in die DHL Express-Flotte aufgenommen werden.
DHL erforscht auch andere Maßnahmen, wie z. B. die Verwendung von nachhaltigem Flugbenzin und die Reduzierung von Gewicht und Volumen von Verpackungen.
Automatisierung und KI
Es liegt auf der Hand, dass alle Bemühungen von DHL die bestmöglichen Technologielösungen erfordern. Olufs sagte, dass Datentools und Software eine große Hilfe bei der Suche nach den besten Lösungen sind.
“Selbst die besten Sendungs- und Zustellangebote hängen von der Automatisierung von Daten ab. KI und maschinelles Lernen spielen dabei eine große Rolle. Wir wollen so effizient wie möglich sein und gleichzeitig die besten Optionen für unsere Kunden anbieten”, so Olufs.
Die Software AG und DHL verbindet eine langjährige Partnerschaft. Ich bin stolz darauf, dass unsere Software, unsere Tools und unsere Teams einen großen Teil des Geschäfts von DHL Express unterstützen, um die großartige Arbeit, die das Unternehmen weltweit leistet, zu ermöglichen.
Sie können sich jetzt das gesamte Interview mit Dirk Olufs ansehen und mehr darüber erfahren, wie dieser führende Logistikdienstleister die Zukunft meistert:
Die Digitalisierung bietet zahlreiche Chancen für Versicherungen: Interne Prozesse werden effizienter, der Vertrieb hat durch digitale Kanäle eine grössere Reichweite, die Kundenschnittstelle wird attraktiver, und die Kundenbindung wird verbessert.
Open Insurance – das Bereitstellen von Daten und Funktionalität an Dritte – spielt eine wichtige Rolle als Enabler der Digitalisierung. Open Insurance ist dabei kein einzelnes Projekt, das einzelne der zuvor genannten Chancen realisiert. Es ist vielmehr eine Infrastruktur – ein Enabler – der hilft all die oben genannten Chancen und Use Cases effizient und nachhaltig umzusetzen.
Open Insurance ist das Bereitstellen von Daten und Funktionalität an Dritte. Keineswegs steht dahinter das wahllose Öffnen aller Datenbanken der Versicherungen. Datenschutz und Sicherheit spielen hier eine grosse Rolle. Es ist vielmehr ein gezieltes Öffnen zur Zusammenarbeit mit akkreditierten Dritten mit expliziter Einwilligung der Versicherungsnehmer zum Datenaustausch. Dritte sind dabei weder Versicherung noch deren Endkunde, sondern Partner und Ökosystem Teilnehmer. Die Versicherung kann die Partner und Ökosystem Teilnehmer prüfen, und auswählen mit wem sie zusammenarbeiten möchte.
API Technologie
Technisch basiert Open Insurance auf API Technologie. APIs sind dabei digitale Bausteine, die Versicherungsdaten oder Versicherungsprozesse kapseln. Als digitale Bausteine könne diese APIs einfach in eigene Digitallösungen eingebaut werden, doch wenn gewünscht und strategisch sinnvoll, lassen sie sich ebenso leicht in die Digitallösungen von Dritten einbauen. Und da sie Bausteine sind, lassen sie sich einfach zu neuen Lösungen zusammenfügen. Somit lassen sich neue Produkte und Projekte schnell, agil, und kostengünstig umsetzen.
Digitale Ökosysteme für Versicherungen
Durch den Einbau von Versicherungs-APIs in Digitallösungen von Dritten entstehen digitale Ökosysteme rund um Versicherungsprodukte. In solchen Ökosystemen kann beispielsweise die passende Versicherung zum richtigen Zeitpunkt dem Endkunden angeboten werden und kundenfreundlich, einfach, und ohne Angabe zusätzlicher Daten abgeschlossen werden. Dieser Use Case ist auch als Embedded Insurance bekannt, und wird beim Abschluss von Reisen, Fahrzeugmieten, Fahrzeugkäufen oder Immobilientransaktionen eingesetzt, um die passende Versicherung anzubieten. Das Ökosystem ist dabei essentiell, denn der Versicherer selbst kennt den Zeitpunkt des Kaufs nicht und ist auf den Trigger von Ökosystem Partnern (Reiseanbieter, Fahrzeugvermieter etc.) angewiesen.
Standardisierung von Open Insurance APIs
Für Use Cases wie Embedded Insurance ist der Aufbau von digitalen Ökosystemen eine Voraussetzung, und diese wiederum entstehen rund um viel-benutzte APIs. Doch wie entstehen viel-benutzte APIs?
Entweder durch Marktmacht (wie etwa die APIs von Ping An in China) oder durch Standardisierung von APIs. Die Standardisierung von APIs kann entweder durch einen Regulator geschehen oder durch die Marktteilnehmer selbst.
Für Open Insurance gibt es bereits einige Ansätze in Richtung Standardisierung, wie etwa die marktgetriebenen Ansätze von Free Insurance Data (FRIDA) und Open Insurance.io
Der BIPRO Verein arbeitet ebenfalls mit seiner RNext Initiative an einer Standardisierung von APIs für Versicherungsprozesse.
Zudem gibt es Marktbefragungen von der EIOPA – European Insurance and Occupational Pensions Authority, welche auf eine potentielle Regulierung – ähnlich Open Banking – hinauslaufen könnten.
Pragmatische Ansätze
Vorreiter in der Versicherungsbranche nutzen schon heute pragmatische Ansätze von Open Insurance, etwa durch das Auslagern von Teil-Prozessen oder zur Unterstützung des Vertriebs.
So können – dank Open Insurance Ansätzen – KFZ Versicherungen die Schadensregulierung und die Interaktion mit Werkstätten verbessern. Das ermöglicht Effizienzsteigerungen und ein besseres Kundenerlebnis. Oliver Urlauber berichtet im Video Interview von einer Umsetzung dieses Cases. Unbedingt reinhören.
Embedded Insurance ist ebenfalls ein pragmatischer Ansatz zur Unterstützung des Vertriebs. Ökosystem Partner (Reiseanbieter, Fahrzeugvermieter etc.) kennen dabei sowohl den optimalen Zeitpunkt als auch den Bedarf ihrer Kunden für Versicherungsprodukte. Durch Open Insurance APIs geben sie diese Informationen an Versicherer weiter, und ermöglichen Endkunden einen direkten und unkomplizierten Abschluss der Versicherung ohne Medienbrüche. Auch hierauf geht Oliver im Video Interview ein – ich empfehle ins Video reinzuschauen.
Deep Dive – Interview zum Thema Open Insurance
Vor kurzem habe ich mit Oliver Urlauber, Director CCS, zum Thema Open Insurance und Embedded Insurance gesprochen. Oliver hat bereits viele Open Insurance Initiativen erfolgreich umgesetzt und somit einen reichen Erfahrungsschatz zur pragmatischen Umsetzung von Open Insurance. Ich empfehle unbedingt reinzuschauen!
Luftverschmutzung gehört nach wie vor zu den weltweit größten Gefahren für die Gesundheit. Zudem bedrohen Luftschadstoffe die Ökosysteme. Lokale Entscheidungsträger in der Verkehrs-, Stadt- und Umweltplanung brauchen Unterstützung, um die Wechselwirkungen zwischen Luftschadstoffen und äußeren Einflüssen zu verfolgen. Darum geht es in dem Forschungsprojekt SAUBER. Dort wird eine Informationsplattform mit KI-basierten Ansätzen gebaut, die auch Prognosen und Simulationen der zukünftigen Luftverschmutzung erlauben. Nun ist der erste Demonstrator entstanden. Die Software AG hat mit ARIS Dashboarding-Funktionen das User Interface dazu gebaut.
Der Name ist Programm. Denn bei SAUBER (Satellitenbasiertes System zur Anzeige, Prognose und Simulation von Luftschadstoffen für eine nachhaltige Stadt- und Regionalentwicklung) geht es um saubere Luft. Das Herzstück von SAUBER bildet eine Geodateninfrastruktur, auf der alle relevanten Daten gespeichert werden und die zur Anzeige, Prognose und Simulation von Luftschadstoffen genutzt wird. Dazu werden Satellitendaten von Sentinel-3 und Sentinel-5P des Raumfahrtprogramms Copernicus analysiert, die in einer bisher unerreichten Qualität und Auflösung Stickstoffdioxid, Feinstaub, Ozon und Kohlenmonoxid aus dem Orbit erfassen können. Mit den Satellitendaten geht SAUBER in der Flächenabdeckung deutlich über die punktuellen Erhebungen der stationären Messstationen in den Pilotregionen Stuttgart und Nordrhein-Westfalen (NRW) hinaus. Als weitere Datenquellen dienen u.a. aktuelle und historische Verkehrs- und Wetterdaten sowie Ergebnisse der lokalen Luftmessstationen und Informationen zur Topografie und Bebauung. Dabei gilt: Je größer und vielfältiger die ergänzenden Daten sind, desto bessere Ergebnisse können erzielt werden.
Mit KI den Schadstoffen auf der Spur
Was passiert nun mit den vielen Daten? Sie werden miteinander verknüpft und mit Hilfe von analytischen Verfahren ausgewertet, sodass sich ein flächendeckendes, zugleich aber möglichst genaues Bild der aktuellen Luftqualität ergibt. Dieses Bild geht in der räumlichen Abdeckung über die punktuellen Messungen der Luftqualität hinaus und übertrifft dabei im Detailgrad die Auflösung der Satellitendaten deutlich. Mit Hilfe von KI-Methoden werden Zusammenhänge bzw. Abhängigkeiten aufgespürt und in entsprechende Prognosen und Simulationen für die Stadt- bzw. Regionalentwicklung überführt. Daher arbeitet das SAUBER-Projektteam eng mit den Anwendungspartnern, dem Umweltamt Stuttgart und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW, zusammen.
Demonstrator zeigt Visualisierungspotentiale
Die Software AG spielt in dem Forschungsprojekt eine entscheidende Rolle. Sie ist nicht nur Konsortialführerin, sondern verantwortet auch die Konzeption und Entwicklung der SAUBER-Plattform. Zum Einsatz kommen unsere Messaging Technology und ARIS Dashboarding-Funktionen für das Interface des Demonstrators.
Auf der SAUBER-Plattform werden nun alle Daten eingespielt, miteinander verschnitten, ausgewertet und schließlich in die SAUBER-Dienste überführt. Und genau diese Dienste zeigt uns der Demonstrator, der die Möglichkeiten des Systems visualisieren soll:
Der „Stations-Viewer“ bildet Schadstoffbelastung, Wetter und Verkehrsaufkommen in Form einer Karte ab.
Hier sieht man die NO2-Werte an der Stuttgarter Messstation „Am Neckartor“
Der Dienst „Prognose“ ermöglicht Vorhersagen bzgl. der Luft- und Klimadaten für die nächsten zwei Tage. Die Prognosen errechnen sich aus aktuellen Messdaten und sehr vielen zusätzlichen Daten aus der Historie. Mit diesem Daten-Mix werden neuronale Netze trainiert. Sie lernen, welche Zusammenhänge es in den vergangenen ein bis zwei Jahren gab. Verknüpft mit aktuellen Messdaten, wie Wetter-, Verkehrs-, Struktur- und vielen anderen Daten, berechnet das System, wie sich die Luftbeschaffenheit weiterentwickelt. Übrigens ist die Prognose für zwei Tage schon sehr genau. Das weiß man, weil man Echtzeitdaten und Prognosedaten aus der Vergangenheit miteinander verglichen hat.
An der Messstation in Aachen Burscheid werden relativ geringe PM10-Werte in Form der hellblauen Linie (am Ende des Diagramms) prognostiziert.
Mit dem Dienst „Simulation“ soll die langfristige Wirkung verschiedener Bebauungsszenarien auf die Umwelt einer Region ermittelt werden. An diesem Dienst arbeitet das Projektteam noch intensiv. Er soll bis zum Ende des Projekts, am 31. Dezember 2021, realisiert sein.
Konkret trifft der Anwender auf dem Dashboard des Demonstrators auf drei Kacheln. Sie führen zum Datenangebot mit der Übersicht über alle Daten-Visualisierungen und Demonstratoranwendungen, zum Stations Viewer mit Karten und Details zu den Messstationen und zu den bisher noch nicht implementierten Tutorials zur Nutzung der SAUBER-Daten.
Der Demonstrator umfasst mehrere Use Cases.. In den Pilotregionen NRW und Stuttgart werden die Messstationen für die Schadstoffe NO, NO2, O3 und PM10 (für NRW) und NO2 (für Stuttgart) visualisiert. Wir sehen dort Zeitreihen mit Werten im Stundentakt. Sowohl die Schadstoffausstoßung der Vergangenheit als auch Prognosen für die nächsten beiden Tage sind dargestellt. Ähnlich ist es bei den Use Cases zur flächenhaften Visualisierung auf sogenannten Heatmaps. Eine Heatmap ist eine Technik zur Datenvisualisierung, bei der das Ausmaß eines Phänomens in zwei Dimensionen farblich dargestellt wird.
Ein Rechteck wird über die Karte gelegt. Es zeigt mit den Farbnuancen den Grad der Luftverschmutzung über einem bestimmten Landstrich in NRW.
Grünfläche statt Hochhaus
Die Daten der SAUBER-Plattform kann man über standardisierte Schnittstellen abrufen und in eigenen Programmen weiterverarbeiten. Das kommt den Mitarbeitern in kommunalen Behörden zugute, die selbst mit sehr umfangreichen IT-Programmen arbeiten. Übrigens ist nicht geplant, dass die breite Öffentlichkeit Zugriff haben wird. Der Erklärungsbedarf wäre für den Laien bei zu geringem Informationsgewinn zu hoch.
Noch drei Monate arbeitet das Konsortium an der Plattform. Neben der Weiterentwicklung des User Interface Designs gehört der Simulations-Dienst zu den umfangreichsten Hausaufgaben. Simulation könnte spannend werden. Denn stellen wir uns vor, dort, wo die Luftverschmutzung besonders hoch ist, würde man die Einrichtung von Grünflächen durch veränderte Strukturdaten in den neuronalen Netzen simulieren. Welchen Einfluss hätte das wohl auf die Schadstoffkonzentration? SAUBER verspricht uns Antworten.
Luftschadstoffe
Ozon (O3)
Ozon ist ein starkes und giftiges Oxidationsmittel, das bei Menschen und Tieren zu Reizungen der Atemwege und der Augen sowie Begünstigung von Atemwegserkrankungen führen kann. In der Troposphäre ist Ozon der drittwirksamste Treiber der globalen Erwärmung (nach Kohlendioxid und Methan). Die Ozonschicht in der Stratosphäre schützt die Lebewesen auf der Erde vor Schädigungen durch energiereiche mutagene ultraviolette Strahlung der Sonne.
Feinstaub (PM2.5)
Diese mikroskopischen Partikel mit einer Größe von bis zu 2,5 Mikrometer schweben in der Luft. Zu dieser Kategorie gehören Rauch, Bakterien und Allergene. Feinstaub PM10 Diese größeren mikroskopischen Partikel mit einer Größe von bis zu 10 Mikrometer schweben in der Luft. Zu dieser Kategorie zählen Staub, Schimmel und Pollen.
Stickstoffoxide (NO und NO2)
Sie entstehen als Produkte unerwünschter Nebenreaktionen bei Verbrennungsprozessen. Die Hauptquellen von Stickstoffoxiden sind Verbrennungsmotoren und Feuerungsanlagen für Kohle, Öl, Gas, Holz und Abfälle. In Ballungsgebieten ist der Straßenverkehr die bedeutendste NOx-Quelle.
Partner von SAUBER
• geomer Gmbh
• meggsimum
• Deutsches Zentrum für Luft- und Raumfahrt
• Fraunhofer Heinrich-Hertz-Institut
• Institut für Informationssysteme der Hochschule für Angewandte Wissenschaften Hof
• Leibniz-Institut für ökologische Raumentwicklung
• Software AG
Assoziierte Partner
• Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen
• Amt für Umweltschutz der Landeshauptstadt Stuttgart
Ein LKW fährt von A nach B und kommt leer zurück. Ökonomisch und ökologisch nicht sinnvoll, versteht sich. Um das zu verhindern, ist eine akribische Planung nötig. Und die ist ohne ein intelligentes IT-System nicht zu machen.
Dies und mehr sind die Aufgaben des europäischen Forschungsprojekts LOGISTAR. Derzeit laufen im Projekt Testwochen, in denen in drei Anwendungsfällen Dienste unter realen Bedingungen getestet werden. Der Demonstrator basiert auf der Arbeit der Software AG mit ihren Anwendungen von Cumulocity IoT und webMethods sowie Universal Messaging. Das Projekt LOGISTAR zielt darauf ab, eine effektive Planung von Transportvorgängen in der Lieferkette zu ermöglichen.
Ziel ist es, die verfügbaren Daten zu nutzen, um sie zu verarbeiten und Dienste bereitzustellen, die durch intelligente Algorithmen wie das Erlernen von Vorhersagen oder die Optimierung von Präferenzen implementiert werden. Drei Living Labs bilden die Anwendungsfälle. Der erste ist die Optimierung der Abläufe im Lager durch die präzise Vorhersage der Ankunftszeit, die Erkennung von Zwischenfällen und die effiziente Re-Optimierung. Dadurch wird die Ressourcennutzung im Lager verbessert und die Wartezeit für Abläufe verkürzt.
Die zweite Dienstleistung besteht in der Verbesserung des Routings der Ladungen in verschiedenen Transportmitteln, wie LKW, Zug und Schiff. Auf diese Weise werden die Kosten für logistische Prozesse gesenkt und die Nutzung der Infrastruktur optimiert. Der dritte Dienst schließlich konzentriert sich auf die horizontale kollaborative Planung von Ressourcen, um Kosten zu teilen und Emissionen zu reduzieren. Auf diese Weise wird die Anzahl der Leerkilometer von Lastwagen reduziert.
Die LOGISTAR-Anwendungen werden in allen Living Labs gründlich getestet. Die Partner befinden sich derzeit in den Testwochen. In der ersten Woche ging es um Living Lab 1.
Lkw nicht leer zurückschicken
Wie läuft so eine Testwoche ab? Der Partner Ahlers aus Belgien hat den Test bis ins letzte Detail geplant und wird die Testwochen auch mit Dokumentation und Auswertung begleiten. Jeden Morgen um 9 Uhr treffen sich alle Partner, um den Ablauf des Tages zu koordinieren, und jeden Nachmittag um 16 Uhr werden die Ergebnisse besprochen. Im Mittelpunkt der Tests stehen die Anwendungspartner Nestlé und Pladis, die täglich Tausende von LKWs fahren müssen. Beide haben ein besonderes Interesse an der Fortsetzung früherer Forschungsaktivitäten, nachdem sie seit 2007 die zurückgelegte Strecke der leeren Fahrzeuge um 270.000 Kilometer pro Jahr reduziert haben. Derzeit fehlt es an einer globalen Sicht auf die Abläufe, was dazu führen kann, dass Gelegenheiten der Zusammenarbeit verpasst werden. In diesem Testfall soll gezeigt werden, wie die Informationen, die das in LOGISTAR entwickelte Entscheidungsfindungs-Tool liefert, das Backhauling-Management verbessern können, d. h. die Praxis, die Lastwagen nicht leer zurückzuschicken, sondern sie einen Teil der Ladung zur ursprünglichen Quelle zurückbringen zu lassen.
Das Team der Software AG hat die Basis für den Demonstrator entwickelt. Er ist teilweise in einer webMethods-Anwendung implementiert, die für die grundlegende Kommunikation im gesamten System sorgt. Die Software AG ist auch mit Universal Messaging und Apama beteiligt. Universal Messaging wird eingesetzt, um die Basiskommunikation im gesamten System sicherzustellen. Das bedeutet, dass alle Komponenten – sichtbare und unsichtbare – über Universal Messaging miteinander kommunizieren. Das macht sie aber nicht voneinander abhängig, sondern entkoppelt sie.
Projektmanager Christian Gengenbach von der Software AG erklärt das System so:
“Das ist im Projekt sehr hilfreich, weil sieben technische Partner unabhängig voneinander komplexe Komponenten entwickeln, die in den letzten Wochen so langsam zusammengefügt wurden. Universal Messaging sorgt dafür, dass das ganze System nicht automatisch zusammenbricht, wenn eine Verbindung nicht funktioniert.”
Apama, eine der IoT Analytics-Komponenten der Software AG, kümmert sich um die Ereignisverarbeitung. Verkehrsstaus oder Wetterprobleme müssen an die entsprechenden Komponenten weitergeleitet werden.
Planung und Überwachung gemeinsamer Fahrten
Der Demonstrator konzentriert sich auf zwei Webanwendungen: Planer und Echtzeitüberwachung. Der Planer-Bildschirm unterstützt die Anwender bei der optimalen Nutzung ihrer Logistikressourcen. Das LOGISTAR Living Lab 1 für Co-Loading und Backhauling bietet optimierte Fahrten für kollaborative Transporte an und unterstützt den Prozess der Entscheidung, ob der Vorschlag von den beteiligten Akteuren angenommen oder abgelehnt werden soll. LOGISTAR kalkuliert die Vorschläge im Hintergrund und ermöglicht die parallele Nutzung des Tools für die Beteiligten mit sofortiger Wirkung im System.
Was bedeutet das konkret? Der erste Schritt ist die Auswahl des Tages, an dem die Fahrten geplant werden sollen: Die Liste der passenden Fahrten wird automatisch aktualisiert. Statussymbole zeigen den Fortschritt der Entscheidung an: Ausstehend, Angenommen, Abgelehnt. Am Ende können die Fahrten, die von allen akzeptiert werden, stattfinden.
Mit dem Modul Real-Time Monitoring arbeitet ein Disponent, wenn der Lkw bereits auf der Straße ist. Die Komponente unterstützt die Disponenten bei der Überwachung der Fahrten, der Anpassung der Disposition und des Plans, wenn es zu Störfällen kommt. Die Informationen werden auf einer Karte dargestellt, um den Partnern einen detaillierten Überblick über die Positionierung der Gebäude, die Auftragsrouten und andere nützliche Informationen für die Fahrzeugüberwachung zu geben.
Die Sichtweise der Logistikexperten verstehen
Die Anwendungspartner Nestlé und Pladis waren die Haupttester. Aber auch die technischen Partner hatten nun die Möglichkeit, das gesamte System als Anwender kennen zu lernen. Schließlich hatten sie ja nur einzelne Module entwickelt.
Alle Tester achteten besonders auf die Zugänglichkeit, die Leistungsfähigkeit und die Datenkonsistenz. Zu Beginn der Testwoche lag der Schwerpunkt auf den Zugangsfragen: Funktioniert die Anmeldung? Können die Benutzer von verschiedenen Geräten aus auf das System zugreifen? Dann ging es um die Grundlagen: Wie geht das System damit um, wenn der Benutzer eine Reise annimmt oder ablehnt?
Das Fazit, das die Partner nach einer Woche Testphase zogen, ist durchweg positiv: Die Entwickler der Anwendung haben die Sichtweise der Logistikexperten kennengelernt. Deren Tagesablauf ist ganz anders, als es ein Laie erwarten würde. Das hat den technischen Partnern geholfen.
Auch unter der Woche konnten Anmerkungen direkt umgesetzt werden. Einige Änderungen werden aber auch langfristig umgesetzt werden müssen.
In der Zwischenzeit gehen die Testwochen weiter. Der Aufwand dürfte sich lohnen. Immerhin hat sich das Projekt ehrgeizige Ziele gesetzt (siehe Infokasten rechts).
Die 5 wichtigsten Vorteile von LOGISTAR
Optimierungstechniken erhöhen den Auslastungsfaktor der Frachtfahrzeuge um 10%
Lieferwege werden um 10 % durch Synchromodalität (intelligente Nutzung verschiedener Verkehrsträger wie Schiene, Binnenschifffahrt oder Straße auf einer Route) verkürzt.
Zuverlässigkeit und Effizienz der Dienste werden erhöht: Vorhersage von Ereignissen und Zwischenfällen.
Das Management von logistischen Abläufen wird vereinfacht: Bereitstellung von Dashboards und Anzeige von Warnungen oder Empfehlungen.
Die Sichtbarkeit der Lieferung durch den Einsatz von Sensoren zur Überwachung der beförderten Güter und Förderung des Datenaustauschs wird verbessert.
Partner des Projekts
Agencia Estatal Consejo Superior de Investigaciones Científicas, M.P.
Ahlers Belgium NV
Chep Espana SA
Codognotto Italia SPA.
Consorzio Zailog, Interporto of Verona
DBH Logistics IT AG
Drustvo za Konsalting, Razvoj i Implementaciju Informacionih i Komunikacionih Tehnologija Dunavnet DOO
Genegis GI SRL
MDS Transmodal LTD.
Nestle UK LTD.
Pladis MDC Global (former United Biscuits)
Preston Solutions LTD.
Semantic Web Company GMBH
Universidad de la Iglesia de Deusto Entidad Religiosa
Sie wollten die Cloud bisher weitgehend vermeiden? Jetzt müssen Sie sich damit befassen, weil eine Anwendung, die Sie seit Jahren verwenden, zukünftig nur noch als Subscription & Cloud Service angeboten wird? Aktuell recherchieren Sie, was das für Sie bedeutet? Dann ist dieser Blog Posts genau richtig für Sie.
Alles klar, alles Cloud?
Mehr als 80% der Nutzer (Stand: 2021) verwenden oder planen die Verwendung von Office- und Collaboration-Anwendungen (etwa Office 365) aus der Cloud. Zwischen 70% und 80% sind es bei ERP- und CRM-Anwendungen. Viele Software-Unternehmen haben mittlerweile eine Cloud-First, manche sogar eine Cloud-Only Strategie (Details & Statistiken siehe KPMG Cloud Monitor 2021).
Mich persönlich nervt, dass mir statt der Office Lizenz, mit der ich 3 Jahrzehnte gut gefahren bin, neuerdings eine Office Subscription aufgezwungen wird. Da ich allerdings als Studentin in der System-Administration und später in einem DevOps Team gearbeitet habe (inkl. 24/7 Rufbereitschaft!), weiß ich einige der Vorteile durchaus zu schätzen, die gerade auch Firmenkunden daraus ziehen:
Weniger Ärger mit der eigenen Hardware und geringe bzw. keine Hardware-Kosten.
Weniger Ärger mit Software-Updates/Maintenance/Betrieb und geringe bzw. keine Kosten für die System-Administration.
Bezahlt wird, was verbraucht wird. Je nach Preismodell kann ich auch jederzeit kündigen (zumindest theoretisch, die praktischen Konsequenzen sind ein anderes Thema).
Bei all der Bequemlichkeit gestehe ich allerdings, dass ich mich ein bisschen entmündigt fühle. Weil’s alle machen, muss ich auch? Und kann ich alle Konsequenzen einschätzen? Unklar! Also empfehle ich, es so zu halten, wie bei jedem Ausflug:
Es gibt kein schlechtes Wetter, nur schlechte Ausrüstung (für die Nerds unter uns, sage ich nur Lemmings).
Integration Report: Spannende Zahlen & Daten zu iPaaS
Schirmchen auf und los geht‘s!
Wenn einzelne oder sogar eine Reihe von Anwendungen zukünftig in der Cloud laufen, dann müssen diese mit den übrigen, lokalen Anwendungen und Daten neu integriert werden.
Meine persönliche Erfahrung damit, sieht so aus: „Hey, Irene, wir haben diese interessanten Qualitätsdaten von OEM xyz in einem Data Lake, der auf der Google Cloud Platform läuft. Können wir das nicht mit den Daten in den Datenbanken unserer verschiedenen Qualitätsteams zusammenführen und den Daten unseres Partners, die in seinem Data Lake auf Amazon Web Services liegen?“
Wenn Sie das jetzt verstanden haben, sind Sie wirklich smart! Ganz ehrlich habe ich damals nicht durchblickt, was womit und wie zusammengeführt werden soll. Deswegen habe ich viele, wirklich viele Gespräche geführt und viele, wirklich viele widersprüchliche Aussagen bekommen. Heute finde ich, dass es beispielsweise unser Kunde travelbasys GmbH viel smarter gemacht hat als ich damals. Peter Tenbusch, der CEO von travelbasys sagt: „ […] wir nutzen Lösungen wie das webMethods API Gateway von Software AG, um den Überblick über unsere hochkomplexe Datenlandschaft zu behalten.”
Cloud-Tipp 1: API-Management-System für den Überblick
Mein persönlicher Schirmchen-Favorit Nr. 1 ist daher heute ein API-Management-System, mit dem man den Überblick behält. API-Management ist allerdings ein großes Thema:
Einige Definitionen und die neuesten Trends (u.a. auch das Thema Multicloud) fasst Gartner zusammen.
Eine Orientierung bzgl. eigener Stärken & Schwächen bietet die API-Reifegrad-Analyse.
Wenn man eine Vorstellung der Service-& Daten-Landschaft hat, kann’s mit der Integration losgehen – aber bloß nicht Punkt-zu-Punkt-Verbindungen zwischen den verschiedenen Systemen bauen! Denn das ist, wie es unser Kunde Nathan Gerst von Restek so treffend formuliert, ein Albtraum (und nebenbei bemerkt ggf. sehr teuer!). Die Lösung ist eine Integrationsplattform (auch bekannt als iPaaS), denn damit wird aus den VIELEN 1:1-Verbindungen EINE 1:n-Verbindung.
Cloud-Tipp 2: Skalierbares iPaaS ohne Risiko
Mein persönlicher Schirmchen-Favorit Nr. 2 ist daher eine iPaaS, die ich schnell, einfach und ohne Investition ausprobieren und mit der ich nach Bedarf, also meinem Business entsprechend (!), wachsen kann.
Cloud-Tipp 3: In Thematik vertiefen
Was, nur zwei Empfehlung beim Thema Cloud? Das geht nun wirklich nicht! Hier kommt Schirmchen-Favorit Nr. 3: Machen Sie sich selbst die Hände schmutzig. Alle erfolgreichen Projekte haben meiner Erfahrung nach eines gemeinsam, nämlich Manager & technische Experten, die nicht auf der Bullshit-Bingo-Ebene bleiben und sich richtig in die Sache vertiefen. Nur so erkennen sie Probleme schnell und suchen gemeinsam mit ihrem Team konsequent nach pragmatischen Lösungen.
Wenn auch Sie die Bullshit-Bingo-Ebene verlassen wollen, dann melden Sie sich gerne bei mir und vereinbaren einen Termin mit uns.
Im Internet der Dinge möchten die Anwender in typischen Unternehmen eine Plattform, die jeden Schritt ihres IoT-Entwicklungslebenszyklus unterstützt.
Es scheint so, als ob eine solche Plattform die größten Vorteile bietet. Laut einer von der Software AG bei Forrester Consulting in Auftrag gegebenen Studie über den Total Economic Impact™ der Cumulocity IoT-Plattform haben Käufer, die eine IoT-Plattform suchten, ganz bestimmte Anforderungen im Kopf – sieben, um genau zu sein. Der auf Kundeninterviews basierende Bericht zeigt, dass es sieben Dinge gibt, die IoT-Anwender von Plattformen erwarten:
Niedrige technische Einstiegshürden
Die Befragten gaben an, dass ihre Unternehmen eine Plattform wünschen, die technisch anspruchsvoll, aber einfach zu implementieren ist und die Möglichkeit bietet, neue Ideen zu testen und Proofs of Concept (PoCs) zu erstellen. Für smarte Geräte war die Fähigkeit, leichtgewichtige Serviceangebote für Kunden anzubieten – ohne eine dedizierte Softwareentwicklungsabteilung – eine wesentliche Anforderung.
Rebranding
Vor allem Service-Provider und Hersteller von intelligenten Geräten nutzen IoT-Plattformen, um ihren Kunden eine Vielzahl von Diensten anzubieten. Die Möglichkeit, diese unter ihrem eigenen Namen zu verkaufen, ist entscheidend, um den bestehenden Markenwert optimal zu nutzen.
Nutzungsbasierte Kosten
Unternehmen wünschen sich einen IoT-Plattformpartner, der mit ihnen wächst und es ihnen ermöglicht, ihr Angebot im Laufe der Zeit zu erweitern, um Kunden besser bedienen zu können. Da die Akzeptanz der Kunden von (neuen) Diensten und Produkten im Laufe der Zeit steigt, ist es wichtig, dass die Kosten mit zunehmender Nutzung skalieren.
Einfaches Hinzufügen von neuen Geräten und Protokollen
Die Befragten wünschen sich eine Plattform, die es ihnen leicht macht, neue Hardwaretypen ohne großen Aufwand hinzuzufügen. Dies ist besonders wichtig für Unternehmen, die häufig neue Geräte im Rahmen von professionellen Dienstleistungen für ihre Kunden integrieren.
“Wir verzeichnen starke Hardware-Umsätze, weil wir in der Lage sind, mit unseren Kunden Gespräche über digitale Möglichkeiten zu führen”, sagte der CEO eines Herstellers von Industrieautomation im Interview.
Skalierbarkeit & Multitenancy
Die Befragten möchten eine Plattform, die mehrere Projekte und Programme unterstützen kann. Für IoT-Dienstleister war die Fähigkeit, Hunderte oder Tausende von Einzelkunden zu unterstützen, Multitenancy eine besonders wichtige Anforderung. In einem Smart-City-Projekt war beispielsweise eine mandantenfähige Architektur erforderlich, da jede Behörde an der Entwicklung fokussierter Lösungen arbeitet, die alle unter einem übergeordneten Mandanten stehen.
Portabilität und Flexibilität
Die Befragten gaben an, dass sie sich eine Plattform wünschen, die eine Reihe von Geräten in verteilten Umgebungen unterstützen kann. Die Benutzer wünschen sich eine Reihe von Optionen für das Deployment – einschließlich einer Container-basierten Architektur, in Cloud-Umgebungen, in Rechenzentren und/oder auf einer Reihe von Edge-Hardware-Geräten.
Analysen und Dashboards
Einige Unternehmen wünschen sich eine Plattform mit ausgefeilten, sofort einsatzbereiten Dashboards für die Geräteüberwachung. Andere sagten, es sei wichtig, dass die Dashboards individuell konfigurierbar sind, da sie oft spezifische Ansichten für ihre Kunden erstellen.
Eine Studie über die Einsparungen und Vorteile mit Cumulocity IoT
Erfahren Sie mehr über die Studie von Forrester Consulting zum Total Economic Impact™ von IoT.
Diese Website benutzt funktionelle Cookies und externe Skripte, um Ihr Benutzererlebnis zu verbessern.
Lade Kommentare …
Privacy settings
Datenschutzeinstellungen
Diese Website benutzt funktionelle Cookies und externe Skripte, um Ihr Benutzererlebnis zu verbessern. Welche Cookies und Skripte benutzt werden und wie diese die Webseitenbenutzung beeinflussen, steht links. Sie können Ihre Einstellungen jederzeit ändern. Ihre Entscheidungen werden Ihren Besuch nicht beeinflussen.
NOTE: Diese Einstellung wird nur auf den Browser und das Gerät angewendet, das Sie derzeit benutzen.
Cookies
Diese Website verwendet Cookies – nähere Informationen dazu und zu Ihren Rechten als Benutzer finden Sie in unserer Datenschutzerklärung. Klicken Sie auf „Ich stimme zu“, um Cookies zu akzeptieren und direkt unsere Website besuchen zu können.