Open Insurance – APIs für Versicherungen

Open Insurance – APIs für Versicherungen

Die Digitalisierung bietet zahlreiche Chancen für Versicherungen: Interne Prozesse werden effizienter, der Vertrieb hat durch digitale Kanäle eine grössere Reichweite, die Kundenschnittstelle wird attraktiver, und die Kundenbindung wird verbessert.

Open Insurance – das Bereitstellen von Daten und Funktionalität an Dritte – spielt eine wichtige Rolle als Enabler der Digitalisierung. Open Insurance ist dabei kein einzelnes Projekt, das einzelne der zuvor genannten Chancen realisiert. Es ist vielmehr eine Infrastruktur – ein Enabler – der hilft all die oben genannten Chancen und Use Cases effizient und nachhaltig umzusetzen.

Open Insurance ist das Bereitstellen von Daten und Funktionalität an Dritte. Keineswegs steht dahinter das wahllose Öffnen aller Datenbanken der Versicherungen. Datenschutz und Sicherheit spielen hier eine grosse Rolle. Es ist vielmehr ein gezieltes Öffnen zur Zusammenarbeit mit akkreditierten Dritten mit expliziter Einwilligung der Versicherungsnehmer zum Datenaustausch. Dritte sind dabei weder Versicherung noch deren Endkunde, sondern Partner und Ökosystem Teilnehmer. Die Versicherung kann die Partner und Ökosystem Teilnehmer prüfen, und auswählen mit wem sie zusammenarbeiten möchte.

API Technologie

Technisch basiert Open Insurance auf API Technologie. APIs sind dabei digitale Bausteine, die Versicherungsdaten oder Versicherungsprozesse kapseln. Als digitale Bausteine könne diese APIs einfach in eigene Digitallösungen eingebaut werden, doch wenn gewünscht und strategisch sinnvoll, lassen sie sich ebenso leicht in die Digitallösungen von Dritten einbauen. Und da sie Bausteine sind, lassen sie sich einfach zu neuen Lösungen zusammenfügen. Somit lassen sich neue Produkte und Projekte schnell, agil, und kostengünstig umsetzen.

Digitale Ökosysteme für Versicherungen

Durch den Einbau von Versicherungs-APIs in Digitallösungen von Dritten entstehen digitale Ökosysteme rund um Versicherungsprodukte. In solchen Ökosystemen kann beispielsweise die passende Versicherung zum richtigen Zeitpunkt dem Endkunden angeboten werden und kundenfreundlich, einfach, und ohne Angabe zusätzlicher Daten abgeschlossen werden. Dieser Use Case ist auch als Embedded Insurance bekannt, und wird beim Abschluss von Reisen, Fahrzeugmieten, Fahrzeugkäufen oder Immobilientransaktionen eingesetzt, um die passende Versicherung anzubieten. Das Ökosystem ist dabei essentiell, denn der Versicherer selbst kennt den Zeitpunkt des Kaufs nicht und ist auf den Trigger von Ökosystem Partnern (Reiseanbieter, Fahrzeugvermieter etc.) angewiesen.

Standardisierung von Open Insurance APIs

Für Use Cases wie Embedded Insurance ist der Aufbau von digitalen Ökosystemen eine Voraussetzung, und diese wiederum entstehen rund um viel-benutzte APIs. Doch wie entstehen viel-benutzte APIs?

Entweder durch Marktmacht (wie etwa die APIs von Ping An in China) oder durch Standardisierung von APIs. Die Standardisierung von APIs kann entweder durch einen Regulator geschehen oder durch die Marktteilnehmer selbst.

  • Für Open Insurance gibt es bereits einige Ansätze in Richtung  Standardisierung, wie etwa die marktgetriebenen Ansätze von Free Insurance Data (FRIDA) und Open Insurance.io
  • Der BIPRO Verein arbeitet ebenfalls mit seiner RNext Initiative an einer Standardisierung von APIs für Versicherungsprozesse.
  • Zudem gibt es Marktbefragungen von der EIOPA – European Insurance and Occupational Pensions Authority, welche auf eine potentielle Regulierung – ähnlich Open Banking – hinauslaufen könnten.

Pragmatische Ansätze

Vorreiter in der Versicherungsbranche nutzen schon heute pragmatische Ansätze von Open Insurance, etwa durch das Auslagern von Teil-Prozessen oder zur Unterstützung des Vertriebs.

So können – dank Open Insurance Ansätzen – KFZ Versicherungen die Schadensregulierung und die Interaktion mit Werkstätten verbessern. Das ermöglicht Effizienzsteigerungen und ein besseres Kundenerlebnis. Oliver Urlauber berichtet im Video Interview von einer Umsetzung dieses Cases. Unbedingt reinhören.

Embedded Insurance ist ebenfalls ein pragmatischer Ansatz zur Unterstützung des Vertriebs. Ökosystem Partner (Reiseanbieter, Fahrzeugvermieter etc.) kennen dabei sowohl den optimalen Zeitpunkt als auch den Bedarf ihrer Kunden für Versicherungsprodukte. Durch Open Insurance APIs geben sie diese Informationen an Versicherer weiter, und ermöglichen Endkunden einen direkten und unkomplizierten Abschluss der Versicherung ohne Medienbrüche. Auch hierauf geht Oliver im Video Interview ein – ich empfehle ins Video reinzuschauen.

Deep Dive – Interview zum Thema Open Insurance

Vor kurzem habe ich mit Oliver Urlauber, Director CCS, zum Thema Open Insurance und Embedded Insurance gesprochen. Oliver hat bereits viele Open Insurance Initiativen erfolgreich umgesetzt und somit einen reichen Erfahrungsschatz zur pragmatischen Umsetzung von Open Insurance. Ich empfehle unbedingt reinzuschauen!

Teilen:
Wie SAUBER ist die Luft – heute und auch morgen?

Wie SAUBER ist die Luft – heute und auch morgen?

Luftverschmutzung gehört nach wie vor zu den weltweit größten Gefahren für die Gesundheit.  Zudem bedrohen Luftschadstoffe die Ökosysteme. Lokale Entscheidungsträger in der Verkehrs-, Stadt- und Umweltplanung brauchen Unterstützung, um die Wechselwirkungen zwischen Luftschadstoffen und äußeren Einflüssen zu verfolgen. Darum geht es in dem Forschungsprojekt SAUBER. Dort wird eine Informationsplattform mit KI-basierten Ansätzen gebaut, die auch Prognosen und Simulationen der zukünftigen Luftverschmutzung erlauben. Nun ist der erste Demonstrator entstanden. Die Software AG hat mit ARIS Dashboarding-Funktionen das User Interface dazu gebaut.

Der Name ist Programm. Denn bei SAUBER (Satellitenbasiertes System zur Anzeige, Prognose und Simulation von Luftschadstoffen für eine nachhaltige Stadt- und Regionalentwicklung) geht es um saubere Luft. Das Herzstück von SAUBER bildet eine Geodateninfrastruktur, auf der alle relevanten Daten gespeichert werden und die zur Anzeige, Prognose und Simulation von Luftschadstoffen genutzt wird. Dazu werden Satellitendaten von Sentinel-3 und Sentinel-5P des Raumfahrtprogramms Copernicus analysiert, die in einer bisher unerreichten Qualität und Auflösung Stickstoffdioxid, Feinstaub, Ozon und Kohlenmonoxid aus dem Orbit erfassen können. Mit den Satellitendaten geht SAUBER in der Flächenabdeckung deutlich über die punktuellen Erhebungen der stationären Messstationen in den Pilotregionen Stuttgart und Nordrhein-Westfalen (NRW) hinaus. Als weitere Datenquellen dienen u.a. aktuelle und historische Verkehrs- und Wetterdaten sowie Ergebnisse der lokalen Luftmessstationen und Informationen zur Topografie und Bebauung. Dabei gilt: Je größer und vielfältiger die ergänzenden Daten sind, desto bessere Ergebnisse können erzielt werden.

Mit KI den Schadstoffen auf der Spur

Was passiert nun mit den vielen Daten? Sie werden miteinander verknüpft und mit Hilfe von analytischen Verfahren ausgewertet, sodass sich ein flächendeckendes, zugleich aber möglichst genaues Bild der aktuellen Luftqualität ergibt. Dieses Bild geht in der räumlichen Abdeckung über die punktuellen Messungen der Luftqualität hinaus und übertrifft dabei im Detailgrad die Auflösung der Satellitendaten deutlich. Mit Hilfe von KI-Methoden werden Zusammenhänge bzw. Abhängigkeiten aufgespürt und in entsprechende Prognosen und Simulationen für die Stadt- bzw. Regionalentwicklung überführt. Daher arbeitet das SAUBER-Projektteam eng mit den Anwendungspartnern, dem Umweltamt Stuttgart und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW, zusammen.

Demonstrator zeigt Visualisierungspotentiale

Die Software AG spielt in dem Forschungsprojekt eine entscheidende Rolle. Sie ist nicht nur Konsortialführerin, sondern verantwortet auch die Konzeption und Entwicklung der SAUBER-Plattform. Zum Einsatz kommen unsere Messaging Technology und ARIS Dashboarding-Funktionen für das Interface des Demonstrators.

Auf der SAUBER-Plattform werden nun alle Daten eingespielt, miteinander verschnitten, ausgewertet und schließlich in die SAUBER-Dienste überführt. Und genau diese Dienste zeigt uns der Demonstrator, der die Möglichkeiten des Systems visualisieren soll:

Der „Stations-Viewer“ bildet Schadstoffbelastung, Wetter und Verkehrsaufkommen in Form einer Karte ab.

Hier sieht man die NO2-Werte an der Stuttgarter Messstation „Am Neckartor“

Der Dienst „Prognose“ ermöglicht Vorhersagen bzgl. der Luft- und Klimadaten für die nächsten zwei Tage. Die Prognosen errechnen sich aus aktuellen Messdaten und sehr vielen zusätzlichen Daten aus der Historie. Mit diesem Daten-Mix werden neuronale Netze trainiert. Sie lernen, welche Zusammenhänge es in den vergangenen ein bis zwei Jahren gab. Verknüpft mit aktuellen Messdaten, wie Wetter-, Verkehrs-, Struktur- und vielen anderen Daten, berechnet das System, wie sich die Luftbeschaffenheit weiterentwickelt. Übrigens ist die Prognose für zwei Tage schon sehr genau. Das weiß man, weil man Echtzeitdaten und Prognosedaten aus der Vergangenheit miteinander verglichen hat.

An der Messstation in Aachen Burscheid werden relativ geringe PM10-Werte in Form der hellblauen Linie (am Ende des Diagramms) prognostiziert.

Mit dem Dienst „Simulation“ soll die langfristige Wirkung verschiedener Bebauungsszenarien auf die Umwelt einer Region ermittelt werden. An diesem Dienst arbeitet das Projektteam noch intensiv. Er soll bis zum Ende des Projekts, am 31. Dezember 2021, realisiert sein.

Konkret trifft der Anwender auf dem Dashboard des Demonstrators auf drei Kacheln. Sie führen zum Datenangebot mit der Übersicht über alle Daten-Visualisierungen und Demonstratoranwendungen, zum Stations Viewer mit Karten und Details zu den Messstationen und zu den bisher noch nicht implementierten Tutorials zur Nutzung der SAUBER-Daten.

Der Demonstrator umfasst mehrere Use Cases.. In den Pilotregionen NRW und Stuttgart werden die Messstationen für die Schadstoffe NO, NO2, O3 und PM10 (für NRW) und NO2 (für Stuttgart) visualisiert. Wir sehen dort Zeitreihen mit Werten im Stundentakt. Sowohl die Schadstoffausstoßung der Vergangenheit als auch Prognosen für die nächsten beiden Tage sind dargestellt. Ähnlich ist es bei den Use Cases zur flächenhaften Visualisierung auf sogenannten Heatmaps. Eine Heatmap ist eine Technik zur Datenvisualisierung, bei der das Ausmaß eines Phänomens in zwei Dimensionen farblich dargestellt wird.

Ein Rechteck wird über die Karte gelegt. Es zeigt mit den Farbnuancen den Grad der Luftverschmutzung über einem bestimmten Landstrich in NRW.

Grünfläche statt Hochhaus

Die Daten der SAUBER-Plattform kann man über standardisierte Schnittstellen abrufen und in eigenen Programmen weiterverarbeiten. Das kommt den Mitarbeitern in kommunalen Behörden zugute, die selbst mit sehr umfangreichen IT-Programmen arbeiten. Übrigens ist nicht geplant, dass die breite Öffentlichkeit Zugriff haben wird. Der Erklärungsbedarf wäre für den Laien bei zu geringem Informationsgewinn zu hoch.

Noch drei Monate arbeitet das Konsortium an der Plattform. Neben der Weiterentwicklung des User Interface Designs gehört der Simulations-Dienst zu den umfangreichsten Hausaufgaben.  Simulation könnte spannend werden. Denn stellen wir uns vor, dort, wo die Luftverschmutzung besonders hoch ist, würde man die Einrichtung von Grünflächen durch veränderte Strukturdaten in den neuronalen Netzen simulieren. Welchen Einfluss hätte das wohl auf die Schadstoffkonzentration? SAUBER verspricht uns Antworten.

Luftschadstoffe

Ozon (O3)

Ozon ist ein starkes und giftiges Oxidationsmittel, das bei Menschen und Tieren zu Reizungen der Atemwege und der Augen sowie Begünstigung von Atemwegserkrankungen führen kann. In der Troposphäre ist Ozon der drittwirksamste Treiber der globalen Erwärmung (nach Kohlendioxid und Methan). Die Ozonschicht in der Stratosphäre schützt die Lebewesen auf der Erde vor Schädigungen durch energiereiche mutagene ultraviolette Strahlung der Sonne.

Feinstaub (PM2.5)

Diese mikroskopischen Partikel mit einer Größe von bis zu 2,5 Mikrometer schweben in der Luft. Zu dieser Kategorie gehören Rauch, Bakterien und Allergene. Feinstaub PM10 Diese größeren mikroskopischen Partikel mit einer Größe von bis zu 10 Mikrometer schweben in der Luft. Zu dieser Kategorie zählen Staub, Schimmel und Pollen.

Stickstoffoxide (NO und NO2)

Sie entstehen als Produkte unerwünschter Nebenreaktionen bei Verbrennungsprozessen. Die Hauptquellen von Stickstoffoxiden sind Verbrennungsmotoren und Feuerungsanlagen für Kohle, Öl, Gas, Holz und Abfälle. In Ballungsgebieten ist der Straßenverkehr die bedeutendste NOx-Quelle.

Partner von SAUBER

• geomer Gmbh

• meggsimum

• Deutsches Zentrum für Luft- und Raumfahrt

• Fraunhofer Heinrich-Hertz-Institut

• Institut für Informationssysteme der Hochschule für Angewandte Wissenschaften Hof

• Leibniz-Institut für ökologische Raumentwicklung

• Software AG

 

Assoziierte Partner

• Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen

• Amt für Umweltschutz der Landeshauptstadt Stuttgart

Mehr erfahren

Teilen:
Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Ein LKW fährt von A nach B und kommt leer zurück. Ökonomisch und ökologisch nicht sinnvoll, versteht sich. Um das zu verhindern, ist eine akribische Planung nötig. Und die ist ohne ein intelligentes IT-System nicht zu machen.

Dies und mehr sind die Aufgaben des europäischen Forschungsprojekts LOGISTAR. Derzeit laufen im Projekt Testwochen, in denen in drei Anwendungsfällen Dienste unter realen Bedingungen getestet werden. Der Demonstrator basiert auf der Arbeit der Software AG mit ihren Anwendungen von Cumulocity IoT und webMethods sowie Universal Messaging. Das Projekt LOGISTAR zielt darauf ab, eine effektive Planung von Transportvorgängen in der Lieferkette zu ermöglichen.

Ziel ist es, die verfügbaren Daten zu nutzen, um sie zu verarbeiten und Dienste bereitzustellen, die durch intelligente Algorithmen wie das Erlernen von Vorhersagen oder die Optimierung von Präferenzen implementiert werden. Drei Living Labs bilden die Anwendungsfälle. Der erste ist die Optimierung der Abläufe im Lager durch die präzise Vorhersage der Ankunftszeit, die Erkennung von Zwischenfällen und die effiziente Re-Optimierung. Dadurch wird die Ressourcennutzung im Lager verbessert und die Wartezeit für Abläufe verkürzt.

Die zweite Dienstleistung besteht in der Verbesserung des Routings der Ladungen in verschiedenen Transportmitteln, wie LKW, Zug und Schiff. Auf diese Weise werden die Kosten für logistische Prozesse gesenkt und die Nutzung der Infrastruktur optimiert. Der dritte Dienst schließlich konzentriert sich auf die horizontale kollaborative Planung von Ressourcen, um Kosten zu teilen und Emissionen zu reduzieren. Auf diese Weise wird die Anzahl der Leerkilometer von Lastwagen reduziert.

Die LOGISTAR-Anwendungen werden in allen Living Labs gründlich getestet. Die Partner befinden sich derzeit in den Testwochen. In der ersten Woche ging es um Living Lab 1.

Lkw nicht leer zurückschicken

Wie läuft so eine Testwoche ab? Der Partner Ahlers aus Belgien hat den Test bis ins letzte Detail geplant und wird die Testwochen auch mit Dokumentation und Auswertung begleiten. Jeden Morgen um 9 Uhr treffen sich alle Partner, um den Ablauf des Tages zu koordinieren, und jeden Nachmittag um 16 Uhr werden die Ergebnisse besprochen. Im Mittelpunkt der Tests stehen die Anwendungspartner Nestlé und Pladis, die täglich Tausende von LKWs fahren müssen. Beide haben ein besonderes Interesse an der Fortsetzung früherer Forschungsaktivitäten, nachdem sie seit 2007 die zurückgelegte Strecke der leeren Fahrzeuge um 270.000 Kilometer pro Jahr reduziert haben. Derzeit fehlt es an einer globalen Sicht auf die Abläufe, was dazu führen kann, dass Gelegenheiten der Zusammenarbeit verpasst werden. In diesem Testfall soll gezeigt werden, wie die Informationen, die das in LOGISTAR entwickelte Entscheidungsfindungs-Tool liefert, das Backhauling-Management verbessern können, d. h. die Praxis, die Lastwagen nicht leer zurückzuschicken, sondern sie einen Teil der Ladung zur ursprünglichen Quelle zurückbringen zu lassen.

Das Team der Software AG hat die Basis für den Demonstrator entwickelt. Er ist teilweise in einer webMethods-Anwendung implementiert, die für die grundlegende Kommunikation im gesamten System sorgt. Die Software AG ist auch mit Universal Messaging und Apama beteiligt. Universal Messaging wird eingesetzt, um die Basiskommunikation im gesamten System sicherzustellen. Das bedeutet, dass alle Komponenten – sichtbare und unsichtbare – über Universal Messaging miteinander kommunizieren. Das macht sie aber nicht voneinander abhängig, sondern entkoppelt sie.

Projektmanager Christian Gengenbach von der Software AG erklärt das System so:

“Das ist im Projekt sehr hilfreich, weil sieben technische Partner unabhängig voneinander komplexe Komponenten entwickeln, die in den letzten Wochen so langsam zusammengefügt wurden. Universal Messaging sorgt dafür, dass das ganze System nicht automatisch zusammenbricht, wenn eine Verbindung nicht funktioniert.”

Apama, eine der IoT Analytics-Komponenten der Software AG, kümmert sich um die Ereignisverarbeitung. Verkehrsstaus oder Wetterprobleme müssen an die entsprechenden Komponenten weitergeleitet werden.

Planung und Überwachung gemeinsamer Fahrten

Der Demonstrator konzentriert sich auf zwei Webanwendungen: Planer und Echtzeitüberwachung. Der Planer-Bildschirm unterstützt die Anwender bei der optimalen Nutzung ihrer Logistikressourcen. Das LOGISTAR Living Lab 1 für Co-Loading und Backhauling bietet optimierte Fahrten für kollaborative Transporte an und unterstützt den Prozess der Entscheidung, ob der Vorschlag von den beteiligten Akteuren angenommen oder abgelehnt werden soll. LOGISTAR kalkuliert die Vorschläge im Hintergrund und ermöglicht die parallele Nutzung des Tools für die Beteiligten mit sofortiger Wirkung im System.

Was bedeutet das konkret? Der erste Schritt ist die Auswahl des Tages, an dem die Fahrten geplant werden sollen: Die Liste der passenden Fahrten wird automatisch aktualisiert. Statussymbole zeigen den Fortschritt der Entscheidung an: Ausstehend, Angenommen, Abgelehnt. Am Ende können die Fahrten, die von allen akzeptiert werden, stattfinden.

Mit dem Modul Real-Time Monitoring arbeitet ein Disponent, wenn der Lkw bereits auf der Straße ist. Die Komponente unterstützt die Disponenten bei der Überwachung der Fahrten, der Anpassung der Disposition und des Plans, wenn es zu Störfällen kommt. Die Informationen werden auf einer Karte dargestellt, um den Partnern einen detaillierten Überblick über die Positionierung der Gebäude, die Auftragsrouten und andere nützliche Informationen für die Fahrzeugüberwachung zu geben.

Die Sichtweise der Logistikexperten verstehen

Die Anwendungspartner Nestlé und Pladis waren die Haupttester. Aber auch die technischen Partner hatten nun die Möglichkeit, das gesamte System als Anwender kennen zu lernen. Schließlich hatten sie ja nur einzelne Module entwickelt.

Alle Tester achteten besonders auf die Zugänglichkeit, die Leistungsfähigkeit und die Datenkonsistenz. Zu Beginn der Testwoche lag der Schwerpunkt auf den Zugangsfragen: Funktioniert die Anmeldung? Können die Benutzer von verschiedenen Geräten aus auf das System zugreifen? Dann ging es um die Grundlagen: Wie geht das System damit um, wenn der Benutzer eine Reise annimmt oder ablehnt?

Das Fazit, das die Partner nach einer Woche Testphase zogen, ist durchweg positiv: Die Entwickler der Anwendung haben die Sichtweise der Logistikexperten kennengelernt. Deren Tagesablauf ist ganz anders, als es ein Laie erwarten würde. Das hat den technischen Partnern geholfen.

Auch unter der Woche konnten Anmerkungen direkt umgesetzt werden. Einige Änderungen werden aber auch langfristig umgesetzt werden müssen.

In der Zwischenzeit gehen die Testwochen weiter. Der Aufwand dürfte sich lohnen. Immerhin hat sich das Projekt ehrgeizige Ziele gesetzt (siehe Infokasten rechts).

Die 5 wichtigsten Vorteile von LOGISTAR

  • Optimierungstechniken erhöhen den Auslastungsfaktor der Frachtfahrzeuge um 10%
  • Lieferwege werden um 10 % durch Synchromodalität (intelligente Nutzung verschiedener Verkehrsträger wie Schiene, Binnenschifffahrt oder Straße auf einer Route) verkürzt.
  • Zuverlässigkeit und Effizienz der Dienste werden erhöht: Vorhersage von Ereignissen und Zwischenfällen.
  • Das Management von logistischen Abläufen wird vereinfacht: Bereitstellung von Dashboards und Anzeige von Warnungen oder Empfehlungen.
  • Die Sichtbarkeit der Lieferung durch den Einsatz von Sensoren zur Überwachung der beförderten Güter und Förderung des Datenaustauschs wird verbessert.

Partner des Projekts

  • Agencia Estatal Consejo Superior de Investigaciones Científicas, M.P.
  • Ahlers Belgium NV
  • Chep Espana SA
  • Codognotto Italia SPA.
  • Consorzio Zailog, Interporto of Verona
  • DBH Logistics IT AG
  • Drustvo za Konsalting, Razvoj i Implementaciju Informacionih i Komunikacionih Tehnologija Dunavnet DOO
  • Genegis GI SRL
  • MDS Transmodal LTD.
  • Nestle UK LTD.
  • Pladis MDC Global (former United Biscuits)
  • Preston Solutions LTD.
  • Semantic Web Company GMBH
  • Universidad de la Iglesia de Deusto Entidad Religiosa
Teilen:
Lemminge und die Cloud

Lemminge und die Cloud

Sie wollten die Cloud bisher weitgehend vermeiden? Jetzt müssen Sie sich damit befassen, weil eine Anwendung, die Sie seit Jahren verwenden, zukünftig nur noch als Subscription & Cloud Service angeboten wird? Aktuell recherchieren Sie, was das für Sie bedeutet? Dann ist dieser Blog Posts genau richtig für Sie.

Alles klar, alles Cloud?

Mehr als 80% der Nutzer (Stand: 2021) verwenden oder planen die Verwendung von Office- und Collaboration-Anwendungen (etwa Office 365) aus der Cloud. Zwischen 70% und 80% sind es bei ERP- und CRM-Anwendungen. Viele Software-Unternehmen haben mittlerweile eine Cloud-First, manche sogar eine Cloud-Only Strategie (Details & Statistiken siehe KPMG Cloud Monitor 2021).

Mich persönlich nervt, dass mir statt der Office Lizenz, mit der ich 3 Jahrzehnte gut gefahren bin, neuerdings eine Office Subscription aufgezwungen wird. Da ich allerdings als Studentin in der System-Administration und später in einem DevOps Team gearbeitet habe (inkl. 24/7 Rufbereitschaft!), weiß ich einige der Vorteile durchaus zu schätzen, die gerade auch Firmenkunden daraus ziehen:

  • Weniger Ärger mit der eigenen Hardware und geringe bzw. keine Hardware-Kosten.
  • Weniger Ärger mit Software-Updates/Maintenance/Betrieb und geringe bzw. keine Kosten für die System-Administration.
  • Bezahlt wird, was verbraucht wird. Je nach Preismodell kann ich auch jederzeit kündigen (zumindest theoretisch, die praktischen Konsequenzen sind ein anderes Thema).

Bei all der Bequemlichkeit gestehe ich allerdings, dass ich mich ein bisschen entmündigt fühle. Weil’s alle machen, muss ich auch? Und kann ich alle Konsequenzen einschätzen? Unklar! Also empfehle ich, es so zu halten, wie bei jedem Ausflug:

Es gibt kein schlechtes Wetter, nur schlechte Ausrüstung (für die Nerds unter uns, sage ich nur Lemmings).

Integration Report: Spannende Zahlen & Daten zu iPaaS

Schirmchen auf und los geht‘s!

Wenn einzelne oder sogar eine Reihe von Anwendungen zukünftig in der Cloud laufen, dann müssen diese mit den übrigen, lokalen Anwendungen und Daten neu integriert werden.

Meine persönliche Erfahrung damit, sieht so aus: „Hey, Irene, wir haben diese interessanten Qualitätsdaten von OEM xyz in einem Data Lake, der auf der Google Cloud Platform läuft. Können wir das nicht mit den Daten in den Datenbanken unserer verschiedenen Qualitätsteams zusammenführen und den Daten unseres Partners, die in seinem Data Lake auf Amazon Web Services liegen?“

Wenn Sie das jetzt verstanden haben, sind Sie wirklich smart! Ganz ehrlich habe ich damals nicht durchblickt, was womit und wie zusammengeführt werden soll. Deswegen habe ich viele, wirklich viele Gespräche geführt und viele, wirklich viele widersprüchliche Aussagen bekommen. Heute finde ich, dass es beispielsweise unser Kunde travelbasys GmbH viel smarter gemacht hat als ich damals. Peter Tenbusch, der CEO von travelbasys sagt: „ […] wir nutzen Lösungen wie das webMethods API Gateway von Software AG, um den Überblick über unsere hochkomplexe Datenlandschaft zu behalten.”

Mehr zu Herausforderungen und Lösungsweg von travelbasys

Cloud-Tipp 1: API-Management-System für den Überblick

Mein persönlicher Schirmchen-Favorit Nr. 1 ist daher heute ein API-Management-System, mit dem man den Überblick behält. API-Management ist allerdings ein großes Thema:

Anwenderbericht: Vorteile und Lösungsweg unseres Kunden Restek

Wenn man eine Vorstellung der Service-& Daten-Landschaft hat, kann’s mit der Integration losgehen – aber bloß nicht Punkt-zu-Punkt-Verbindungen zwischen den verschiedenen Systemen bauen! Denn das ist, wie es unser Kunde Nathan Gerst von Restek so treffend formuliert, ein Albtraum (und nebenbei bemerkt ggf. sehr teuer!). Die Lösung ist eine Integrationsplattform (auch bekannt als iPaaS), denn damit wird aus den VIELEN 1:1-Verbindungen EINE 1:n-Verbindung.

Cloud-Tipp 2: Skalierbares iPaaS ohne Risiko

Mein persönlicher Schirmchen-Favorit Nr. 2 ist daher eine iPaaS, die ich schnell, einfach und ohne Investition ausprobieren und mit der ich nach Bedarf, also meinem Business entsprechend (!), wachsen kann.

Cloud-Tipp 3: In Thematik vertiefen

Was, nur zwei Empfehlung beim Thema Cloud? Das geht nun wirklich nicht! Hier kommt Schirmchen-Favorit Nr. 3: Machen Sie sich selbst die Hände schmutzig. Alle erfolgreichen Projekte haben meiner Erfahrung nach eines gemeinsam, nämlich Manager & technische Experten, die nicht auf der Bullshit-Bingo-Ebene bleiben und sich richtig in die Sache vertiefen. Nur so erkennen sie Probleme schnell und suchen gemeinsam mit ihrem Team konsequent nach pragmatischen Lösungen.

 

Wenn auch Sie die Bullshit-Bingo-Ebene verlassen wollen, dann melden Sie sich gerne bei mir und vereinbaren einen Termin mit uns.

 

 

Teilen:
IoT-Plattform: 7 Features, die sich Ihre Anwender wünschen

IoT-Plattform: 7 Features, die sich Ihre Anwender wünschen

Im Internet der Dinge möchten die Anwender in typischen Unternehmen eine Plattform, die jeden Schritt ihres IoT-Entwicklungslebenszyklus unterstützt.

Es scheint so, als ob eine solche Plattform die größten Vorteile bietet. Laut einer von der Software AG bei Forrester Consulting in Auftrag gegebenen Studie über den Total Economic Impact™ der Cumulocity IoT-Plattform haben Käufer, die eine IoT-Plattform suchten, ganz bestimmte Anforderungen im Kopf – sieben, um genau zu sein. Der auf Kundeninterviews basierende Bericht zeigt, dass es sieben Dinge gibt, die IoT-Anwender von Plattformen erwarten:

  1. Niedrige technische Einstiegshürden

Die Befragten gaben an, dass ihre Unternehmen eine Plattform wünschen, die technisch anspruchsvoll, aber einfach zu implementieren ist und die Möglichkeit bietet, neue Ideen zu testen und Proofs of Concept (PoCs) zu erstellen. Für smarte Geräte war die Fähigkeit, leichtgewichtige Serviceangebote für Kunden anzubieten – ohne eine dedizierte Softwareentwicklungsabteilung – eine wesentliche Anforderung.

  1. Rebranding

Vor allem Service-Provider und Hersteller von intelligenten Geräten nutzen IoT-Plattformen, um ihren Kunden eine Vielzahl von Diensten anzubieten. Die Möglichkeit, diese unter ihrem eigenen Namen zu verkaufen, ist entscheidend, um den bestehenden Markenwert optimal zu nutzen.

  1. Nutzungsbasierte Kosten

Unternehmen wünschen sich einen IoT-Plattformpartner, der mit ihnen wächst und es ihnen ermöglicht, ihr Angebot im Laufe der Zeit zu erweitern, um Kunden besser bedienen zu können. Da die Akzeptanz der Kunden von (neuen) Diensten und Produkten im Laufe der Zeit steigt, ist es wichtig, dass die Kosten mit zunehmender Nutzung skalieren.

  1. Einfaches Hinzufügen von neuen Geräten und Protokollen

Die Befragten wünschen sich eine Plattform, die es ihnen leicht macht, neue Hardwaretypen ohne großen Aufwand hinzuzufügen. Dies ist besonders wichtig für Unternehmen, die häufig neue Geräte im Rahmen von professionellen Dienstleistungen für ihre Kunden integrieren.

“Wir verzeichnen starke Hardware-Umsätze, weil wir in der Lage sind, mit unseren Kunden Gespräche über digitale Möglichkeiten zu führen”, sagte der CEO eines Herstellers von Industrieautomation im Interview.

  1. Skalierbarkeit & Multitenancy

Die Befragten möchten eine Plattform, die mehrere Projekte und Programme unterstützen kann. Für IoT-Dienstleister war die Fähigkeit, Hunderte oder Tausende von Einzelkunden zu unterstützen, Multitenancy eine besonders wichtige Anforderung. In einem Smart-City-Projekt war beispielsweise eine mandantenfähige Architektur erforderlich, da jede Behörde an der Entwicklung fokussierter Lösungen arbeitet, die alle unter einem übergeordneten Mandanten stehen.

  1. Portabilität und Flexibilität

Die Befragten gaben an, dass sie sich eine Plattform wünschen, die eine Reihe von Geräten in verteilten Umgebungen unterstützen kann. Die Benutzer wünschen sich eine Reihe von Optionen für das Deployment – einschließlich einer Container-basierten Architektur, in Cloud-Umgebungen, in Rechenzentren und/oder auf einer Reihe von Edge-Hardware-Geräten.

  1. Analysen und Dashboards

Einige Unternehmen wünschen sich eine Plattform mit ausgefeilten, sofort einsatzbereiten Dashboards für die Geräteüberwachung. Andere sagten, es sei wichtig, dass die Dashboards individuell konfigurierbar sind, da sie oft spezifische Ansichten für ihre Kunden erstellen.

Eine Studie über die Einsparungen und Vorteile mit Cumulocity IoT

Erfahren Sie mehr über die Studie von Forrester Consulting zum Total Economic Impact™ von IoT.

Jetzt kostenlos lesen

 

Teilen:
Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Der Deutsche Bundestag hat kürzlich ein Gesetz verabschiedet, das den Einsatz von selbstfahrenden Autos erlaubt. Autonome Fahrzeuge bieten große Chancen und stellen uns gleichzeitig vor viele Herausforderungen.

So verlangt das Zukunftsthema nach einer intelligenten und sicheren Verkehrsinfrastruktur. Denn ein Signalabriss kann sicherheitskritische Auswirkungen haben. Wie die Software AG mit IoT Analytics, insbesondere mit Mashzone NextGen, Apama sowie Webtechniken und Container-Technologien dazu die entsprechenden Daten zusammengeführt, aufbereitet, analysiert und visualisiert haben, zeigt das Forschungsprojekt Cartox2.

Serviceplattform Cartox2 ebnet den Weg für das autonome urbane Fahren

Das vom Bundesministerium für Verkehr und digitale Infrastruktur geförderte Projekt Cartox2 ist kürzlich abgeschlossen worden. Sechs Partner, unter ihnen auch die Software AG, haben eine Plattform für Basisdienste entwickelt. Sie erfasst und verarbeitet Informationen über die Car-to-Car-Konnektivität (C2C), die Netzabdeckung für die Car-to-X-Kommunikation (C2X) sowie das Datenrouting zu und zwischen Edge-Clouds, den Zugangspunkten der Cloud-Umgebung. Cartox2 trägt hybride Kommunikations- und Positionierungsdaten mit weiteren Geodaten auf einer Big Data-Plattform zusammen. Es reichert statische mit Echtzeitinformationen an, um mit Algorithmen zur Datenanalyse neuartige Dienste und Geschäftsmodelle zu kreieren. Die Rolle der Software AG bestand darin, Daten zu integrieren, aufzubereiten, zu analysieren und zu visualisieren. Dem Team um Projektmanager Andre Litochevski ist dabei ein spannender modularer Prototyp mithilfe von MashZone NextGen, Apama, Webtechnologie Angular sowie Containervirtualisierung mit Docker und NginX-Sicherheit gelungen.

Signalstärke visualisieren

Worum geht es? Für autonomes Fahren ist ausreichende Signalstärke notwendig. Denn wo kein Mensch am Steuer sitzt, müssen Systeme miteinander kommunizieren und Signale wahrnehmen. Beispielsweise kann ein Auto ein anderes warnen, wenn in zwei Kilometer Entfernung ein Unfall passiert ist. Aber kann dieses Warnsystem auch überall funktionieren? Mithilfe von Mashzone NextGen bieten wir hier einen interessanten Service für die Visualisierung an. Die Daten im Raum Dresden sind dazu zuvor von einem Projektpartner vermessen worden. Die Software AG hat diese Daten abgegriffen, mit APAMA analysiert und sie mit Mashzone NextGen visualisiert zur Verfügung gestellt. Der Nutzer meldet sich über einen Browser an und klickt auf Orte auf einer Straßenkarte oder trägt die Koordinaten ein.  Sofort erfährt er, ob die Signalstärke dort hoch genug, autonomes Fahren also möglich ist.

Aber der Prototyp kann noch viel mehr, beispielsweise mit dem Feature RSSI (Received Signal Strength Indicator) Routing: Mashzone NextGen rechnet für Dresden Routen mit der besten Signalstärke aus. Es wird dargestellt, wie die sogenannte Line-of-Sights-Propagation, also die geradlinige Ausbreitung der Signale zum Empfänger, ist. Denn der Anwender will auch bei unübersichtlichen Kreuzungen „sehen“, wo es Hindernisse für ein gute Signalstärke gibt.

Der Prototyp visualisiert aber auch die Zugriffe auf Edge Clouds. Dort, wo Autos nicht direkt miteinander kommunizieren können, fragen sie Infos aus Edge Clouds ab, die zuvor andere Autosysteme dorthin gemeldet haben. Das funktioniert über RSUs Road Side Unites (RSUs), am Straßenrand installierte Hardware, die Mashzone NextGen über genaue Koordinaten anzeigt.

Unfallrisiken abschätzen

Cartox2 kann auch Unfallschwerpunkte identifizieren. Sie entstehen bei mangelnder Funkabdeckung vor allem für hochautomatisierte Fahrzeuge.

Und mehr noch: Mit einem Klick auf einen Unfallort erhält der Anwender Informationen darüber, wer wann unter welchen Bedingungen und mit welchem Fahrzeug einen Unfall verursacht hat. Die Cartox²-Serviceplattform versetzt Unfallforscher in die Lage, bereits bekannte Unfallschwerpunkte nach neuen Kriterien zu bewerten und Risiken abzuschätzen. Außerdem soll es zukünftig möglich werden, bisher unbekannte Unfallschwerpunkte, die mit den kommenden Fahrzeuggenerationen entstehen, zu prognostizieren.

Fit für das urbanes, autonomes Fahren

Die Vorteile einer solchen Visualisierung und die potenziellen Benutzertypen liegen auf der Hand: Entscheider in Kommunen können mit Cartox2 ihre Stadt fit für das autonome Fahren machen. Signalstärken lassen sich erfassen und optimieren. Der Verkehr kann bei schwacher Signalstärke, bei Unfällen oder hohem Verkehrsaufkommen schneller umgeleitet werden. Unfälle lassen sich durch die gesammelten und visualisierten Daten durch gezielte Verkehrslenkung ebenso vermeiden wie ein erhöhter CO2-Ausstoß.

Auch Busunternehmer profitieren von dem System. Sie erhalten Aufschluss darüber, welche Route beim autonomen Fahren ökonomisch und ökologisch sinnvoll ist und können in Absprache mit der Kommune ihre Routen planen.

Diese wertvollen Daten werden öffentlich und leicht zugänglich sein, auch für Bürgerinitiativen mit ihren lokalen Anliegen.

Die Use Cases sind vielversprechend und die Potenziale dieser Plattform längst nicht ausgeschöpft. Wir dürfen gespannt sein, welche Rolle Cartox2 mit der Mahzone NextGen-Anwendung in der Zukunft des autonomen Fahrens spielen wird.

Projektpartner

• Fraunhofer Institut für Verkehrs- und Infrastruktursysteme IVI

• CETECOM GmbH, Essen

• hrd.consulting, Dresden

• MechLab Engineering UG, Dresden

• Software AG

• Technische Universität Dresden, Professur für Informationstechnik für Verkehrssysteme

Mehr zu Cartox2 erfahren:

Flyer: Alle Infos auf einen Blick

Projektseite beim Bundesministerium für Verkehr und digitale Infrastruktur

Teilen: