von Gabriele Müller-Steinhagen | Jan 27, 2020 | Neu
Interview mit Andrea Bürck, Head of Sales bei TYMLEZ
Frau Bürck, Sie arbeiten beim deutsch-niederländischen Blockchain-Start-up TYMLEZ und waren auch bei der diesjährigen InnovationTour dabei. Können Sie uns erklären, was TYMLEZ macht und wie Sie mit der Software AG zusammenarbeiten?
A. Bürck: Die TYMLEZ Solution Plattform nutzt Blockchain, eine der wichtigsten Digitalisierungstechnologien, um sie für Unternehmen nutzbar zu machen. Einzigartig bei TYMLEZ sind vor allem die stark vorkonfigurierte Plattform, mit der ein Kunde mühelos mit seinem ersten Projekt starten kann. Außerdem bietet TYMLEZ eine hohe Integration mit verschiedenen SAP-Services wie zum Beispiel der neuen Hochgeschwindigkeitsdatenbank SAP HANA.
Unsere Partnerschaft mit der Software AG beruht darauf, dass die beiden Trendthemen IoT und Blockchain immer mehr zusammenwachsen. Ein Beispiel ist Track and Trace: Bringt man an Produkte oder Güter Sensoren an, senden diese Daten, die mithilfe einer IoT-Plattform wie Cumulocity ausgewertet werden können. Diese Daten können mit TYMLEZ in der Blockchain abgelegt, dort sicher vor Manipulation gespeichert und von dort weiterverarbeitet werden. So kann der Hersteller der Güter in unserem Beispiel sicher sein, dass diese in den verschiedenen Bearbeitungsschritten nicht manipuliert worden sind, was sehr wichtig für die Qualitätssicherung ist.
Auf der InnovationTour haben Sie den Besuchern der Ausstellung mehrere Showcases mit TYMLEZ gezeigt, die die für viele noch immer abstrakte Blockchain-Technologie veranschaulichten. Können Sie ein Beispiel nennen?
A. Bürck: Gern! Einer unserer Showcases stammt aus dem Healthcare-Bereich: Das niederländische Unternehmen Nico.lab entwickelte auf Basis von TYMLEZ eine KI- und Blockchain-basierte Lösung für Krankenhäuser zur besonders schnellen Behandlung von Schlaganfallpatienten bei gleichzeitig höchster Datensicherheit. Die Kombination von KI und Blockchain unterstützt die Ärzte bei der Auswertung von Hirn-Scans und trägt dazu bei, das Risiko einer Verschlechterung der Folgen für die Patienten deutlich zu verringern.
Zeit und Sicherheit sind bei Schlaganfällen ein sehr bedeutender Faktor. Aus diesem Grund ist die Blockchain für medizinische Einsatzgebiete geradezu prädestiniert.
Welche Entwicklungsschritte sehen Sie in naher Zukunft für Ihre eigene Branche?
A. Bürck: Blockchain wird in Zukunft eine ebenso große Rolle spielen wie das Internet. Denn was das Internet für Informationen ist, ist die Blockchain für Transaktionen.
Allein, dass die Bundesregierung einen Blockchain-Hub ins Leben rief spricht für sich: Der Einsatz der Blockchain ist im Grunde überall in solchen Bereichen denkbar, in denen es auf Transparenz für die Beteiligten einer Lieferkette oder eines Workflows ankommt, auf hohe Geschwindigkeit und größte Sicherheit in der Datenverarbeitung. Ich bin sicher, wir werden in naher Zukunft Blockchain in Bereichen wie der Verwaltung, in der medizinischen Versorgung oder auch beim Thema Digital Passport sehen. Da unterschiedliche Blockchains sich zunehmend miteinander verweben, wird diese Technologie ein ähnliches Netzwerk bilden wie das Internet.
Vielen Dank, Frau Bürck, für Ihre Zeit und die Hintergründe zur Zukunftstechnologie Blockchain!
von Oliver Edinger | Nov 13, 2018 | Allgemein
Künstliche Intelligenz (KI) und das Internet der Dinge (IoT) wachsen mit der Digitalisierung immer weiter zusammen. Dabei übernimmt Edge Computing eine immer wichtigere Rolle.
In der heutigen Arbeitslandschaft sind Sensoren und Analytik-Lösungen oftmals noch voneinander getrennt. Doch immer mehr Experten sprechen sich für eine Verbindung von beidem aus. Dabei wird die Intelligenz, die aus Sensordaten gewonnen wird, so wichtig werden, dass sich auch IoT-Plattformen in diese Richtung weiterentwickeln werden. Hinzu kommt die Erweiterung von zentralen IoT-Umgebungen um sogenanntes Edge Computing. Hierunter versteht man die analytische (Vor-)verarbeitung von Daten möglichst nah an ihrer Quelle.
Die Ergänzung um Edge Computing
Je ausgefeilter die von IoT unterstützten Anwendungsfälle werden sollen, umso mehr Analytik wird dafür benötigt. Je mehr Intelligenz in digitale Prozesse einfließt, die sich auf Echtzeitdaten (Near Real Time) stützt, umso entscheidender wird auch das Zusammenspiel der zentralen IoT-Umgebung mit der Edge.
Die zentrale IoT-Umgebung übernimmt initial die Aufgabe, die Daten aus der dinglichen Welt über Sensorik aufzunehmen und so bereit zu stellen, dass damit Algorithmen aufgebaut werden können. Diese werden dann von der zentralen IoT-Umgebung an die Edge „transportiert“, wo sie gegen die aktuellen Datenflüsse ausgeführt werden. Auftretende Ereignisse (zum Beispiel negative Korrelationen von Schwingung und Betriebstemperatur einer Maschine) werden dann an das zentrale IoT-System gemeldet und dort im Zusammenspiel mit den prozessführenden Fachanwendungssystemen weiterverarbeitet. Das „Trainieren“, also das kontinuierliche Verbessern der Algorithmen, erfolgt ebenfalls unter Einsatz der zentralen IoT-Umgebung. Zum Beispiel nutzt diese hierfür dann nur noch Daten aus einem Subset der angeschlossenen Maschinen einer gleichen Baureihe.
Dieser verteilte Ansatz ist vorteilhaft, wenn die Übertragung von Daten zu einer zentralen IoT-Umgebung mit für den Business Case unangemessenen hohen Kosten (zum Beispiel für verbrauchte Bandbreite) verbunden ist. Zum anderen ist er für IoT-Anwendungszenarien relevant, die eine deterministische Echtzeitkommunikation in Millisekunden erfordern. Hier können Daten aus Latenz-Gründen zur Verarbeitung nicht erst an eine zentrale IoT-Umgebung weitergegeben werden.
Eine Kombination ist gefragt
IoT-Architekturen sind heute horizontal verteilt. Es gibt neben der zentralen IoT-Umgebung noch Edge-Computing-Einheiten mit Use Case spezifischer Rechenkapazität. Des Weiteren ist auch die nahtlose Verzahnung der zentralen IoT-Umgebung mit den prozessführenden Fachanwendungen wichtig. Denn das Zusammenführen von Daten aus der dinglichen Welt mit Daten aus der Prozesswelt liefert oftmals deutlich bessere Ergebnisse beim Aufbau (und gegebenenfalls Ausführung) von belastbaren Algorithmen.
Die Nutzung von Edge Computing im IoT erfordert aber eine neue Klasse von intelligenter Hardware. Diese muss nicht nur auf die Nutzungsumgebung (zum Beispiel Staub, Erschütterungen) hin ausgerichtet und abgesichert sein. Diese Geräte sollten auch aufwandsarm mit den verschiedenen dinglichen Datenquellen sowie mit der zentralen IoT-Plattform verbunden werden können. Die Edge Gateways müssen des Weiteren leistungsstark genug sein, um lokal intelligente Anwendungen ausführen zu können. Und da diese Geräte im „Feld“ verbaut sind, müssen sie von einem zentralen Ort aus verwaltbar sein. Neue Software aber auch neue lokale Verarbeitungslogik muss einfach eingespielt werden können.
Informationen zu Cumulocity IoT, der IoT-Plattform der Software AG, erhalten Sie hier.
von Steffen Lorenz | Okt 10, 2018 | Events
Vom 22. bis 25. Oktober findet in Sydney die SIBOS 2018 statt. Rund 8.000 Teilnehmer aus der Banken- und Fintech-Welt kommen zusammen und diskutieren die weitreichenden Veränderungen bei Banken und Finanzdienstleistern, die sich durch die Digitalisierung ergeben. Die Veranstaltung steht dieses Jahr unter dem Motto „Enabling the digital economy“.
Die Digitalisierung ist nichts Neues und ein Großteil der Banken reagiert bereits auf die Neuerungen, die sie mit sich bringt: Dazu gehören Programme zur Entwicklung von Plattformen, neue Partnerschaften und die Umsetzung von Real-time-Zahlungen. Zudem gibt es zahlreiche Anstrengungen, um Use Cases auf Basis der Blockchain neu zu definieren – beispielsweise bei der Abwicklung von Wertpapiergeschäften oder für Trade Finance. Selbst das Internet of Things findet langsam Einzug in Produkte und Services von Banken. Entsprechend finden sich Trendhemen wie Echtzeit-Zahlungen, Open/API Banking, Blockchain und Cyber Security im Konferenzprogramm der SIBOS wieder. Darüber hinaus beschäftigt sich die Veranstaltung mit den Fragen, welche großen neuen Themen am Horizont auftauchen und wie sich die Branche mittelfristig, das heißt in fünf bis zehn Jahren, verändert.
Eine Reise in die Zukunft
Ein guter Indikator für relevante Trends ist das Programm von Innotribe – einer Initiative der Gesellschaft SWIFT, das innovative Kollaborationen bei Finanzdienstleistungen fördert. In Sydney macht SWIFT Innotribe einen Sprung in das Jahr 2030. Dabei behandelt jeder Tag der SIBOS ein anderes Thema: Am ersten Tag geht es darum, wie durch Dezentralisierung das Vertrauen in Banken beziehungsweise Bankgeschäfte gestärkt werden kann. Was bedeutet es, wenn Individuen ihre eigenen Daten kontrollieren und bestimmen, wie diese Daten genutzt werden? Am zweiten Tag steht die mögliche Nutzung von Quantencomputern im Fokus – anstelle des typischen Themas Verschlüsselung, zeigt Innotribe, welche praktischen Anwendungen und Fähigkeiten die Technologie darüber hinaus für Banken bereithält. Am dritten Tag geht es um Vernetzung („Interconnectedness of everything“), also darum, wie das Internet of Things und Künstliche Intelligenz (KI) Entscheidungen unterstützen. Schließlich bilden diese drei Bereiche die Grundlage für eine Diskussion darüber, wie die Gesellschaft in Zukunft aussehen wird und wie die Menschen im Jahr 2030 mit diesen Technologien umgehen werden.
Spannend wird bei allen Diskussionen die Frage sein, wie sich diese neuen Ansätze in die bestehenden Prozesse und IT-Landschaften der Banken integrieren lassen. Denn eines ist sicher: Keine Bank fängt auf einer grünen Wiese an. Die Integration von Daten und die Automatisierung von Prozessen über Systemgrenzen hinweg werden einmal mehr die zentralen Enabler des technischen und sozialen Wandels sein. Aber wie lassen sich diese Transformationsprogramme steuern und verwalten? Neue Skills bei Mitarbeitern und Dienstleistern sind erforderlich, um im Projekt und später in der Produktion erfolgreich zu sein.
Die Software AG wird die SIBOS in Sydney besuchen und anschließend die wichtigsten Diskussionen und Themen der Veranstaltung in einem weiteren Beitrag zusammenfassen.
Erfahren Sie hier mehr über die Innovationen, die die Software AG in der Finanzbranche umsetzt.
von Steffen Lorenz | Aug 10, 2018 | Allgemein
Keine Frage: Künstliche Intelligenz (KI) ist derzeit eines der populärsten Trendthemen. Mit unzähligen Beispielen wird verdeutlicht, welche bahnbrechenden Entwicklungen wir zukünftig zu erwarten haben. Da wird optimistisch über selbstfahrende Autos und Drohnen spekuliert oder es werden Roboter gezeigt, die bald Arbeiten im Warenlager und bei der Altenpflege übernehmen. Und es gibt beunruhigende Szenarien von autonomen Kampfrobotern und der totalen (Video-) Überwachung von Aktivitäten im öffentlichen Raum, die sofort Erinnerungen an den Roman „1984“ hervorrufen.
Auch in der Versicherungsbranche kommt KI bereits zum Einsatz. Die Auswirkungen sind weniger spektakulär, aber nicht minder weitreichend. Schon heute gibt es zahlreiche Beispiele, welche die Richtung vorgeben:
- Im Vertrags- und Bestandsmanagement kann sich der Kunde an einen Chatbot wenden (z.B. Uniqa ServiceBot), um sich über die verfügbaren Versicherungsprodukte zu informieren. Dies geschieht nicht nur, um die Mitarbeiter der Versicherung zu entlasten, sondern auch, um eine spezielle Zielgruppe zu adressieren: Menschen, die sich nicht mehr unbedingt mit anderen Menschen unterhalten wollen, sondern den asynchronen Dialog mit einem Algorithmus vorziehen.
- Im Schadenmanagement werden für proaktive Schadensregulierungen bzw. Sofortregulierungen Algorithmen eingesetzt, um mit weniger Arbeitsaufwand (also Kosten) schneller Entscheidungen treffen zu können. Das Ziel dabei ist es, den Kunden zeitnah auszahlen zu können und an die eigene Versicherung zu binden. Bei Massenregulierungen, etwa nach einem Hagelsturm, können Algorithmen die Bilder der Schäden oder die Scans der beschädigten Karosserien mittlerweile mindestens so gut beurteilen wie Menschen. In jedem Fall können sie es schneller und ermüdungsfrei – bis zu 24 Stunden pro Tag.
- Der Einsatz vernetzter Geräte (Internet of Things) wird mehr und mehr für die Bereitstellung von verhaltensbasierten Policen genutzt. Bei Krankenversicherungen kann das die Kontrolle sein, ob sich ein Patient an den verordneten Therapieplan hält. Fitness-Tracker werden mehr und mehr eingesetzt, um Versicherte zu einem gesünderen Lebensstil zu animieren. In beiden Fällen sind Algorithmen notwendig, um aus der Fülle an Daten relevante Einzelereignisse oder unerwünschte Entwicklungen zu identifizieren und schnellstmöglich darauf zu reagieren.
- Im Bereich der internen IT ist schon heute das Abwehren von Cyberangriffen ohne den Einsatz von Algorithmen kaum noch vorstellbar. Bei geschätzten 600 Millionen Angriffen täglich wird schnell deutlich, dass Menschen alleine hoffnungslos überfordert sind und deshalb der Einsatz von KI unbedingt notwendig ist.
Diese Beispiele stellen nur den Anfang einer Entwicklung dar, die sich in den nächsten Jahren noch beschleunigen wird. Die Konsequenzen davon sind vielfältig:
- Versicherungen werden zukünftig proaktiver entscheiden und handeln als in der Vergangenheit. Der Blick in den Rückspiegel weicht dem Blick durch die Windschutzscheibe.
- Versicherungen werden Produkte viel stärker als heute auf Basis individueller Risiken und Verhaltensweise entwickeln und mit Preisen belegen, die nicht mehr pauschal für ein Jahr gelten, sondern für kürzere Zeiträume und personenbezogene Anforderungen.
- Die Bedürfnisse des Kunden bei der Interaktion mit der Versicherung (Customer Experience) werden noch stärker in den Mittelpunkt treten. Der Kunde wird individuell und ganzheitlich gesehen und bekommt in Echtzeit Rückmeldungen von seiner Versicherung.
Dafür müssen sich Versicherungen umfassend auf die Nutzung von Künstlicher Intelligenz vorbereiten. Dies beinhaltet:
- Organisation: Versicherungen müssen noch mehr internes KI-Know-how entwickeln und bereitstellen. Dem „Data Scientist“ kommt dabei eine zentrale Rolle zu. Zudem müssen Versicherungen ihre Mitarbeiter von Routinetätigkeiten entlasten, sodass diese zusammen mit Data Scientists an der Umsetzung der KI arbeiten können. Durch diese Freiräume für neue Innovationen können durchaus erste, kleinere KI-Projekte entstehen.
- IT: Versicherungen brauchen leistungsfähige IT-Plattformen, um KI erfolgreich einzusetzen. Das beste Modell eines Data Scientists nützt wenig, wenn es nicht in der Praxis eingesetzt werden kann. Das Modell muss mit echten Stammdaten, Daten des Kunden sowie externen Daten (beispielsweise Wetter-Daten) versorgt werden, um Entscheidungen unterstützen zu können. Es muss sozusagen „die letzte Meile“ überwinden.
- Daten-Governance: Die IT-Plattform muss um eine entsprechende Daten-Governance ergänzt werden, die beschreibt, wo die Daten herkommen (aus dem eigenen Haus oder von extern) und wie und von wem die Daten verwendet werden. Schließlich muss sichergestellt sein, dass Datenqualität und Datenschutz gewährleistet sind. Nur wenn Daten klassifiziert sind, können sie für das Trainieren von Modellen (insbesondere Neuronale Netzwerke) eingesetzt werden.
Versicherungen müssen flexibel sein
Die Auswirkungen von KI auf Versicherungen werden massiv sein. Die aufgezeigten Anwendungsfälle sind nur der Anfang einer Entwicklung, die alle Sparten und alle Produkte der Versicherungen betreffen wird. Heute sind weder das genaue Zielbild noch der optimale Weg dorthin bekannt. Daher gilt es, sich so flexibel wie möglich aufzustellen. So verbaut sich die Versicherung nicht den Weg in eine von Algorithmen dominierte Zukunft.
Mehr über die Digitale Transformation von Versicherungen lesen Sie hier.
von Dr. Michael Zeller | Aug 2, 2018 | Allgemein
Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.
Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.
KI ist in der Praxis angekommen
Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.
Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.
Fachkräftemangel als größte Herausforderung
Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.
Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.
Keine Zeit zu verlieren
Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.
Hier erfahren Sie mehr über die KI-Angebote der Software AG.