„Was das Internet für Informationen ist, ist die Blockchain für Transaktionen“

„Was das Internet für Informationen ist, ist die Blockchain für Transaktionen“

Interview mit Andrea Bürck, Head of Sales bei TYMLEZ

Frau Bürck, Sie arbeiten beim deutsch-niederländischen Blockchain-Start-up TYMLEZ und waren auch bei der diesjährigen InnovationTour dabei. Können Sie uns erklären, was TYMLEZ macht und wie Sie mit der Software AG zusammenarbeiten?

A. Bürck: Die TYMLEZ Solution Plattform nutzt Blockchain, eine der wichtigsten Digitalisierungstechnologien, um sie für Unternehmen nutzbar zu machen. Einzigartig bei TYMLEZ sind vor allem die stark vorkonfigurierte Plattform, mit der ein Kunde mühelos mit seinem ersten Projekt starten kann. Außerdem bietet TYMLEZ eine hohe Integration mit verschiedenen SAP-Services wie zum Beispiel der neuen Hochgeschwindigkeitsdatenbank SAP HANA.
Unsere Partnerschaft mit der Software AG beruht darauf, dass die beiden Trendthemen IoT und Blockchain immer mehr zusammenwachsen. Ein Beispiel ist Track and Trace: Bringt man an Produkte oder Güter Sensoren an, senden diese Daten, die mithilfe einer IoT-Plattform wie Cumulocity ausgewertet werden können. Diese Daten können mit TYMLEZ in der Blockchain abgelegt, dort sicher vor Manipulation gespeichert und von dort weiterverarbeitet werden. So kann der Hersteller der Güter in unserem Beispiel sicher sein, dass diese in den verschiedenen Bearbeitungsschritten nicht manipuliert worden sind, was sehr wichtig für die Qualitätssicherung ist.

Auf der InnovationTour haben Sie den Besuchern der Ausstellung mehrere Showcases mit TYMLEZ gezeigt, die die für viele noch immer abstrakte Blockchain-Technologie veranschaulichten. Können Sie ein Beispiel nennen?

A. Bürck: Gern! Einer unserer Showcases stammt aus dem Healthcare-Bereich: Das niederländische Unternehmen Nico.lab entwickelte auf Basis von TYMLEZ eine KI- und Blockchain-basierte Lösung für Krankenhäuser zur besonders schnellen Behandlung von Schlaganfallpatienten bei gleichzeitig höchster Datensicherheit. Die Kombination von KI und Blockchain unterstützt die Ärzte bei der Auswertung von Hirn-Scans und trägt dazu bei, das Risiko einer Verschlechterung der Folgen für die Patienten deutlich zu verringern.
Zeit und Sicherheit sind bei Schlaganfällen ein sehr bedeutender Faktor. Aus diesem Grund ist die Blockchain für medizinische Einsatzgebiete geradezu prädestiniert.

Welche Entwicklungsschritte sehen Sie in naher Zukunft für Ihre eigene Branche?

A. Bürck: Blockchain wird in Zukunft eine ebenso große Rolle spielen wie das Internet. Denn was das Internet für Informationen ist, ist die Blockchain für Transaktionen.
Allein, dass die Bundesregierung einen Blockchain-Hub ins Leben rief spricht für sich: Der Einsatz der Blockchain ist im Grunde überall in solchen Bereichen denkbar, in denen es auf Transparenz für die Beteiligten einer Lieferkette oder eines Workflows ankommt, auf hohe Geschwindigkeit und größte Sicherheit in der Datenverarbeitung. Ich bin sicher, wir werden in naher Zukunft Blockchain in Bereichen wie der Verwaltung, in der medizinischen Versorgung oder auch beim Thema Digital Passport sehen. Da unterschiedliche Blockchains sich zunehmend miteinander verweben, wird diese Technologie ein ähnliches Netzwerk bilden wie das Internet.

Vielen Dank, Frau Bürck, für Ihre Zeit und die Hintergründe zur Zukunftstechnologie Blockchain!

Teilen:
Die Annäherung zwischen KI und IoT

Die Annäherung zwischen KI und IoT

Künstliche Intelligenz (KI) und das Internet der Dinge (IoT) wachsen mit der Digitalisierung immer weiter zusammen. Dabei übernimmt Edge Computing eine immer wichtigere Rolle.

In der heutigen Arbeitslandschaft sind Sensoren und Analytik-Lösungen oftmals noch voneinander getrennt. Doch immer mehr Experten sprechen sich für eine Verbindung von beidem aus. Dabei wird die Intelligenz, die aus Sensordaten gewonnen wird, so wichtig werden, dass sich auch IoT-Plattformen in diese Richtung weiterentwickeln werden. Hinzu kommt die Erweiterung von zentralen IoT-Umgebungen um sogenanntes Edge Computing. Hierunter versteht man die analytische (Vor-)verarbeitung von Daten möglichst nah an ihrer Quelle.

Die Ergänzung um Edge Computing

Je ausgefeilter die von IoT unterstützten Anwendungsfälle werden sollen, umso mehr Analytik wird dafür benötigt. Je mehr Intelligenz in digitale Prozesse einfließt, die sich auf Echtzeitdaten (Near Real Time) stützt, umso entscheidender wird auch das Zusammenspiel der zentralen IoT-Umgebung mit der Edge.

Die zentrale IoT-Umgebung übernimmt initial die Aufgabe, die Daten aus der dinglichen Welt über Sensorik aufzunehmen und so bereit zu stellen, dass damit Algorithmen aufgebaut werden können. Diese werden dann von der zentralen IoT-Umgebung an die Edge „transportiert“, wo sie gegen die aktuellen Datenflüsse ausgeführt werden. Auftretende Ereignisse (zum Beispiel negative Korrelationen von Schwingung und Betriebstemperatur einer Maschine) werden dann an das zentrale IoT-System gemeldet und dort im Zusammenspiel mit den prozessführenden Fachanwendungssystemen weiterverarbeitet. Das „Trainieren“, also das kontinuierliche Verbessern der Algorithmen, erfolgt ebenfalls unter Einsatz der zentralen IoT-Umgebung. Zum Beispiel nutzt diese hierfür dann nur noch Daten aus einem Subset der angeschlossenen Maschinen einer gleichen Baureihe.

Dieser verteilte Ansatz ist vorteilhaft, wenn die Übertragung von Daten zu einer zentralen IoT-Umgebung mit für den Business Case unangemessenen hohen Kosten (zum Beispiel für verbrauchte Bandbreite) verbunden ist. Zum anderen ist er für IoT-Anwendungszenarien relevant, die eine deterministische Echtzeitkommunikation in Millisekunden erfordern. Hier können Daten aus Latenz-Gründen zur Verarbeitung nicht erst an eine zentrale IoT-Umgebung weitergegeben werden.

Eine Kombination ist gefragt

IoT-Architekturen sind heute horizontal verteilt. Es gibt neben der zentralen IoT-Umgebung noch Edge-Computing-Einheiten mit Use Case spezifischer Rechenkapazität. Des Weiteren ist auch die nahtlose Verzahnung der zentralen IoT-Umgebung mit den prozessführenden Fachanwendungen wichtig. Denn das Zusammenführen von Daten aus der dinglichen Welt mit Daten aus der Prozesswelt liefert oftmals deutlich bessere Ergebnisse beim Aufbau (und gegebenenfalls Ausführung) von belastbaren Algorithmen.

Die Nutzung von Edge Computing im IoT erfordert aber eine neue Klasse von intelligenter Hardware. Diese muss nicht nur auf die Nutzungsumgebung (zum Beispiel Staub, Erschütterungen) hin ausgerichtet und abgesichert sein. Diese Geräte sollten auch aufwandsarm mit den verschiedenen dinglichen Datenquellen sowie mit der zentralen IoT-Plattform verbunden werden können. Die Edge Gateways müssen des Weiteren leistungsstark genug sein, um lokal intelligente Anwendungen ausführen zu können. Und da diese Geräte im „Feld“ verbaut sind, müssen sie von einem zentralen Ort aus verwaltbar sein. Neue Software aber auch neue lokale Verarbeitungslogik muss einfach eingespielt werden können.

Informationen zu Cumulocity IoT, der IoT-Plattform der Software AG, erhalten Sie hier.

Teilen:
SIBOS 2018 – das Geschäftsforum für die globale Finanzgemeinde

SIBOS 2018 – das Geschäftsforum für die globale Finanzgemeinde

Vom 22. bis 25. Oktober findet in Sydney die SIBOS 2018 statt. Rund 8.000 Teilnehmer aus der Banken- und Fintech-Welt kommen zusammen und diskutieren die weitreichenden Veränderungen bei Banken und Finanzdienstleistern, die sich durch die Digitalisierung ergeben. Die Veranstaltung steht dieses Jahr unter dem Motto „Enabling the digital economy“.

Die Digitalisierung ist nichts Neues und ein Großteil der Banken reagiert bereits auf die Neuerungen, die sie mit sich bringt: Dazu gehören Programme zur Entwicklung von Plattformen, neue Partnerschaften und die Umsetzung von Real-time-Zahlungen. Zudem gibt es zahlreiche Anstrengungen, um Use Cases auf Basis der Blockchain neu zu definieren – beispielsweise bei der Abwicklung von Wertpapiergeschäften oder für Trade Finance. Selbst das Internet of Things findet langsam Einzug in Produkte und Services von Banken. Entsprechend finden sich Trendhemen wie Echtzeit-Zahlungen, Open/API Banking, Blockchain und Cyber Security im Konferenzprogramm der SIBOS wieder. Darüber hinaus beschäftigt sich die Veranstaltung mit den Fragen, welche großen neuen Themen am Horizont auftauchen und wie sich die Branche mittelfristig, das heißt in fünf bis zehn Jahren, verändert.

Eine Reise in die Zukunft

Ein guter Indikator für relevante Trends ist das Programm von Innotribe – einer Initiative der Gesellschaft SWIFT, das innovative Kollaborationen bei Finanzdienstleistungen fördert. In Sydney macht SWIFT Innotribe einen Sprung in das Jahr 2030. Dabei behandelt jeder Tag der SIBOS ein anderes Thema: Am ersten Tag geht es darum, wie durch Dezentralisierung das Vertrauen in Banken beziehungsweise Bankgeschäfte gestärkt werden kann. Was bedeutet es, wenn Individuen ihre eigenen Daten kontrollieren und bestimmen, wie diese Daten genutzt werden? Am zweiten Tag steht die mögliche Nutzung von Quantencomputern im Fokus – anstelle des typischen Themas Verschlüsselung, zeigt Innotribe, welche praktischen Anwendungen und Fähigkeiten die Technologie darüber hinaus für Banken bereithält. Am dritten Tag geht es um Vernetzung („Interconnectedness of everything“), also darum, wie das Internet of Things und Künstliche Intelligenz (KI) Entscheidungen unterstützen. Schließlich bilden diese drei Bereiche die Grundlage für eine Diskussion darüber, wie die Gesellschaft in Zukunft aussehen wird und wie die Menschen im Jahr 2030 mit diesen Technologien umgehen werden.

Spannend wird bei allen Diskussionen die Frage sein, wie sich diese neuen Ansätze in die bestehenden Prozesse und IT-Landschaften der Banken integrieren lassen. Denn eines ist sicher: Keine Bank fängt auf einer grünen Wiese an. Die Integration von Daten und die Automatisierung von Prozessen über Systemgrenzen hinweg werden einmal mehr die zentralen Enabler des technischen und sozialen Wandels sein. Aber wie lassen sich diese Transformationsprogramme steuern und verwalten? Neue Skills bei Mitarbeitern und Dienstleistern sind erforderlich, um im Projekt und später in der Produktion erfolgreich zu sein.

Die Software AG wird die SIBOS in Sydney besuchen und anschließend die wichtigsten Diskussionen und Themen der Veranstaltung in einem weiteren Beitrag zusammenfassen.

Erfahren Sie hier mehr über die Innovationen, die die Software AG in der Finanzbranche umsetzt.

Teilen:
Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
Robotic Process Automation – Erfolgsfaktor im Bankensektor

Robotic Process Automation – Erfolgsfaktor im Bankensektor

Seit Jahren steht bei deutschen Banken eine zentrale Frage im Vordergrund: Wie können die Kosten gesenkt werden, um zu den führenden internationalen Finanzhäusern aufzuschließen? Der wirkungsvollste Hebel dafür sind die Betriebskosten, da sie diese selbst beeinflussen können. Um diesen zu betätigen, entscheiden sich Banken für günstigeres Personal, die Verlagerung an kosteneffizientere Standorte oder Outsourcing in Near- oder Offshore-Zentren. Dem eigentlichen Kern des Problems – ineffizienten und teilweise manuellen Prozessen – hat man sich noch nicht ausreichend angenähert.

Mit Robotic Process Automation (RPA) hat sich innerhalb weniger Jahre ein Nischenprodukt zu einer validen Alternative für die Automatisierung und Optimierung von Abläufen entwickelt. Nach Schätzungen von Capgemini belaufen sich die Kosten für RPA nur etwa auf ein Drittel der Kosten einer Offshore-Ressource und nur etwa auf ein Fünftel einer Onshore-Ressource. McKinsey schätzt, dass in den nächsten Jahren etwa zehn bis 25 Prozent der Arbeit über alle Bankfunktionen hinweg von Maschinen übernommen wird. Für die Banken hat dies den Vorteil, dass sie Betriebskosten senken können und gleichzeitig den Mitarbeitern wieder mehr Zeit für Tätigkeiten wie beispielsweise Kundenservice und Innovationsprojekte zur Verfügung steht.

Den Anwendungsfeldern von RPA sind (fast) keine Grenzen gesetzt

Doch wo sollen Banken anfangen – bei den Klassikern im Front Office wie der Kontoeröffnung oder dem Kreditantrag? Oder bei Back-Office-Prozessen, etwa bei einem Geldwäsche-Verdachtsfall? Die Antwort lautet: sowohl als auch. Einsatzbereiche für RPA lassen sich in allen Bereichen der Bank finden, angefangen bei Tätigkeiten im Kundenservice (Verarbeitung eingehenden Schriftverkehrs der Kunden, Widersprüche, Wohnortwechsel), über Operations (falsche Kreditraten, nicht gezahlte Kreditkartenabrechnungen, überzogene Konten, Vertragsverlängerungen) und Compliance (Prüfungen bei Kontoauflösungen) bis in die Finanzabteilung (Rechnungseingang, Personalabrechnung, Kontoabgleich) und die IT (Bearbeitung einfacher Tickets wie etwa das Zurücksetzen von Passwörtern).

Roboter – allzeit einsatzbereit

In allen genannten Bereichen lassen sich Beispiele finden, bei denen Mitarbeiter mit verschiedenen Systemen arbeiten und Daten vom einen in das andere System übertragen müssen. Da nicht immer eine automatische Datenschnittstelle zur Verfügung steht, müssen sie sich mit Copy-and-Paste oder MS-Office selber helfen. Dies ist nicht nur eine langsame, sondern auch eine fehleranfällige Methode. RPA spielt immer dann seine Stärken aus, wenn Aufgaben routineartig durchzuführen sind, also mit einfachen Regeln, wenigen Ausnahmen und mittleren bis hohen Volumina. Der große Vorteil ist, dass ein Roboter im Vergleich zum Menschen nicht ermüdet oder unkonzentriert wird und seine Aufgabe ohne Pausen rund um die Uhr erledigen kann.

Um RPA erfolgreich einzusetzen, sollten folgende Aspekte beachtet werden:

  1. Der Roboter sollte für eine vollumfängliche (end-to-end) Automation von Prozessen eingesetzt werden. Dazu bietet sich der kombinierte Einsatz von RPA und BPMS (Business Process Management System) an, womöglich zusammen mit Künstlicher Intelligenz (KI). Dieser Aspekt wurde bereits von Matthias Rippert in einem vorangegangenen Blog-Beitrag erläutert.
  2. Der Roboter sollte in der Lage sein, unter Aufsicht („attended“, das heißt vom Benutzer gestartet), ohne Aufsicht („unattended“, also automatisch gestartet) und kombiniert („hybrid“) zu arbeiten. So lässt sich die gesamte Bandbreite an Automatisierungsaufgaben abdecken.
  3. Der Roboter muss ein breites Spektrum an vorhandenen Systemen bedienen können. Dies beinhaltet Systeme, die auf dem Mainframe, unter Linux/Unix, Windows oder Citrix laufen. Zudem muss ein Roboter in der Lage sein, mit Dokumenten umzugehen, um handschriftlich eingereichte Informationen in Systeme zu übertragen.

Bei der Auswahl eines geeigneten Use Cases und für eine erste Abschätzung des Nutzens von RPA bieten folgende Fragen Orientierung:

  • Welcher Anteil der Aufgaben in bestimmten Bereichen ist manuell? Wie häufig werden diese Tätigkeiten durchgeführt? Wie viel Zeit beanspruchen die Aufgaben?
  • Wie viele verschiedene Systeme werden von einem Mitarbeiter für die Ausführung der Aufgaben benötigt? Welche Technologien werden dafür verwendet?
  • Wie stark behindert die fehlende Integration von Systemen die Produktivität der Mitarbeiter? Wie viele Mitarbeiter sind davon betroffen?
  • Welche Vorteile würden entstehen, wenn die Mitarbeiter entlastet würden?
  • Welche Nachteile entstehen durch die fehlerhafte Bearbeitung der Aufgaben?

Mit RPA Prozesse optimieren und Betriebskosten senken

Zahlreiche internationale Geldinstitute haben bereits erfolgreiche RPA-Projekte durchgeführt und beweisen, dass hier echte Potenziale für eine Senkung der Betriebskosten liegen. Nun liegt es an den Banken hierzulande, mit eigenen, ganzheitlichen Ansätzen nachzuziehen.

Wenn Sie mehr über das RPA-Angebot der Software AG erfahren möchten, klicken Sie hier.

Teilen: