Robotic Process Automation – Erfolgsfaktor im Bankensektor

Robotic Process Automation – Erfolgsfaktor im Bankensektor

Seit Jahren steht bei deutschen Banken eine zentrale Frage im Vordergrund: Wie können die Kosten gesenkt werden, um zu den führenden internationalen Finanzhäusern aufzuschließen? Der wirkungsvollste Hebel dafür sind die Betriebskosten, da sie diese selbst beeinflussen können. Um diesen zu betätigen, entscheiden sich Banken für günstigeres Personal, die Verlagerung an kosteneffizientere Standorte oder Outsourcing in Near- oder Offshore-Zentren. Dem eigentlichen Kern des Problems – ineffizienten und teilweise manuellen Prozessen – hat man sich noch nicht ausreichend angenähert.

Mit Robotic Process Automation (RPA) hat sich innerhalb weniger Jahre ein Nischenprodukt zu einer validen Alternative für die Automatisierung und Optimierung von Abläufen entwickelt. Nach Schätzungen von Capgemini belaufen sich die Kosten für RPA nur etwa auf ein Drittel der Kosten einer Offshore-Ressource und nur etwa auf ein Fünftel einer Onshore-Ressource. McKinsey schätzt, dass in den nächsten Jahren etwa zehn bis 25 Prozent der Arbeit über alle Bankfunktionen hinweg von Maschinen übernommen wird. Für die Banken hat dies den Vorteil, dass sie Betriebskosten senken können und gleichzeitig den Mitarbeitern wieder mehr Zeit für Tätigkeiten wie beispielsweise Kundenservice und Innovationsprojekte zur Verfügung steht.

Den Anwendungsfeldern von RPA sind (fast) keine Grenzen gesetzt

Doch wo sollen Banken anfangen – bei den Klassikern im Front Office wie der Kontoeröffnung oder dem Kreditantrag? Oder bei Back-Office-Prozessen, etwa bei einem Geldwäsche-Verdachtsfall? Die Antwort lautet: sowohl als auch. Einsatzbereiche für RPA lassen sich in allen Bereichen der Bank finden, angefangen bei Tätigkeiten im Kundenservice (Verarbeitung eingehenden Schriftverkehrs der Kunden, Widersprüche, Wohnortwechsel), über Operations (falsche Kreditraten, nicht gezahlte Kreditkartenabrechnungen, überzogene Konten, Vertragsverlängerungen) und Compliance (Prüfungen bei Kontoauflösungen) bis in die Finanzabteilung (Rechnungseingang, Personalabrechnung, Kontoabgleich) und die IT (Bearbeitung einfacher Tickets wie etwa das Zurücksetzen von Passwörtern).

Roboter – allzeit einsatzbereit

In allen genannten Bereichen lassen sich Beispiele finden, bei denen Mitarbeiter mit verschiedenen Systemen arbeiten und Daten vom einen in das andere System übertragen müssen. Da nicht immer eine automatische Datenschnittstelle zur Verfügung steht, müssen sie sich mit Copy-and-Paste oder MS-Office selber helfen. Dies ist nicht nur eine langsame, sondern auch eine fehleranfällige Methode. RPA spielt immer dann seine Stärken aus, wenn Aufgaben routineartig durchzuführen sind, also mit einfachen Regeln, wenigen Ausnahmen und mittleren bis hohen Volumina. Der große Vorteil ist, dass ein Roboter im Vergleich zum Menschen nicht ermüdet oder unkonzentriert wird und seine Aufgabe ohne Pausen rund um die Uhr erledigen kann.

Um RPA erfolgreich einzusetzen, sollten folgende Aspekte beachtet werden:

  1. Der Roboter sollte für eine vollumfängliche (end-to-end) Automation von Prozessen eingesetzt werden. Dazu bietet sich der kombinierte Einsatz von RPA und BPMS (Business Process Management System) an, womöglich zusammen mit Künstlicher Intelligenz (KI). Dieser Aspekt wurde bereits von Matthias Rippert in einem vorangegangenen Blog-Beitrag erläutert.
  2. Der Roboter sollte in der Lage sein, unter Aufsicht („attended“, das heißt vom Benutzer gestartet), ohne Aufsicht („unattended“, also automatisch gestartet) und kombiniert („hybrid“) zu arbeiten. So lässt sich die gesamte Bandbreite an Automatisierungsaufgaben abdecken.
  3. Der Roboter muss ein breites Spektrum an vorhandenen Systemen bedienen können. Dies beinhaltet Systeme, die auf dem Mainframe, unter Linux/Unix, Windows oder Citrix laufen. Zudem muss ein Roboter in der Lage sein, mit Dokumenten umzugehen, um handschriftlich eingereichte Informationen in Systeme zu übertragen.

Bei der Auswahl eines geeigneten Use Cases und für eine erste Abschätzung des Nutzens von RPA bieten folgende Fragen Orientierung:

  • Welcher Anteil der Aufgaben in bestimmten Bereichen ist manuell? Wie häufig werden diese Tätigkeiten durchgeführt? Wie viel Zeit beanspruchen die Aufgaben?
  • Wie viele verschiedene Systeme werden von einem Mitarbeiter für die Ausführung der Aufgaben benötigt? Welche Technologien werden dafür verwendet?
  • Wie stark behindert die fehlende Integration von Systemen die Produktivität der Mitarbeiter? Wie viele Mitarbeiter sind davon betroffen?
  • Welche Vorteile würden entstehen, wenn die Mitarbeiter entlastet würden?
  • Welche Nachteile entstehen durch die fehlerhafte Bearbeitung der Aufgaben?

Mit RPA Prozesse optimieren und Betriebskosten senken

Zahlreiche internationale Geldinstitute haben bereits erfolgreiche RPA-Projekte durchgeführt und beweisen, dass hier echte Potenziale für eine Senkung der Betriebskosten liegen. Nun liegt es an den Banken hierzulande, mit eigenen, ganzheitlichen Ansätzen nachzuziehen.

Wenn Sie mehr über das RPA-Angebot der Software AG erfahren möchten, klicken Sie hier.

Teilen:
Die richtige Strategie im Asset- und Instandhaltungsmanagement

Die richtige Strategie im Asset- und Instandhaltungsmanagement

Die Digitalisierung der Industrie verändert Strukturen, Prozesse und ganze Geschäftsmodelle von Unternehmen. Auch das Asset- und Instandhaltungsmanagement wird zunehmend komplexer. Verantwortliche müssen deshalb ihre Instandhaltungskonzepte anpassen und verbessern. Wie es nachhaltig gelingt, mit Prognostic Foresight Entscheidungen über den Zustand von Geräten und Maschinen zu treffen, die Auswirkungen auf den Betrieb der gesamten Anlage haben können, zeigen die Software AG und Cassantec AG.

Verantwortlichen stehen zahlreiche Methoden und Werkzeuge zur Verfügung, die ihnen bei der Entscheidungsfindung über ihre Asset-Management- und Instandhaltungskonzepte helfen. Mithilfe von datenbasiertem Condition Monitoring können Instandhaltungsleiter den aktuellen Zustand von Anlagen feststellen. So können sie die Anlagenverfügbarkeit sicherstellen und akute Schäden vermeiden. Dank Predictive Maintenance ist es mittlerweile möglich, den Zustand von Anlagenkomponenten vorherzusagen. Data Scientists verwenden historische Daten von Anlagenteilen, um Machine-Learning-Modelle zu trainieren. Diese Modelle werden dann operationalisiert und idealerweise im Betrieb kontinuierlich mit Sensordatenströmen aufgerufen. Die Auswertung erfolgt in Echtzeit und liefert z.B. Erkenntnisse über die Abweichung vom Regelbetrieb, die ab einer definierbaren Größe als Indikator eines anstehenden Ausfalls herangezogen werden.

Prognostik  ergänzt Big Data-Lösungen

Mit der Cumulocity IoT Plattform der Software AG können Unternehmen IoT-Lösungen schnell und unkompliziert einführen, Sensor-Datenströme überwachen und analysieren sowie Machine-Learning-Modelle und Predictive Analytics anwenden. Entscheider können so IoT-Erkenntnisse mit den Prozessen des Unternehmens kombinieren. Da letztlich allerdings selbst fortgeschrittene prädiktive Analysetools nicht in der Lage sind, explizite Aussagen über die Zukunft abzuleiten,  lässt sich Software AGs Cumulocity IoT Plattform nun um Prognostic Foresight der Cassantec AG ergänzen. Cassantec stellt Entscheidern genaue Zeitfenster mit eindeutigen Risikoprofilen dar und prognostiziert den jeweiligen Zustand kritischer Anlagenteile auf Basis historischer Daten. Die Prognosegenauigkeit ist hierbei wesentlich höher als bei herkömmlichen Methoden. Anhand der Erkenntnisse aus der Prognostik können Betriebs- und Instandhaltungsstrategien verbessert, die Restlebensdauer von Industriekomponenten aktiv gemanagt und erweitert sowie ungeplante Stillstandzeiten reduziert werden.

Voraussetzungen für hochqualitative Prognostik

Die Grundvoraussetzung für Prognostik ist, dass Methoden der künstlichen Intelligenz mit der langjährigen Erfahrung der Ingenieure kombiniert werden. De facto wird die Erfahrung des Wartungsingenieurs digitalisiert und das Unternehmen somit in die Lage versetzt,  Entscheidungen auf Basis transparenter Daten zu treffen, die zuvor auf bloßen Erfahrungswerten beruhten. Die Lösung operationalisiert und dokumentiert dadurch auch vorhandenes Wissen von Experten in Produktionsanlagen.

In sieben Schritten zu Prognostic Foresight

Die Implementierung von Prognostik erfolgt in sieben Schritten.

  • Schritt 1: Verantwortliche wählen die Komponenten aus, für die die Prognostik den größten Nutzen bringen.
  • Schritt 2: Die zehn bis 20 häufigsten Störungsarten des zuvor ausgewählten Komponententyps werden definiert.
  • Schritt 3: Die zur Verfügung stehenden Daten werden gesichtet.
  • Schritt 4: Korrelationen der Daten zu bestimmten Störungsarten werden spezifiziert.
  • Schritt 5: Zustands- und Prozessdaten sowie ergänzende Störungs- und Parameterspezifikationen werden in ein stochastisches Modell eingepflegt, um die Restlebensdauer festzustellen.
  • Schritt 6: Die Plausibilität der Ergebnisse wird überprüft. Falls unplausbilbe Ergebnisse auftauchen, muss gegebenenfalls zu einem vorherigen Schritt zurück gekehrt werden, um den Input zu konfigurieren.
  • Schritt 7: Verantwortliche prüfen, wie sich die derzeitigen Entscheidungsprozesse mit den neuen Erkenntnissen verbessern lassen.

Bessere Entscheidungen dank Prognostik

Im Asset- und Instandhaltungsmanagement sind bisher verwendete Werkzeuge, um Entscheidungen für die richtige Strategie zu treffen, oft unzureichend. Unternehmen müssen nicht die Art und Weise, wie Entscheidungen getroffen werden, ändern.Viel mehr sollten sie die Werkzeuge, die für diese Entscheidungen heran gezogen werden, optimieren. Mit Prognostic Foresight steht den Unternehmen eine integrierte Plattform zur Verfügung, die alle Anforderungen von zeitbasierter und zustandsbasierter Instandhaltung abdeckt.

Mehr zur Partnerschaft der Software AG und Cassantec AG erfahren Sie hier.

Teilen:
Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Wer dem IoT bisher nur in der Theorie begegnet ist, hat auf dem CEBIT-Festival 2018 die Möglichkeit, innerhalb weniger Minuten ein eigenes IoT zu bauen und in der Praxis auszuprobieren: Als einer der Marktführer im Bereich IoT-Technologie bietet die Software AG vom 11. bis 15. Juni 2018 in Hannover kurze Workshops, in denen Besucher erleben, wie einfach der Einstieg ins IoT-Zeitalter ist. Anschließend können sie sich am Stand C44 in Halle 17 anhand von acht interaktiven Showcases davon überzeugen, welche innovativen Anwendungsfelder im IoT möglich sind – von Smart Devices im intelligenten Zuhause bis hin zur vernetzten Fabrik der Zukunft.

Das IoT ist keine Zukunftsvision mehr, sondern längst greifbare Realität in allen Branchen. Passend dazu gestaltet die Software AG ihren Auftritt bei der diesjährigen CEBIT nach dem Motto „Experience Everything“ und präsentiert ihr breites IoT-Portfolio in verschiedenen Demos, bei denen die Messebesucher sich aktiv einbringen können. Im Zentrum steht dabei der Workshop „Industry 4.easy“, bei dem Besucher ein eigenes IoT mithilfe kleiner Devices bauen können. Er findet täglich um 10:30 und um 14:00 Uhr am Stand der Software AG statt. Weitere Showcases bieten die unterschiedlichsten Mitmach-Möglichkeiten: Bei einem Showcase zu Logistik 4.0 beispielsweise erhalten Teilnehmer eine interne Bestellung und müssen über ein iPad einen Lego-Kran bedienen, um in einem Warenhaus die bestellten Güter auszuwählen und auszuliefern. Abenteuerlustige, die noch tiefer in die digitale Welt abtauchen möchten, können mit Virtual Reality eine Slackline an einem Eisberg in Grönland begehen.

Showcase 1: SMART ENERGY – intelligente Stromnetze

Intelligente Stromnetze (Smart Grids) setzen voraus, dass Energieerzeuger jederzeit wissen, wie viel Strom sie aktuell und zukünftig erzeugen. Cumulocity IoT, die IoT-Plattform der Software AG, kann die Erzeugung, Verteilung und Speicherung von Energie koordinieren: Über ein Smart Grid können die Unternehmen auf Angebot und Nachfrage in Echtzeit reagieren und ihre Anlagen entsprechend steuern – auch aus der Ferne. Der Showcase „Smart Energy“ bildet modellhaft die smarte Energieversorgung einer ganzen Stadt ab. Besucher erleben, wie Cumulocity IoT Schwankungen und Störungen im Netz minimiert und die Energieerzeuger dabei unterstützt, ihren Kunden den richtigen Mix aus erneuerbaren und fossilen Energien anzubieten. Dabei dürfen die Besucher selbst Hand anlegen und ein intelligentes Netz aus einem Windpark, einem Gaskraftwerk und einer Photovoltaikanlage steuern.

Showcase 2: SMART CITY – intelligente Mülltonnen und vernetzte Straßenbeleuchtung

Smart City macht Städte effizienter, fortschrittlicher und sozial inklusiver. Besucher erleben live, welche Vorteile Bürger davon haben, wenn sich Städte für einen schnellen, offenen und sicheren digitalen Ansatz entscheiden. Die Demo zeigt, wie Abfallentsorgung im Zeitalter von IoT verbessert werden kann – mit smarten Sensoren an Mülltonnen und über ein mobiles Portal für den Service. Beispielsweise verschickt das System eine Warnung, sobald eine Straßenlampe ausgetauscht werden muss. Alle Informationen stehen in Echtzeit zur Verfügung. Dieser Showcase gibt Zuschauern und Teilnehmern einen Einblick in die kommunalen Dienstleistungen einer smarten City, wie sie schon heute möglich sind.

Showcase 3: SMART CITY – Parkmanagementsysteme

Der Kampf um einen Parkplatz hat ein Ende – Cumulocity IoT von Software AG bringt Navigationskarten und Daten über Parkmöglichkeiten zusammen: Auf diese Weise können Autofahrer schnell und einfach mitten im Stadtzentrum nach einem Parkplatz suchen und ihn gleich reservieren. Die Information über den Standort wird sofort an das Navigationssystem des Autos übermittelt, das den Fahrer zu seinem reservierten Parkplatz navigiert. Dieses Beispiel zeigt, wie Predictive Analytics und Condition-Monitoring-Systeme Parkplatzanbieter dabei unterstützen können, dass jeder Parkplatz genutzt wird, sobald er verfügbar ist. In diesem smarten Parkmanagementsystem steckt viel Technologie – dank Cumulocity IoT, webMethods, ARIS und Apama hat die leidige Parkplatzsuche endlich ein Ende.

Weitere Informationen zum CEBIT-Auftritt der Software AG, Gesprächsterminen mit Experten vor Ort und Guided Tours finden Sie hier.

Teilen:
Ende-zu-Ende-Sicherheit ist ein Muss

Ende-zu-Ende-Sicherheit ist ein Muss

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Michael Waidner ist der Leiter des Fraunhofer-Instituts SIT und Inhaber des Lehrstuhls für Sicherheit in der Informationstechnik an der Technischen Universität Darmstadt. Er beschäftigt sich mit den Themen Cybersicherheit und Datenschutz sowie mit neuen Technologien wie etwa Blockchain.

Die Vernetzung produktionstechnischer Anlagen bietet großes Potenzial zur Steigerung von Effizienz und Agilität. Durch Cloud-Technologien ist der Status der Maschinen und der Produktion insgesamt immer im Blick und Änderungen an der Analagenkonfiguration können jederzeit flexibel nach Marktlage erfolgen. Auf der anderen Seite wirft diese Vernetzung auch neue Fragen der IT-Sicherheit auf. Information und Steuerung sind nun nicht mehr in physikalischen Anlagen, sondern in Software abgebildet und somit vielfältigen Angriffen ausgesetzt. Bei mangelnder Absicherung dieser Software können beispielsweise Konkurrenten Einblick in Produktionsverfahren erhalten oder Saboteure gar die Produkte manipulieren oder die Produktion stilllegen.

Dass Angriffe auf industrielle Anlagen keine theoretischen Konstrukte sind, wurde bereits 2010 mit dem Stuxnet-Wurm offenbar. Notwendig ist, alle eingesetzten Softwareprodukte automatisiert auf typische Schwachstellen in Code und Konfiguration zu untersuchen. Dies schließt in einer modernen digitalen Fabrik beispielsweise Webanwendungen, cloudbasierte Plattformanwendungen, mobile Apps und auf den Produktionsanlagen selbst ausgeführte Steuersoftware ein. Die Überprüfung muss, insbesondere in Zeiten agiler Entwicklungsprozesse, bei jedem Update neu erfolgen. Da eine manuelle Begutachtung des Systems durch Experten aufgrund der Größe und Komplexität realistischer Installationen nicht zu leisten ist, sind automatisierte Scanner unerlässlich.

Wo Schwachstellen nicht geschlossen werden können, müssen diese isoliert werden, um ein Ausnutzen zu verhindern oder zumindest unverzüglich zu detektieren. Hierzu ist es wichtig, Anomalien frühzeitig zu erkennen und dem Betreiber zu ermöglichen, passende Gegenmaßnahmen zu ergreifen. Betreiber vertrauen zudem darauf, dass eingesetzte Plattformen wie etwa ADAMOS nicht nur sicher sind, sondern auch für die darauf aufbauenden Lösungen einfach nutzbare Sicherheitstechniken bereitstellen. Daher müssen die bereitgestellten Schnittstellen und Funktionen auch für nicht explizit geschulte Entwickler intuitiv sicher nutzbar sein.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Data Lakes: Stille Wasser sind tief

Data Lakes: Stille Wasser sind tief

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Jens Dittrich befasst sich am Lehrstuhl Information Systems Group der Universität des Saarlandes mit den Themen Datenbanken, Data Management und Big Data.

Traditionell werden Geschäftsdaten in hochstrukturierten relationalen Datenbanken und speziellen Analysesystemen wie Data Warehouses gespeichert. Mit dem Aufkommen von Big Data wird es jedoch immer schwieriger, all diese Daten über Datenbanken oder No-SQL-Systeme zu verwalten und zu analysieren.

„Data Lakes“ erfassen deshalb alle Daten eines Unternehmens in einem zentralen Speicher als Rohdaten, ohne sie vorher zu schematisieren oder anderen Datenbereinigungs- oder Datenimport-Operationen zu unterziehen. Solche Operationen werden erst in einem zweiten Schritt vorgenommen. So bleibt die Flexibilität für Datenabgleich und -analyse gewahrt.

In der Regel sind Data Lakes technisch als verteilte Dateisysteme (wie HDFS) implementiert und umfassen alle Daten eines Unternehmens. Für alle weiteren Analysen wie strukturierte Abfragen, Data-Mining, traditionelles Maschinenlernen oder Deep Learning findet eine Strukturierung nach Bedarf statt. Beispielsweise werden mithilfe entsprechender Workflows und Tools die Rohdaten im Data Lake schrittweise interaktiv gefiltert, bereinigt und angereichert, um klare und eindeutige Informationen zu erhalten. Im Gegensatz zu relationalen Datenbanksystemen – denen die Daten fest zugeordnet sind – werden die Daten in einem Data Lake nicht notwendigerweise einem bestimmten Tool oder System zugeordnet.

Der Grundgedanke des Data Lakes ist vergleichbar mit dem Konzept eines „Dataspaces”, in den im Lauf der Zeit Daten aus unterschiedlichen Quellen integriert werden. Data Lakes passen sehr gut zu den explorativen Workflows von Datenwissenschaftlern, die Daten eher selten in relationalen Datenbanksystemen verwalten.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Künstliche Intelligenz treibt die zweite Welle der Digitalisierung

Künstliche Intelligenz treibt die zweite Welle der Digitalisierung

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster ist Professor für Informatik an der Universität des Saarlandes sowie technisch-wissenschaftlicher Direktor und Vorsitzender der Geschäftsführung des Deutschen Forschungszentrums für Künstliche Intelligenz. Er beschäftigt sich mit den Themen Künstliche Intelligenz, Computerlinguistik, Semantische Technologien, intelligente Benutzerschnittstellen, Industrie 4.0 und Fahrerassistenzsysteme.

Durch Maschinenlernen werden digitale Massendaten inhaltlich analysiert und zu Informationen von hohem Nutzen verdichtet. Dank Deep Learning wurde das Bild- und Sprachverstehen auf Basis mehrschichtiger neuronaler Netzwerke zuverlässiger, schneller und robuster.

Auch die tiefe Analyse von Datenströmen ist in Echtzeit möglich: Störungen und Fehlfunktionen, Bedrohungen durch Cyberkriminelle oder die Notwendigkeit des steuernden Eingriffs menschlicher Experten im IoT werden dank des Fortschritts unmittelbar erkannt. Mithilfe von KI verstehen Computer die Sprache und Ziele der Nutzer immer besser und werden so zu Dialogpartnern oder gar digitalen Assistenten.

Als einer der Industriepartner des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), dem weltweit größten Exzellenzzentrum auf diesem Gebiet, hat die Software AG Zugang zu den neuesten Forschungsergebnissen im Bereich KI. Diese nutzt sie, um ihre Plattformen stets mit den leistungsfähigsten KI-Algorithmen zu aktualisieren.

Auch in der digitalen Geschäftsplattform ADAMOSsind Verfahren zum Maschinenlernen, zur Datenstrom-Analytik, zur prädiktiven Analyse und zur Prozessautomatisierung durch Softbots (RPA) bereits integriert. Die standardisierte Markierungssprache PMML sichert dabei die Interoperabilität der selbsterlernten KI-Modelle.

Ohne den massiven Einsatz von KI-Technologien ist die im Jahre 2010 von mir erstmals definierte Zielsetzung von Industrie 4.0 nicht realisierbar. Denn die vierte industrielle Revolution basiert auf Durchbrüchen der KI-Forschung, welche die enge Kollaboration von Teams aus Facharbeitern und Robotern, die Steuerung der Produktion durch das entstehende Produkt und die kostengünstige cyber-physische Fertigung geringer Losgrößen und damit personalisierter Produkte ermöglicht.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen: