Die Annäherung zwischen KI und IoT

Die Annäherung zwischen KI und IoT

Künstliche Intelligenz (KI) und das Internet der Dinge (IoT) wachsen mit der Digitalisierung immer weiter zusammen. Dabei übernimmt Edge Computing eine immer wichtigere Rolle.

In der heutigen Arbeitslandschaft sind Sensoren und Analytik-Lösungen oftmals noch voneinander getrennt. Doch immer mehr Experten sprechen sich für eine Verbindung von beidem aus. Dabei wird die Intelligenz, die aus Sensordaten gewonnen wird, so wichtig werden, dass sich auch IoT-Plattformen in diese Richtung weiterentwickeln werden. Hinzu kommt die Erweiterung von zentralen IoT-Umgebungen um sogenanntes Edge Computing. Hierunter versteht man die analytische (Vor-)verarbeitung von Daten möglichst nah an ihrer Quelle.

Die Ergänzung um Edge Computing

Je ausgefeilter die von IoT unterstützten Anwendungsfälle werden sollen, umso mehr Analytik wird dafür benötigt. Je mehr Intelligenz in digitale Prozesse einfließt, die sich auf Echtzeitdaten (Near Real Time) stützt, umso entscheidender wird auch das Zusammenspiel der zentralen IoT-Umgebung mit der Edge.

Die zentrale IoT-Umgebung übernimmt initial die Aufgabe, die Daten aus der dinglichen Welt über Sensorik aufzunehmen und so bereit zu stellen, dass damit Algorithmen aufgebaut werden können. Diese werden dann von der zentralen IoT-Umgebung an die Edge „transportiert“, wo sie gegen die aktuellen Datenflüsse ausgeführt werden. Auftretende Ereignisse (zum Beispiel negative Korrelationen von Schwingung und Betriebstemperatur einer Maschine) werden dann an das zentrale IoT-System gemeldet und dort im Zusammenspiel mit den prozessführenden Fachanwendungssystemen weiterverarbeitet. Das „Trainieren“, also das kontinuierliche Verbessern der Algorithmen, erfolgt ebenfalls unter Einsatz der zentralen IoT-Umgebung. Zum Beispiel nutzt diese hierfür dann nur noch Daten aus einem Subset der angeschlossenen Maschinen einer gleichen Baureihe.

Dieser verteilte Ansatz ist vorteilhaft, wenn die Übertragung von Daten zu einer zentralen IoT-Umgebung mit für den Business Case unangemessenen hohen Kosten (zum Beispiel für verbrauchte Bandbreite) verbunden ist. Zum anderen ist er für IoT-Anwendungszenarien relevant, die eine deterministische Echtzeitkommunikation in Millisekunden erfordern. Hier können Daten aus Latenz-Gründen zur Verarbeitung nicht erst an eine zentrale IoT-Umgebung weitergegeben werden.

Eine Kombination ist gefragt

IoT-Architekturen sind heute horizontal verteilt. Es gibt neben der zentralen IoT-Umgebung noch Edge-Computing-Einheiten mit Use Case spezifischer Rechenkapazität. Des Weiteren ist auch die nahtlose Verzahnung der zentralen IoT-Umgebung mit den prozessführenden Fachanwendungen wichtig. Denn das Zusammenführen von Daten aus der dinglichen Welt mit Daten aus der Prozesswelt liefert oftmals deutlich bessere Ergebnisse beim Aufbau (und gegebenenfalls Ausführung) von belastbaren Algorithmen.

Die Nutzung von Edge Computing im IoT erfordert aber eine neue Klasse von intelligenter Hardware. Diese muss nicht nur auf die Nutzungsumgebung (zum Beispiel Staub, Erschütterungen) hin ausgerichtet und abgesichert sein. Diese Geräte sollten auch aufwandsarm mit den verschiedenen dinglichen Datenquellen sowie mit der zentralen IoT-Plattform verbunden werden können. Die Edge Gateways müssen des Weiteren leistungsstark genug sein, um lokal intelligente Anwendungen ausführen zu können. Und da diese Geräte im „Feld“ verbaut sind, müssen sie von einem zentralen Ort aus verwaltbar sein. Neue Software aber auch neue lokale Verarbeitungslogik muss einfach eingespielt werden können.

Informationen zu Cumulocity IoT, der IoT-Plattform der Software AG, erhalten Sie hier.

Teilen:
10 Thesen zur digitalen Transformation – Teil 5

10 Thesen zur digitalen Transformation – Teil 5

Mit der Verfügbarkeit großer Datenmengen und neuen Verarbeitungsmöglichkeiten sind im Rahmen der digitalen Transformation viele neue Geschäftsmodelle entstanden. Sie haben das Potenzial, ganze Märkte auf den Kopf zu stellen, und bieten eine große Chance für etablierte Unternehmen, sich auf die Gewinnerseite der digitalen Transformation zu schlagen. In dieser Artikel-Serie widmen wir uns den 10 Thesen zur digitalen Transformation. Im folgenden Beitrag geht es um die Cloud als Drehscheibe für Anwendungsentwicklung, zentrale Laufzeitumgebungen und Marktplätze.

Bereits seit einigen Jahren zeichnet sich der Trend ab, dass vor Ort installierte Anwendungen (On-Premise) durch Cloud-Services ersetzt werden. Software-as-a-Service (SaaS) ist mittlerweile ein anerkanntes Software-Delivery-Modell, bei dem für die Softwarenutzer beispielsweise Ressourcenmanagement, Updates und Versionskontrolle entfallen. Allerdings kann vorhandene Software nicht eins zu eins in der Cloud bereitgestellt werden. Software muss speziell für die Cloud konzipiert werden und rund um die Uhr verfügbar, schnell und reibungslos aktualisierbar, skalierbar und mandantenfähig sein. Vor allem im IoT-Kontext gewinnt die Cloud an Bedeutung, da die von IoT-Anwendungen benötigte Skalierbarkeit und Flexibilität beim Cloud-Computing viel eher gegeben sind als bei der On-Premise-Verarbeitung.

These 6: Die Cloud als zentrales Element

Im IoT-Kontext reicht Cloud-Computing jedoch möglicherweise nicht aus. Die riesigen, im IoT generierten Datenströme enthalten oft redundante oder irrelevante Informationen. Zudem sind die unvermeidlichen Latenzen in Cloud-Umgebungen für einige Berechnungsprozesse zu hoch. Infolgedessen muss Cloud-Computing um Edge-Computing erweitert werden. So können einige Berechnungen in der Nähe der Datenquellen erfolgen, um Datenströme zu komprimieren oder schnelle Entscheidungen zu treffen. Ein prominenter Anwendungsfall ist die Car2X-Kommunikation, bei der das Fahrzeug über die Rechenleistung verfügt, aus Sensor- und Umgebungsdaten blitzschnell Entscheidungen abzuleiten. Berechnungen, die nicht zeitkritisch sind oder Daten aus vielen Quellen heranziehen, können in der Cloud durchgeführt werden. Obwohl die Cloud ein immer breiteres Anwendungsspektrum abdeckt, werden bestimmte Berechnungen auch in Zukunft lokal (On-Premise) vorgenommen, insbesondere im B2B-Bereich. Dies gilt vor allem für geschäftskritische, maßgeschneiderte Anwendungen, die aufgrund ihrer Komplexität oder aus Sicherheits- oder Latenzgründen nicht einfach in die Cloud verlagert werden können.

Komplexe Deployments

Die Datenverarbeitung erfolgt oft über eine Mischung aus Edge-, Cloud- und On-Premise-Computing. Daher müssen diese verschiedenen Verarbeitungsumgebungen zwecks Kommunikation und gemeinsamer Datennutzung miteinander verbunden werden. Traditionelle Batch-Ansätze für das Verschieben von Massendaten werden den aktuellen Anforderungen an die Verarbeitungsgeschwindigkeit nicht gerecht. Stattdessen sind schnelle Verbindungen in Quasi-Echtzeit erforderlich. Skalierbare und verteilte Message-Bus-Installationen sind aus derartig komplexen Verarbeitungsumgebungen nicht wegzudenken.

These 7: Verteilte Daten – in Echtzeit vernetzt

Besonders Deployments im IoT-Umfeld sind gekennzeichnet durch eine hochgradig verteilte Verarbeitung mit geringer zentraler Kontrolle und intensivem Datenaustausch. Die traditionelle Vorgehensweise, Daten in zentralisierten Data-Warehouse-Systemen zu replizieren, wird zunehmend durch lokale Analysen mit Data-Streaming-Technologie ergänzt.

Da viele Anwendungsfälle Echtzeitverarbeitung und eine umgehende Reaktion auf Analyseergebnisse erfordern, ist die Latenz eines Data-Warehouse nicht mehr angemessen. Die Integration von Daten aus verteilten Quellen in Quasi-Echtzeit ist ebenfalls eine akzeptable Alternative zur physischen Batch-Replikation. Diese Entwicklungen sind vor dem Hintergrund der neuartigen Datenquellen zu sehen, die moderne IoT-Szenarien charakterisieren.

Das war Teil 5 unserer Artikel-Serie zu den 10 Thesen zur digitalen Transformation. Lesen Sie hier alle weiteren Teile nach deren Veröffentlichung:

Teil 1:

Teil 2:

Teil 3:

Teil 4:

Teil 5:

  • These 6: Die Cloud als zentrales Element
  • These 7: Verteilte Daten – in Echtzeit vernetzt

Teil 6:

Teilen: