Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Ein LKW fährt von A nach B und kommt leer zurück. Ökonomisch und ökologisch nicht sinnvoll, versteht sich. Um das zu verhindern, ist eine akribische Planung nötig. Und die ist ohne ein intelligentes IT-System nicht zu machen.

Dies und mehr sind die Aufgaben des europäischen Forschungsprojekts LOGISTAR. Derzeit laufen im Projekt Testwochen, in denen in drei Anwendungsfällen Dienste unter realen Bedingungen getestet werden. Der Demonstrator basiert auf der Arbeit der Software AG mit ihren Anwendungen von Cumulocity IoT und webMethods sowie Universal Messaging. Das Projekt LOGISTAR zielt darauf ab, eine effektive Planung von Transportvorgängen in der Lieferkette zu ermöglichen.

Ziel ist es, die verfügbaren Daten zu nutzen, um sie zu verarbeiten und Dienste bereitzustellen, die durch intelligente Algorithmen wie das Erlernen von Vorhersagen oder die Optimierung von Präferenzen implementiert werden. Drei Living Labs bilden die Anwendungsfälle. Der erste ist die Optimierung der Abläufe im Lager durch die präzise Vorhersage der Ankunftszeit, die Erkennung von Zwischenfällen und die effiziente Re-Optimierung. Dadurch wird die Ressourcennutzung im Lager verbessert und die Wartezeit für Abläufe verkürzt.

Die zweite Dienstleistung besteht in der Verbesserung des Routings der Ladungen in verschiedenen Transportmitteln, wie LKW, Zug und Schiff. Auf diese Weise werden die Kosten für logistische Prozesse gesenkt und die Nutzung der Infrastruktur optimiert. Der dritte Dienst schließlich konzentriert sich auf die horizontale kollaborative Planung von Ressourcen, um Kosten zu teilen und Emissionen zu reduzieren. Auf diese Weise wird die Anzahl der Leerkilometer von Lastwagen reduziert.

Die LOGISTAR-Anwendungen werden in allen Living Labs gründlich getestet. Die Partner befinden sich derzeit in den Testwochen. In der ersten Woche ging es um Living Lab 1.

Lkw nicht leer zurückschicken

Wie läuft so eine Testwoche ab? Der Partner Ahlers aus Belgien hat den Test bis ins letzte Detail geplant und wird die Testwochen auch mit Dokumentation und Auswertung begleiten. Jeden Morgen um 9 Uhr treffen sich alle Partner, um den Ablauf des Tages zu koordinieren, und jeden Nachmittag um 16 Uhr werden die Ergebnisse besprochen. Im Mittelpunkt der Tests stehen die Anwendungspartner Nestlé und Pladis, die täglich Tausende von LKWs fahren müssen. Beide haben ein besonderes Interesse an der Fortsetzung früherer Forschungsaktivitäten, nachdem sie seit 2007 die zurückgelegte Strecke der leeren Fahrzeuge um 270.000 Kilometer pro Jahr reduziert haben. Derzeit fehlt es an einer globalen Sicht auf die Abläufe, was dazu führen kann, dass Gelegenheiten der Zusammenarbeit verpasst werden. In diesem Testfall soll gezeigt werden, wie die Informationen, die das in LOGISTAR entwickelte Entscheidungsfindungs-Tool liefert, das Backhauling-Management verbessern können, d. h. die Praxis, die Lastwagen nicht leer zurückzuschicken, sondern sie einen Teil der Ladung zur ursprünglichen Quelle zurückbringen zu lassen.

Das Team der Software AG hat die Basis für den Demonstrator entwickelt. Er ist teilweise in einer webMethods-Anwendung implementiert, die für die grundlegende Kommunikation im gesamten System sorgt. Die Software AG ist auch mit Universal Messaging und Apama beteiligt. Universal Messaging wird eingesetzt, um die Basiskommunikation im gesamten System sicherzustellen. Das bedeutet, dass alle Komponenten – sichtbare und unsichtbare – über Universal Messaging miteinander kommunizieren. Das macht sie aber nicht voneinander abhängig, sondern entkoppelt sie.

Projektmanager Christian Gengenbach von der Software AG erklärt das System so:

„Das ist im Projekt sehr hilfreich, weil sieben technische Partner unabhängig voneinander komplexe Komponenten entwickeln, die in den letzten Wochen so langsam zusammengefügt wurden. Universal Messaging sorgt dafür, dass das ganze System nicht automatisch zusammenbricht, wenn eine Verbindung nicht funktioniert.“

Apama, eine der IoT Analytics-Komponenten der Software AG, kümmert sich um die Ereignisverarbeitung. Verkehrsstaus oder Wetterprobleme müssen an die entsprechenden Komponenten weitergeleitet werden.

Planung und Überwachung gemeinsamer Fahrten

Der Demonstrator konzentriert sich auf zwei Webanwendungen: Planer und Echtzeitüberwachung. Der Planer-Bildschirm unterstützt die Anwender bei der optimalen Nutzung ihrer Logistikressourcen. Das LOGISTAR Living Lab 1 für Co-Loading und Backhauling bietet optimierte Fahrten für kollaborative Transporte an und unterstützt den Prozess der Entscheidung, ob der Vorschlag von den beteiligten Akteuren angenommen oder abgelehnt werden soll. LOGISTAR kalkuliert die Vorschläge im Hintergrund und ermöglicht die parallele Nutzung des Tools für die Beteiligten mit sofortiger Wirkung im System.

Was bedeutet das konkret? Der erste Schritt ist die Auswahl des Tages, an dem die Fahrten geplant werden sollen: Die Liste der passenden Fahrten wird automatisch aktualisiert. Statussymbole zeigen den Fortschritt der Entscheidung an: Ausstehend, Angenommen, Abgelehnt. Am Ende können die Fahrten, die von allen akzeptiert werden, stattfinden.

Mit dem Modul Real-Time Monitoring arbeitet ein Disponent, wenn der Lkw bereits auf der Straße ist. Die Komponente unterstützt die Disponenten bei der Überwachung der Fahrten, der Anpassung der Disposition und des Plans, wenn es zu Störfällen kommt. Die Informationen werden auf einer Karte dargestellt, um den Partnern einen detaillierten Überblick über die Positionierung der Gebäude, die Auftragsrouten und andere nützliche Informationen für die Fahrzeugüberwachung zu geben.

Die Sichtweise der Logistikexperten verstehen

Die Anwendungspartner Nestlé und Pladis waren die Haupttester. Aber auch die technischen Partner hatten nun die Möglichkeit, das gesamte System als Anwender kennen zu lernen. Schließlich hatten sie ja nur einzelne Module entwickelt.

Alle Tester achteten besonders auf die Zugänglichkeit, die Leistungsfähigkeit und die Datenkonsistenz. Zu Beginn der Testwoche lag der Schwerpunkt auf den Zugangsfragen: Funktioniert die Anmeldung? Können die Benutzer von verschiedenen Geräten aus auf das System zugreifen? Dann ging es um die Grundlagen: Wie geht das System damit um, wenn der Benutzer eine Reise annimmt oder ablehnt?

Das Fazit, das die Partner nach einer Woche Testphase zogen, ist durchweg positiv: Die Entwickler der Anwendung haben die Sichtweise der Logistikexperten kennengelernt. Deren Tagesablauf ist ganz anders, als es ein Laie erwarten würde. Das hat den technischen Partnern geholfen.

Auch unter der Woche konnten Anmerkungen direkt umgesetzt werden. Einige Änderungen werden aber auch langfristig umgesetzt werden müssen.

In der Zwischenzeit gehen die Testwochen weiter. Der Aufwand dürfte sich lohnen. Immerhin hat sich das Projekt ehrgeizige Ziele gesetzt (siehe Infokasten rechts).

Die 5 wichtigsten Vorteile von LOGISTAR

  • Optimierungstechniken erhöhen den Auslastungsfaktor der Frachtfahrzeuge um 10%
  • Lieferwege werden um 10 % durch Synchromodalität (intelligente Nutzung verschiedener Verkehrsträger wie Schiene, Binnenschifffahrt oder Straße auf einer Route) verkürzt.
  • Zuverlässigkeit und Effizienz der Dienste werden erhöht: Vorhersage von Ereignissen und Zwischenfällen.
  • Das Management von logistischen Abläufen wird vereinfacht: Bereitstellung von Dashboards und Anzeige von Warnungen oder Empfehlungen.
  • Die Sichtbarkeit der Lieferung durch den Einsatz von Sensoren zur Überwachung der beförderten Güter und Förderung des Datenaustauschs wird verbessert.

Partner des Projekts

  • Agencia Estatal Consejo Superior de Investigaciones Científicas, M.P.
  • Ahlers Belgium NV
  • Chep Espana SA
  • Codognotto Italia SPA.
  • Consorzio Zailog, Interporto of Verona
  • DBH Logistics IT AG
  • Drustvo za Konsalting, Razvoj i Implementaciju Informacionih i Komunikacionih Tehnologija Dunavnet DOO
  • Genegis GI SRL
  • MDS Transmodal LTD.
  • Nestle UK LTD.
  • Pladis MDC Global (former United Biscuits)
  • Preston Solutions LTD.
  • Semantic Web Company GMBH
  • Universidad de la Iglesia de Deusto Entidad Religiosa
Teilen:
Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Der Deutsche Bundestag hat kürzlich ein Gesetz verabschiedet, das den Einsatz von selbstfahrenden Autos erlaubt. Autonome Fahrzeuge bieten große Chancen und stellen uns gleichzeitig vor viele Herausforderungen.

So verlangt das Zukunftsthema nach einer intelligenten und sicheren Verkehrsinfrastruktur. Denn ein Signalabriss kann sicherheitskritische Auswirkungen haben. Wie die Software AG mit IoT Analytics, insbesondere mit Mashzone NextGen, Apama sowie Webtechniken und Container-Technologien dazu die entsprechenden Daten zusammengeführt, aufbereitet, analysiert und visualisiert haben, zeigt das Forschungsprojekt Cartox2.

Serviceplattform Cartox2 ebnet den Weg für das autonome urbane Fahren

Das vom Bundesministerium für Verkehr und digitale Infrastruktur geförderte Projekt Cartox2 ist kürzlich abgeschlossen worden. Sechs Partner, unter ihnen auch die Software AG, haben eine Plattform für Basisdienste entwickelt. Sie erfasst und verarbeitet Informationen über die Car-to-Car-Konnektivität (C2C), die Netzabdeckung für die Car-to-X-Kommunikation (C2X) sowie das Datenrouting zu und zwischen Edge-Clouds, den Zugangspunkten der Cloud-Umgebung. Cartox2 trägt hybride Kommunikations- und Positionierungsdaten mit weiteren Geodaten auf einer Big Data-Plattform zusammen. Es reichert statische mit Echtzeitinformationen an, um mit Algorithmen zur Datenanalyse neuartige Dienste und Geschäftsmodelle zu kreieren. Die Rolle der Software AG bestand darin, Daten zu integrieren, aufzubereiten, zu analysieren und zu visualisieren. Dem Team um Projektmanager Andre Litochevski ist dabei ein spannender modularer Prototyp mithilfe von MashZone NextGen, Apama, Webtechnologie Angular sowie Containervirtualisierung mit Docker und NginX-Sicherheit gelungen.

Signalstärke visualisieren

Worum geht es? Für autonomes Fahren ist ausreichende Signalstärke notwendig. Denn wo kein Mensch am Steuer sitzt, müssen Systeme miteinander kommunizieren und Signale wahrnehmen. Beispielsweise kann ein Auto ein anderes warnen, wenn in zwei Kilometer Entfernung ein Unfall passiert ist. Aber kann dieses Warnsystem auch überall funktionieren? Mithilfe von Mashzone NextGen bieten wir hier einen interessanten Service für die Visualisierung an. Die Daten im Raum Dresden sind dazu zuvor von einem Projektpartner vermessen worden. Die Software AG hat diese Daten abgegriffen, mit APAMA analysiert und sie mit Mashzone NextGen visualisiert zur Verfügung gestellt. Der Nutzer meldet sich über einen Browser an und klickt auf Orte auf einer Straßenkarte oder trägt die Koordinaten ein.  Sofort erfährt er, ob die Signalstärke dort hoch genug, autonomes Fahren also möglich ist.

Aber der Prototyp kann noch viel mehr, beispielsweise mit dem Feature RSSI (Received Signal Strength Indicator) Routing: Mashzone NextGen rechnet für Dresden Routen mit der besten Signalstärke aus. Es wird dargestellt, wie die sogenannte Line-of-Sights-Propagation, also die geradlinige Ausbreitung der Signale zum Empfänger, ist. Denn der Anwender will auch bei unübersichtlichen Kreuzungen „sehen“, wo es Hindernisse für ein gute Signalstärke gibt.

Der Prototyp visualisiert aber auch die Zugriffe auf Edge Clouds. Dort, wo Autos nicht direkt miteinander kommunizieren können, fragen sie Infos aus Edge Clouds ab, die zuvor andere Autosysteme dorthin gemeldet haben. Das funktioniert über RSUs Road Side Unites (RSUs), am Straßenrand installierte Hardware, die Mashzone NextGen über genaue Koordinaten anzeigt.

Unfallrisiken abschätzen

Cartox2 kann auch Unfallschwerpunkte identifizieren. Sie entstehen bei mangelnder Funkabdeckung vor allem für hochautomatisierte Fahrzeuge.

Und mehr noch: Mit einem Klick auf einen Unfallort erhält der Anwender Informationen darüber, wer wann unter welchen Bedingungen und mit welchem Fahrzeug einen Unfall verursacht hat. Die Cartox²-Serviceplattform versetzt Unfallforscher in die Lage, bereits bekannte Unfallschwerpunkte nach neuen Kriterien zu bewerten und Risiken abzuschätzen. Außerdem soll es zukünftig möglich werden, bisher unbekannte Unfallschwerpunkte, die mit den kommenden Fahrzeuggenerationen entstehen, zu prognostizieren.

Fit für das urbanes, autonomes Fahren

Die Vorteile einer solchen Visualisierung und die potenziellen Benutzertypen liegen auf der Hand: Entscheider in Kommunen können mit Cartox2 ihre Stadt fit für das autonome Fahren machen. Signalstärken lassen sich erfassen und optimieren. Der Verkehr kann bei schwacher Signalstärke, bei Unfällen oder hohem Verkehrsaufkommen schneller umgeleitet werden. Unfälle lassen sich durch die gesammelten und visualisierten Daten durch gezielte Verkehrslenkung ebenso vermeiden wie ein erhöhter CO2-Ausstoß.

Auch Busunternehmer profitieren von dem System. Sie erhalten Aufschluss darüber, welche Route beim autonomen Fahren ökonomisch und ökologisch sinnvoll ist und können in Absprache mit der Kommune ihre Routen planen.

Diese wertvollen Daten werden öffentlich und leicht zugänglich sein, auch für Bürgerinitiativen mit ihren lokalen Anliegen.

Die Use Cases sind vielversprechend und die Potenziale dieser Plattform längst nicht ausgeschöpft. Wir dürfen gespannt sein, welche Rolle Cartox2 mit der Mahzone NextGen-Anwendung in der Zukunft des autonomen Fahrens spielen wird.

Projektpartner

• Fraunhofer Institut für Verkehrs- und Infrastruktursysteme IVI

• CETECOM GmbH, Essen

• hrd.consulting, Dresden

• MechLab Engineering UG, Dresden

• Software AG

• Technische Universität Dresden, Professur für Informationstechnik für Verkehrssysteme

Mehr zu Cartox2 erfahren:

Flyer: Alle Infos auf einen Blick

Projektseite beim Bundesministerium für Verkehr und digitale Infrastruktur

Teilen:
Energiewende braucht Digitalisierung ohne Sicherheitslücken

Energiewende braucht Digitalisierung ohne Sicherheitslücken

Wie kann unser zukünftiges Energiesystem versorgungssicher, wirtschaftlich und nachhaltig aufgestellt werden?

Dieser Frage sind 31 Partner mit hunderten Beteiligten und einem Budget von 170 Millionen Euro nachgegangen. Nach vier Jahren ist nun das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt enera zu Ende gegangen. enera ist das Zusammenspiel von intelligenten Netzen, die umfassende Flexibilisierung von Energieanlagen der fünf Modellregionen und die Etablierung einer digitalen Wertschöpfungskette der Energieversorgung. Peter Altmeier, Bundesminister für Wirtschaft und Energie, fasst das Ergebnis zusammen:

„Die Fachleute haben gezeigt, dass intelligente Netze durch den Einsatz digitaler Technologien auch bei zeitweise bis zu 100 Prozent Stromeinspeisung aus erneuerbaren Energien ein stabiles und sicheres System gewährleisten können.“

Viele Konzepte und Ideen aus der digitalen Wirtschaft sind dabei für die Energiewirtschaft erschlossen worden. Die digitale Infrastruktur musste völlig neu gedacht werden. Daten sind ein entscheidender Rohstoff, wenn das Energiesystem digitalisiert wird. Rechenzenten werden zu zentralen Schnittstellen im Energiesystem der Zukunft.

In einem der 13 Arbeitspakete wurde mit der Smart Data und Service Plattform (SDSP) die zentrale Datendrehscheibe für enera aufgebaut. Sie dient als übergreifende Informations- und Datensammlung für Quell- und Zielsysteme. Es fließen Massendaten unterschiedlichster energiewirtschaftlichen Quellen ein. Sie stammen beispielsweise von Strombörsen oder virtuellen Kraftwerken – das ist ein Verbund aus vielen und zumeist kleinen Anlagen, die sich verschiedener Energiequellen bedienen können. Wetterprognosen werden ebenso erfasst wie der Netzzustand oder Verbrauchsdaten der Haushalte.

Aber ein dezentrales und digitales Energiesystem schafft Angriffspunkte. Das Stromsystem muss also jederzeit geschützt, der komplexe Datenfluss und die IT-Systeme abgesichert werden.

Security by Design mit ARIS

Es braucht digitale Technologien, die auch bei zeitweise bis zu 100 Prozent Stromeinspeisung aus erneuerbaren Energien ein stabiles und sicheres System gewährleisten können. Security by Design lautete die Devise, also die Erfassung und Berücksichtigung von sicherheitsrelevanten Eigenschaften von Beginn an. Und hier kommt die Stärke von ARIS ins Spiel. Da es sehr flexibel einsetzbar und erweiterbar ist, wurde im Projekt enera die Entscheidung getroffen, es mittels spezieller Erweiterungen sowohl methodisch als auch technisch zur Durchführung von Informationssicherheitsmanagementsystem (ISMS)-Analysen zu nutzen. Konkret ging es um die Möglichkeit, die ca. 60 erfassten Use Cases, die dokumentiert und in das Smart Grid Architektur Model übertragen wurden, zu importieren. Dieses Modell ist ein Framework für die Beschreibung von Architekturen im Smart Grid und definiert einerseits verschiedene sogenannte fachliche Zonen, andererseits aber auch die vorhandenen Domänen.

Technische Anpassungen zur ISMS Analyse wurden vorgenommen und durch die entsprechende Implementierung verfügbar gemacht, So konnte schließlich eine Strukturanalyse des Schutzbedarfs im Sinne eines ISMS durchgeführt werden.

webMethods sichert Services ab

Die modellierten Use Cases konnten dann mit einer API-Management-Lösung, bestehend aus webMethods API Portal und webMethods API Gateway, implementiert werden. Diese Lösung schützt die Zugriffe auf die Services der Smart Data und Service Plattform. Zugriffe werden nur gesichert über HTTPS zugelassen und für jede Anwendung, die einen Service nutzen möchte, wird ein individueller API-Token vergeben. Ein API-Token ist ein eindeutiges Zuordnungsmerkmal, das eine App oder eine Website nutzen kann, um die API anderer Unternehmen abzurufen. Dies erlaubt, die Zugriffe zu steuern und zu überwachen. Dazu gehört auch die Überprüfung, welche individuellen Zugriffe in welcher Frequenz stattgefunden haben. Die Zugriffsrate kann zwecks Lastverteilung limitiert werden, um die Verfügbarkeit der Plattform auch für andere Anwendungen sicherzustellen. Dieses Konzept wurde bereits im ersten Jahr des Projekts erstellt und hat sich bis zum Schluss so sehr bewährt, dass es im Laufe des Projekts auf mehr und mehr Services ausgeweitet wurde.

Sie wollen mehr über enera erfahren?

Das Projekt enera ist offiziell beendet, doch die gesammelten Erfahrungen, zahlreichen Ergebnisse und die neuen Ideen für die Zukunft der Energiewende bleiben. Laden Sie sich das enera Projektmagazin und das Projektkompendium herunter und lassen Sie die Projektjahre noch einmal Revue passieren.

Mehr erfahren

 

Teilen:
Die energieflexible Fabrik der Zukunft

Die energieflexible Fabrik der Zukunft

Wie können Industriebetriebe nicht nur energieeffizient produzieren, sondern auch zur Stabilität eines Stromnetzes mit erneuerbaren Energien beitragen? Antworten fand das Forschungsprojekt PHI-Factory. Die Software AG entwickelte dafür eine Echtzeitplattform, basierend auf der Analyse von Sensordatenströmen mit APAMA.

In Deutschland vollzieht sich ein Wandel in der Energieversorgung. Die Anzahl der konventionellen Großkraftwerke nimmt ab. Gleichzeitig steigt der Anteil der Erzeuger regenerativer Energien sowie der Anlagen der Kraft-Wärme-Kopplung mit dezentralem Standort. Für einen stabilen Betrieb der elektrischen Netze mit den Zielen hoher Versorgungszuverlässigkeit und -qualität hinsichtlich Spannung und Frequenz werden durch die Netzbetreiber fortlaufend Systemdienstleistungen wie Regelleistung, Blindleistung und Kurzschlussleistung angefordert.

Im Dezember 2016 startete das vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt PHI-Factory. Die Leitidee war es, eine digitalisierte und energieflexible Fabrik der Zukunft zu konzipieren und zu demonstrieren, dass eine Fabrik als aktives Regelelement zeitgleich Energiekosten einsparen und Systemdienstleistungen für das öffentliche Energieversorgungsnetz bereitstellen kann. Das Forschungskonsortium bestand aus einem Zusammenschluss von Forschungsinstituten aus Maschinenbau, Mechatronik, Elektrotechnik und ausgewählten Industriepartnern, die sowohl an Entwicklungsaufgaben als auch als Anwender der Forschungsergebnisse beteiligt waren. Die entwickelten Lösungen wurden in der ETA-Forschungsfabrik am Campus Lichtwiese der TU Darmstadt integriert und experimentell erprobt – und das mit großem Erfolg. Die ETA-Fabrik wurde zur vollständig digitalisierten, energieflexiblen Modellfabrik ausgebaut.

 

 

Schlanke Echtzeitplattform für Big Data

Durch die umfangreiche Datenerfassung im Kontext einer flexiblen elektrischen Fabriknetzführung war die Erforschung und Entwicklung neuer Big Data-Verfahren erforderlich. Hier kam die Software AG ins Spiel. Unter der Leitung ihres Projektmanagers Dr. Dietmar Gärtner entwickelte sie als eine der Kerninnovationen des Projekts eine Big Data-Plattform mit Anbindung an die Datenquellen sowie Datenauswertung und Regelung in Echtzeit. Externe Softwaresysteme wie Energiemonitoring, Prognosemodelle und Produktionsplanung werden über geeignete Schnittstellen in die Plattform integriert und berechnete Stellgrößen an die Steuerungen der Maschinen und Anlagen übertragen. Die Plattform erfüllt State-of-the-art-Anforderungen:

  • Effizienz
  • Skalierbarkeit
  • Sicherheit
  • Wartbarkeit
  • niedrige Kosten

Eine zentrale Rolle nahm dabei APAMA ein, das in der Abschlussveranstaltung des Forschungsprojekts seine „Glanzstunde“ hatte. Dort wurde die laufende Ermittlung von Lastprognosen anhand einer Werkzeugmaschine in der Modellfabrik demonstriert. Lastprognosen treffen Aussagen über den zukünftigen Energiebedarf. Ein von den Projektpartnern der TU Darmstadt in Python entwickeltes Prognosemodell, das über die Plattform in APAMA eingebunden war, wurde im Sekundentakt mit aktuellen Daten versorgt, um den Energiebedarf mit einem kurzzeitigen Horizont für die nächsten 100 Sekunden vorherzusagen. Die Lastprognose wurde dann direkt an das Energiemanagementsystem EnEffCo® des Konsortialpartners Ökotec übertragen und dort in einem Dashboard visualisiert.

In einem zweiten Anwendungsfall, der ebenfalls auf der Echtzeitplattform der Software AG basierte, wurde eine Blindleistungsreglung für die ETA-Fabrik demonstriert. Erfolgt ein Blindleistungsabruf durch den Netzbetreiber, wird dieses über die Plattform als Ereignis an APAMA signalisiert, das einen ebenfalls in Python implementierten Blindleistungsregler mit den aktuellen Ist- und Sollwerten aufruft. Der Regler ermittelt daraus den Stellwert und gibt ihn an APAMA zurück, das diesen in dem OPC UA Server der entsprechenden Steuerung aktualisiert, damit die Leistungselektronik die Blindleistung dem Stellwert entsprechend regelt. Das “Einschwingen” der Bildleistung auf den neuen Sollwert wurde ebenfalls in einem Dashboard visualisiert.

 

 

Monitoring von Energie- und Prozessdaten in der Modellfabrik

Die Bilanz von PHI-Factory nach dreieinhalb Jahren Forschungsarbeit kann sich sehen lassen:  Mit Hilfe des vollständigen Monitorings von Energie- und Prozessdaten können zukünftige Energieflüsse antizipiert und der elektrische Lastgang in Abhängigkeit von Wetter- und Marktdaten angepasst werden. Dabei wurden u.a. Methoden aus dem Bereich des maschinellen Lernens für industrielle Energiesysteme eingesetzt und eine künstliche Intelligenz entwickelt, die selbstständig ein optimiertes Betriebsverhalten erlernt. Zudem setzte das Konsortium einen hoch effizienten, hybriden Energiespeicher, bestehend aus einem Schwungmassenspeicher und Lithium-Ionen-Batterie, ein und erprobte ihn. Der Speicher integriert die Ladestrategien für die werksgebundene E-Mobilität. Die Fabrik kann somit in Zeiten mit geringer Einspeisung aus erneuerbaren Energien bis zu zwei Stunden autark betrieben werden. Bis zu 100 Prozent der elektrischen Fabriklast lässt sich so flexibilisieren und um mehrere Stunden verschieben. So kann der Netzbezug auf besonders günstige Zeiten mit hoher Verfügbarkeit erneuerbarer Energien verschoben werden.

Künftige Forschungen

Wichtige Ergebnisse aus dem Projekt, speziell im Hinblick auf den Beitrag der Software AG, waren die Erkenntnisse, dass bei der Erhebung und Verarbeitung von großen Datenmengen eine möglichst frühe Vorselektion der für den jeweiligen Zweck tatsächlich notwendigen Daten erfolgen sollte (Edge Computing). Außerdem zeigte sich, dass die Echtzeitverarbeitung auf den Datenströmen hier große Vorteile bringt. Auch die Verwaltung der Datenquellen, die in PHI-Factory teilweise manuell erfolgte, bedarf stärkerer Automatisierung. Der Einsatz von Methoden der künstlichen Intelligenz hat sich für die betrachteten Anwendungsfälle als sehr vorteilhaft erwiesen. Diese Erkenntnisse werden in einem Nachfolgeprojekt “KI4ETA” verwertet und weiter erforscht. Die Software AG beteiligt sich an diesem Nachfolgeprojekt und bringt dafür ihre Expertise und ihre Technologien Cumulocity Cloud und Edge sowie APAMA mit ein.

 

Mehr über intelligente Lösungen für die Industrie erfahren

Teilen:
Software AG unterstützt internationale Nachhaltigkeitsziele

Software AG unterstützt internationale Nachhaltigkeitsziele

Die 17 „Sustainable Development Goals“ (SDGs) geben eine Agenda vor im weltweiten Kampf gegen Missstände wie Hunger und Armut. Das Research-Team der Software AG unterstützt diese Ziele.

Software AG Research treibt und koordiniert alle öffentlich finanzierten Forschungsaktivitäten unseres Unternehmens. Das Team führt Forschungsarbeiten durch, die es uns ermöglichen, innovative Ideen und Technologien für Produkte umfassend zu evaluieren, damit sich unsere Kunden den zukünftigen Herausforderungen stellen können. Dabei werden die Kolleginnen und Kollegen von Research immer wieder mit den gesellschaftlichen Herausforderungen unserer Zeit konfrontiert. Ganz konkret hat sich bei einigen Forschungsprojekten herauskristallisiert, dass die zu erarbeitenden Innovationen neue Optionen für die Umsetzung nachhaltiger Ziele bedeuten können.

Eine spannende Frage begleitet also das Forscherteam:

“Kann ich mit meinem Projekt bzw. mit meinem Konsortium aus Universitäten, Forschungsinstituten, Privatunternehmen, Behörden und Verbänden einen Beitrag zur Umsetzung der Sustainable Development Goals leisten? Und welche spezifischen und praktisch umsetzbaren Unterziele passen nun genau zu meinem Forschungsvorhaben?”

Um es gleich vorwegzunehmen: Die Antwort auf diese Frage ist eine umfangreiche Tabelle, in der elf Projekte insgesamt 16 Unterzielen zugeordnet werden konnten. Eine motivierende Zahl. Lassen Sie uns beispielhaft einen Blick auf vier ausgewählte Forschungsprojekte mit der Einordnung in ein oder mehrere nachhaltige Ziele werfen.

 

Sustainable Development Goal # 3:

Ein gesundes Leben für alle Menschen jeden Alters gewährleisten und ihr Wohlergehen fördern

Dieses Ziel verfolgen wir mit dem Projekt SAUBER. Das vom Bundesministerium für Verkehr und digitale Infrastruktur geförderte Projekt baut eine Informationsplattform für eine nachhaltige Stadt- und Regionalentwicklung auf. Dabei werden die Daten und Services des Raumfahrtprogramms Copernicus erschlossen und in digitale Dienste überführt. SAUBER wird nicht nur einen flächendeckenden und detaillierten Überblick über die aktuelle Lage, sondern – dank des Einsatzes Künstlicher Intelligenz – auch Prognosen und Simulationen der zukünftigen Luftqualität bieten.

Neben ihrer Rolle als Konsortialführer entwickelt die Software AG in dem Projekt die SAUBER-Plattform, eine zentrale Infrastruktur für Geodaten. Dort werden alle relevanten Daten eingespielt und – sofern für Dritte geeignet – als Open Data zur Verfügung gestellt. Außerdem werden auf der Plattform die im Projekt entwickelten bzw. adaptierten Algorithmen der Künstlichen Intelligenz angebunden und den ebenfalls auf der Plattform integrierten SAUBER-Diensten bereitgestellt. Für die Realisierung der SAUBER-Plattform greift die Software AG auf Universal Messaging und Mashzone NG zurück.

Mit SAUBER trägt die Software AG dazu bei, das Unterziel 3. 9 zu erreichen, nämlich bis 2030 die Zahl der Todesfälle und Erkrankungen aufgrund gefährlicher Chemikalien und der Verschmutzung und Verunreinigung von Luft, Wasser und Boden erheblich zu verringern.

Und nicht nur das. SAUBER leistet darüber hinaus auch einen Beitrag zum Sustainable Development Goal # 13, in dem es darum geht, umgehend Maßnahmen zur Bekämpfung des Klimawandels und seiner Auswirkungen zu ergreifen.  Das Unterziel 13.3 benennt die Nachhaltigkeit von SAUBER präziser: Die Aufklärung und Sensibilisierung sowie die personellen und institutionellen Kapazitäten im Bereich der Abschwächung des Klimawandels, der Klimaanpassung, der Reduzierung der Klimaauswirkungen sowie der Frühwarnung verbessern.

 

Sustainable Development Goal # 7:

Zugang zu bezahlbarer, verlässlicher, nachhaltiger und zeitgemäßer Energie für alle sichern

Mit PHI-Factory, enera und SynErgie  forscht die Software AG in mehreren Projekten, in denen erneuerbare Energie im Fokus steht. Lasst Sie uns aber ein viertes Projekt herausgreifen: DESPRIMA, vom Bundesministerium für Wirtschaft und Energie gefördert, will es Getränkeabfüllern ermöglichen, ihren Stromverbrauch dem schwankenden Stromangebot flexibel anzupassen und damit ihre Stromkosten zu reduzieren. Ist das Stromangebot groß – z.B. an besonders sonnigen oder windigen Tagen – und der Strompreis damit niedrig, erhöhen die Abfüller ihre Stromnachfrage, indem sie die Produktion hochfahren bzw. energieintensive Prozesse vorziehen. Ist das Stromangebot  dagegen niedrig – der Strompreis also hoch – handeln sie gerade umgekehrt. Durch diese flexible Anpassung sparen die Getränkeabfüller nicht nur Geld, sondern tragen auch zur Stabilität der Stromnetze bei. Die Aufgabe der Software AG in DESPRIMA ist die Konzeption, Entwicklung und mithilfe von Cumulocity IoT prototypische Realisierung der Middleware.

DESPRIMA trägt dazu bei, die Unterziele 7.2. und 7.3 zu erreichen, nämlich bis 2030 den Anteil erneuerbarer Energie am globalen Energiemix deutlich zu erhöhen und die weltweite Steigerungsrate der Energieeffizienz zu verdoppeln.

 

Sustainable Development Goal # 8:

Dauerhaftes, inklusives und nachhaltiges Wirtschaftswachstum, produktive Vollbeschäftigung und menschenwürdige Arbeit für alle fördern

sustAGE ist ein von der EU gefördertes Projekt. Darin geht es um die Entwicklung eines personenzentrierten, digitalen Empfehlungssystems, das die kognitive, emotionale und körperliche Leistungsfähigkeit älterer Arbeitnehmer steigern soll. Dazu entwickelt ein internationales Konsortium aus Ingenieuren, Softwareentwicklern und Psychologen gerade ein intelligentes System, das auf Basis von Herzfrequenzmessungen oder Sprachanalysen personenzentrierte Rückmeldungen zur aktuellen Arbeitsbelastung gibt und gesundheitsförderliche Empfehlungen ausspricht. Die Software AG bringt in das Projekt ihre Expertise in der Anwendungs- und Lösungsentwicklung sowie in der Streaming-Analyse ein, um den sustAGE-Prototypen zu entwerfen. Mit Apama, Zementis, Cumulocity und Universal Messaging stellt die Software AG Technologien für Echtzeit- und prädiktive Analysen zur Verfügung.  Bei den SDGs kann sich das Projekt gleich auf drei Teilziele beziehen:

2: eine höhere wirtschaftliche Produktivität durch Diversifizierung, technologische Modernisierung und Innovation erreichen, einschließlich durch Konzentration auf mit hoher Wertschöpfung verbundene und arbeitsintensive Sektoren.

4: die weltweite Ressourceneffizienz in Konsum und Produktion Schritt für Schritt verbessern und die Entkopplung von Wirtschaftswachstum und Umweltzerstörung anstreben, im Einklang mit dem Zehnjahres-Programmrahmen für nachhaltige Konsum- und Produktionsmuster, wobei die entwickelten Länder die Führung übernehmen

5: produktive Vollbeschäftigung und menschenwürdige Arbeit für alle Frauen und Männer, einschließlich junger Menschen und Menschen mit Behinderungen, sowie gleiches Entgelt für gleichwertige Arbeit erreichen.

 

Sustainable Development Goal # 12:

Für nachhaltige Konsum- und Produktionsmuster sorgen

Kürzlich ist das von Bundesministerium für Wirtschaft und Energie geförderte Projekt REIF gestartet. Es will Lebensmittelverschwendung entlang der Lebensmittelkette verringern. Mithilfe Künstlicher Intelligenz sollen Stellschrauben zur Reduzierung der Lebensmittelverschwendung bei der Molke-, Fleisch- und Backwarenproduktion erkannt werden. Denn diese Lebensmittel sind schnell verderblich und verursachen viel Lebensmittelabfall. In REIF verantwortet die Software AG die Entwicklung und den Aufbau der REIF-Plattform, die als Datendrehscheibe fungiert. Auf ihr laufen die Daten aus der Wertschöpfungskette zusammen. Sie werden über die Plattform den KI-Algorithmen sowie den auf ihnen basierenden Diensten bereitgestellt. Die Dienste und KI-Algorithmen können dann auf der Plattform bezogen werden, die dafür einen generischen Marktplatz bietet. Dafür wird die Software AG insbesondere auf Cumulocity IoT (z.B. zur Anbindung von Sensorik, Maschinen und Anlagen) sowie webMethods (z.B. zur Realisierung des generischen Marktplatzes) zurückgreifen.

Mit REIF unterstützt die Software AG das Teilziel 12.3, in dem es darum geht, bis 2030 die weltweite Nahrungsmittelverschwendung pro Kopf auf Einzelhandels- und Verbraucherebene zu halbieren und die entlang der Produktions- und Lieferkette entstehenden Nahrungsmittelverluste einschließlich Nachernteverlusten zu verringern.

Übrigens gilt die Agenda gleichermaßen für Industrie-, Schwellen- und Entwicklungsländer. Im Gegensatz zu ihren Vorläufern, den Millenniumszielen, rufen die SDGs ausdrücklich alle Unternehmen auf, ihre Kreativität und ihr Innovationspotenzial zu nutzen, um die Herausforderungen einer nachhaltigen Entwicklung zu meistern. Zwar haben sich alle Regierungen auf die SDGs geeinigt, doch wird der Erfolg bei der Umsetzung maßgeblich vom Handeln und der Zusammenarbeit aller Akteure abhängen. Ein enormer Ansporn für das Forscherteam der Software AG.

 

Teilen: