Wie SAUBER ist die Luft – heute und auch morgen?

Wie SAUBER ist die Luft – heute und auch morgen?

Luftverschmutzung gehört nach wie vor zu den weltweit größten Gefahren für die Gesundheit.  Zudem bedrohen Luftschadstoffe die Ökosysteme. Lokale Entscheidungsträger in der Verkehrs-, Stadt- und Umweltplanung brauchen Unterstützung, um die Wechselwirkungen zwischen Luftschadstoffen und äußeren Einflüssen zu verfolgen. Darum geht es in dem Forschungsprojekt SAUBER. Dort wird eine Informationsplattform mit KI-basierten Ansätzen gebaut, die auch Prognosen und Simulationen der zukünftigen Luftverschmutzung erlauben. Nun ist der erste Demonstrator entstanden. Die Software AG hat mit ARIS Dashboarding-Funktionen das User Interface dazu gebaut.

Der Name ist Programm. Denn bei SAUBER (Satellitenbasiertes System zur Anzeige, Prognose und Simulation von Luftschadstoffen für eine nachhaltige Stadt- und Regionalentwicklung) geht es um saubere Luft. Das Herzstück von SAUBER bildet eine Geodateninfrastruktur, auf der alle relevanten Daten gespeichert werden und die zur Anzeige, Prognose und Simulation von Luftschadstoffen genutzt wird. Dazu werden Satellitendaten von Sentinel-3 und Sentinel-5P des Raumfahrtprogramms Copernicus analysiert, die in einer bisher unerreichten Qualität und Auflösung Stickstoffdioxid, Feinstaub, Ozon und Kohlenmonoxid aus dem Orbit erfassen können. Mit den Satellitendaten geht SAUBER in der Flächenabdeckung deutlich über die punktuellen Erhebungen der stationären Messstationen in den Pilotregionen Stuttgart und Nordrhein-Westfalen (NRW) hinaus. Als weitere Datenquellen dienen u.a. aktuelle und historische Verkehrs- und Wetterdaten sowie Ergebnisse der lokalen Luftmessstationen und Informationen zur Topografie und Bebauung. Dabei gilt: Je größer und vielfältiger die ergänzenden Daten sind, desto bessere Ergebnisse können erzielt werden.

Mit KI den Schadstoffen auf der Spur

Was passiert nun mit den vielen Daten? Sie werden miteinander verknüpft und mit Hilfe von analytischen Verfahren ausgewertet, sodass sich ein flächendeckendes, zugleich aber möglichst genaues Bild der aktuellen Luftqualität ergibt. Dieses Bild geht in der räumlichen Abdeckung über die punktuellen Messungen der Luftqualität hinaus und übertrifft dabei im Detailgrad die Auflösung der Satellitendaten deutlich. Mit Hilfe von KI-Methoden werden Zusammenhänge bzw. Abhängigkeiten aufgespürt und in entsprechende Prognosen und Simulationen für die Stadt- bzw. Regionalentwicklung überführt. Daher arbeitet das SAUBER-Projektteam eng mit den Anwendungspartnern, dem Umweltamt Stuttgart und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW, zusammen.

Demonstrator zeigt Visualisierungspotentiale

Die Software AG spielt in dem Forschungsprojekt eine entscheidende Rolle. Sie ist nicht nur Konsortialführerin, sondern verantwortet auch die Konzeption und Entwicklung der SAUBER-Plattform. Zum Einsatz kommen unsere Messaging Technology und ARIS Dashboarding-Funktionen für das Interface des Demonstrators.

Auf der SAUBER-Plattform werden nun alle Daten eingespielt, miteinander verschnitten, ausgewertet und schließlich in die SAUBER-Dienste überführt. Und genau diese Dienste zeigt uns der Demonstrator, der die Möglichkeiten des Systems visualisieren soll:

Der „Stations-Viewer“ bildet Schadstoffbelastung, Wetter und Verkehrsaufkommen in Form einer Karte ab.

Hier sieht man die NO2-Werte an der Stuttgarter Messstation „Am Neckartor“

Der Dienst „Prognose“ ermöglicht Vorhersagen bzgl. der Luft- und Klimadaten für die nächsten zwei Tage. Die Prognosen errechnen sich aus aktuellen Messdaten und sehr vielen zusätzlichen Daten aus der Historie. Mit diesem Daten-Mix werden neuronale Netze trainiert. Sie lernen, welche Zusammenhänge es in den vergangenen ein bis zwei Jahren gab. Verknüpft mit aktuellen Messdaten, wie Wetter-, Verkehrs-, Struktur- und vielen anderen Daten, berechnet das System, wie sich die Luftbeschaffenheit weiterentwickelt. Übrigens ist die Prognose für zwei Tage schon sehr genau. Das weiß man, weil man Echtzeitdaten und Prognosedaten aus der Vergangenheit miteinander verglichen hat.

An der Messstation in Aachen Burscheid werden relativ geringe PM10-Werte in Form der hellblauen Linie (am Ende des Diagramms) prognostiziert.

Mit dem Dienst „Simulation“ soll die langfristige Wirkung verschiedener Bebauungsszenarien auf die Umwelt einer Region ermittelt werden. An diesem Dienst arbeitet das Projektteam noch intensiv. Er soll bis zum Ende des Projekts, am 31. Dezember 2021, realisiert sein.

Konkret trifft der Anwender auf dem Dashboard des Demonstrators auf drei Kacheln. Sie führen zum Datenangebot mit der Übersicht über alle Daten-Visualisierungen und Demonstratoranwendungen, zum Stations Viewer mit Karten und Details zu den Messstationen und zu den bisher noch nicht implementierten Tutorials zur Nutzung der SAUBER-Daten.

Der Demonstrator umfasst mehrere Use Cases.. In den Pilotregionen NRW und Stuttgart werden die Messstationen für die Schadstoffe NO, NO2, O3 und PM10 (für NRW) und NO2 (für Stuttgart) visualisiert. Wir sehen dort Zeitreihen mit Werten im Stundentakt. Sowohl die Schadstoffausstoßung der Vergangenheit als auch Prognosen für die nächsten beiden Tage sind dargestellt. Ähnlich ist es bei den Use Cases zur flächenhaften Visualisierung auf sogenannten Heatmaps. Eine Heatmap ist eine Technik zur Datenvisualisierung, bei der das Ausmaß eines Phänomens in zwei Dimensionen farblich dargestellt wird.

Ein Rechteck wird über die Karte gelegt. Es zeigt mit den Farbnuancen den Grad der Luftverschmutzung über einem bestimmten Landstrich in NRW.

Grünfläche statt Hochhaus

Die Daten der SAUBER-Plattform kann man über standardisierte Schnittstellen abrufen und in eigenen Programmen weiterverarbeiten. Das kommt den Mitarbeitern in kommunalen Behörden zugute, die selbst mit sehr umfangreichen IT-Programmen arbeiten. Übrigens ist nicht geplant, dass die breite Öffentlichkeit Zugriff haben wird. Der Erklärungsbedarf wäre für den Laien bei zu geringem Informationsgewinn zu hoch.

Noch drei Monate arbeitet das Konsortium an der Plattform. Neben der Weiterentwicklung des User Interface Designs gehört der Simulations-Dienst zu den umfangreichsten Hausaufgaben.  Simulation könnte spannend werden. Denn stellen wir uns vor, dort, wo die Luftverschmutzung besonders hoch ist, würde man die Einrichtung von Grünflächen durch veränderte Strukturdaten in den neuronalen Netzen simulieren. Welchen Einfluss hätte das wohl auf die Schadstoffkonzentration? SAUBER verspricht uns Antworten.

Luftschadstoffe

Ozon (O3)

Ozon ist ein starkes und giftiges Oxidationsmittel, das bei Menschen und Tieren zu Reizungen der Atemwege und der Augen sowie Begünstigung von Atemwegserkrankungen führen kann. In der Troposphäre ist Ozon der drittwirksamste Treiber der globalen Erwärmung (nach Kohlendioxid und Methan). Die Ozonschicht in der Stratosphäre schützt die Lebewesen auf der Erde vor Schädigungen durch energiereiche mutagene ultraviolette Strahlung der Sonne.

Feinstaub (PM2.5)

Diese mikroskopischen Partikel mit einer Größe von bis zu 2,5 Mikrometer schweben in der Luft. Zu dieser Kategorie gehören Rauch, Bakterien und Allergene. Feinstaub PM10 Diese größeren mikroskopischen Partikel mit einer Größe von bis zu 10 Mikrometer schweben in der Luft. Zu dieser Kategorie zählen Staub, Schimmel und Pollen.

Stickstoffoxide (NO und NO2)

Sie entstehen als Produkte unerwünschter Nebenreaktionen bei Verbrennungsprozessen. Die Hauptquellen von Stickstoffoxiden sind Verbrennungsmotoren und Feuerungsanlagen für Kohle, Öl, Gas, Holz und Abfälle. In Ballungsgebieten ist der Straßenverkehr die bedeutendste NOx-Quelle.

Partner von SAUBER

• geomer Gmbh

• meggsimum

• Deutsches Zentrum für Luft- und Raumfahrt

• Fraunhofer Heinrich-Hertz-Institut

• Institut für Informationssysteme der Hochschule für Angewandte Wissenschaften Hof

• Leibniz-Institut für ökologische Raumentwicklung

• Software AG

 

Assoziierte Partner

• Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen

• Amt für Umweltschutz der Landeshauptstadt Stuttgart

Mehr erfahren

Teilen:
Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Tool zur Entscheidungsfindung im Transportwesen auf dem Prüfstand

Ein LKW fährt von A nach B und kommt leer zurück. Ökonomisch und ökologisch nicht sinnvoll, versteht sich. Um das zu verhindern, ist eine akribische Planung nötig. Und die ist ohne ein intelligentes IT-System nicht zu machen.

Dies und mehr sind die Aufgaben des europäischen Forschungsprojekts LOGISTAR. Derzeit laufen im Projekt Testwochen, in denen in drei Anwendungsfällen Dienste unter realen Bedingungen getestet werden. Der Demonstrator basiert auf der Arbeit der Software AG mit ihren Anwendungen von Cumulocity IoT und webMethods sowie Universal Messaging. Das Projekt LOGISTAR zielt darauf ab, eine effektive Planung von Transportvorgängen in der Lieferkette zu ermöglichen.

Ziel ist es, die verfügbaren Daten zu nutzen, um sie zu verarbeiten und Dienste bereitzustellen, die durch intelligente Algorithmen wie das Erlernen von Vorhersagen oder die Optimierung von Präferenzen implementiert werden. Drei Living Labs bilden die Anwendungsfälle. Der erste ist die Optimierung der Abläufe im Lager durch die präzise Vorhersage der Ankunftszeit, die Erkennung von Zwischenfällen und die effiziente Re-Optimierung. Dadurch wird die Ressourcennutzung im Lager verbessert und die Wartezeit für Abläufe verkürzt.

Die zweite Dienstleistung besteht in der Verbesserung des Routings der Ladungen in verschiedenen Transportmitteln, wie LKW, Zug und Schiff. Auf diese Weise werden die Kosten für logistische Prozesse gesenkt und die Nutzung der Infrastruktur optimiert. Der dritte Dienst schließlich konzentriert sich auf die horizontale kollaborative Planung von Ressourcen, um Kosten zu teilen und Emissionen zu reduzieren. Auf diese Weise wird die Anzahl der Leerkilometer von Lastwagen reduziert.

Die LOGISTAR-Anwendungen werden in allen Living Labs gründlich getestet. Die Partner befinden sich derzeit in den Testwochen. In der ersten Woche ging es um Living Lab 1.

Lkw nicht leer zurückschicken

Wie läuft so eine Testwoche ab? Der Partner Ahlers aus Belgien hat den Test bis ins letzte Detail geplant und wird die Testwochen auch mit Dokumentation und Auswertung begleiten. Jeden Morgen um 9 Uhr treffen sich alle Partner, um den Ablauf des Tages zu koordinieren, und jeden Nachmittag um 16 Uhr werden die Ergebnisse besprochen. Im Mittelpunkt der Tests stehen die Anwendungspartner Nestlé und Pladis, die täglich Tausende von LKWs fahren müssen. Beide haben ein besonderes Interesse an der Fortsetzung früherer Forschungsaktivitäten, nachdem sie seit 2007 die zurückgelegte Strecke der leeren Fahrzeuge um 270.000 Kilometer pro Jahr reduziert haben. Derzeit fehlt es an einer globalen Sicht auf die Abläufe, was dazu führen kann, dass Gelegenheiten der Zusammenarbeit verpasst werden. In diesem Testfall soll gezeigt werden, wie die Informationen, die das in LOGISTAR entwickelte Entscheidungsfindungs-Tool liefert, das Backhauling-Management verbessern können, d. h. die Praxis, die Lastwagen nicht leer zurückzuschicken, sondern sie einen Teil der Ladung zur ursprünglichen Quelle zurückbringen zu lassen.

Das Team der Software AG hat die Basis für den Demonstrator entwickelt. Er ist teilweise in einer webMethods-Anwendung implementiert, die für die grundlegende Kommunikation im gesamten System sorgt. Die Software AG ist auch mit Universal Messaging und Apama beteiligt. Universal Messaging wird eingesetzt, um die Basiskommunikation im gesamten System sicherzustellen. Das bedeutet, dass alle Komponenten – sichtbare und unsichtbare – über Universal Messaging miteinander kommunizieren. Das macht sie aber nicht voneinander abhängig, sondern entkoppelt sie.

Projektmanager Christian Gengenbach von der Software AG erklärt das System so:

“Das ist im Projekt sehr hilfreich, weil sieben technische Partner unabhängig voneinander komplexe Komponenten entwickeln, die in den letzten Wochen so langsam zusammengefügt wurden. Universal Messaging sorgt dafür, dass das ganze System nicht automatisch zusammenbricht, wenn eine Verbindung nicht funktioniert.”

Apama, eine der IoT Analytics-Komponenten der Software AG, kümmert sich um die Ereignisverarbeitung. Verkehrsstaus oder Wetterprobleme müssen an die entsprechenden Komponenten weitergeleitet werden.

Planung und Überwachung gemeinsamer Fahrten

Der Demonstrator konzentriert sich auf zwei Webanwendungen: Planer und Echtzeitüberwachung. Der Planer-Bildschirm unterstützt die Anwender bei der optimalen Nutzung ihrer Logistikressourcen. Das LOGISTAR Living Lab 1 für Co-Loading und Backhauling bietet optimierte Fahrten für kollaborative Transporte an und unterstützt den Prozess der Entscheidung, ob der Vorschlag von den beteiligten Akteuren angenommen oder abgelehnt werden soll. LOGISTAR kalkuliert die Vorschläge im Hintergrund und ermöglicht die parallele Nutzung des Tools für die Beteiligten mit sofortiger Wirkung im System.

Was bedeutet das konkret? Der erste Schritt ist die Auswahl des Tages, an dem die Fahrten geplant werden sollen: Die Liste der passenden Fahrten wird automatisch aktualisiert. Statussymbole zeigen den Fortschritt der Entscheidung an: Ausstehend, Angenommen, Abgelehnt. Am Ende können die Fahrten, die von allen akzeptiert werden, stattfinden.

Mit dem Modul Real-Time Monitoring arbeitet ein Disponent, wenn der Lkw bereits auf der Straße ist. Die Komponente unterstützt die Disponenten bei der Überwachung der Fahrten, der Anpassung der Disposition und des Plans, wenn es zu Störfällen kommt. Die Informationen werden auf einer Karte dargestellt, um den Partnern einen detaillierten Überblick über die Positionierung der Gebäude, die Auftragsrouten und andere nützliche Informationen für die Fahrzeugüberwachung zu geben.

Die Sichtweise der Logistikexperten verstehen

Die Anwendungspartner Nestlé und Pladis waren die Haupttester. Aber auch die technischen Partner hatten nun die Möglichkeit, das gesamte System als Anwender kennen zu lernen. Schließlich hatten sie ja nur einzelne Module entwickelt.

Alle Tester achteten besonders auf die Zugänglichkeit, die Leistungsfähigkeit und die Datenkonsistenz. Zu Beginn der Testwoche lag der Schwerpunkt auf den Zugangsfragen: Funktioniert die Anmeldung? Können die Benutzer von verschiedenen Geräten aus auf das System zugreifen? Dann ging es um die Grundlagen: Wie geht das System damit um, wenn der Benutzer eine Reise annimmt oder ablehnt?

Das Fazit, das die Partner nach einer Woche Testphase zogen, ist durchweg positiv: Die Entwickler der Anwendung haben die Sichtweise der Logistikexperten kennengelernt. Deren Tagesablauf ist ganz anders, als es ein Laie erwarten würde. Das hat den technischen Partnern geholfen.

Auch unter der Woche konnten Anmerkungen direkt umgesetzt werden. Einige Änderungen werden aber auch langfristig umgesetzt werden müssen.

In der Zwischenzeit gehen die Testwochen weiter. Der Aufwand dürfte sich lohnen. Immerhin hat sich das Projekt ehrgeizige Ziele gesetzt (siehe Infokasten rechts).

Die 5 wichtigsten Vorteile von LOGISTAR

  • Optimierungstechniken erhöhen den Auslastungsfaktor der Frachtfahrzeuge um 10%
  • Lieferwege werden um 10 % durch Synchromodalität (intelligente Nutzung verschiedener Verkehrsträger wie Schiene, Binnenschifffahrt oder Straße auf einer Route) verkürzt.
  • Zuverlässigkeit und Effizienz der Dienste werden erhöht: Vorhersage von Ereignissen und Zwischenfällen.
  • Das Management von logistischen Abläufen wird vereinfacht: Bereitstellung von Dashboards und Anzeige von Warnungen oder Empfehlungen.
  • Die Sichtbarkeit der Lieferung durch den Einsatz von Sensoren zur Überwachung der beförderten Güter und Förderung des Datenaustauschs wird verbessert.

Partner des Projekts

  • Agencia Estatal Consejo Superior de Investigaciones Científicas, M.P.
  • Ahlers Belgium NV
  • Chep Espana SA
  • Codognotto Italia SPA.
  • Consorzio Zailog, Interporto of Verona
  • DBH Logistics IT AG
  • Drustvo za Konsalting, Razvoj i Implementaciju Informacionih i Komunikacionih Tehnologija Dunavnet DOO
  • Genegis GI SRL
  • MDS Transmodal LTD.
  • Nestle UK LTD.
  • Pladis MDC Global (former United Biscuits)
  • Preston Solutions LTD.
  • Semantic Web Company GMBH
  • Universidad de la Iglesia de Deusto Entidad Religiosa
Teilen:
Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Autonomes Fahren: Mit IoT-Analytics auf Sicht fahren

Der Deutsche Bundestag hat kürzlich ein Gesetz verabschiedet, das den Einsatz von selbstfahrenden Autos erlaubt. Autonome Fahrzeuge bieten große Chancen und stellen uns gleichzeitig vor viele Herausforderungen.

So verlangt das Zukunftsthema nach einer intelligenten und sicheren Verkehrsinfrastruktur. Denn ein Signalabriss kann sicherheitskritische Auswirkungen haben. Wie die Software AG mit IoT Analytics, insbesondere mit Mashzone NextGen, Apama sowie Webtechniken und Container-Technologien dazu die entsprechenden Daten zusammengeführt, aufbereitet, analysiert und visualisiert haben, zeigt das Forschungsprojekt Cartox2.

Serviceplattform Cartox2 ebnet den Weg für das autonome urbane Fahren

Das vom Bundesministerium für Verkehr und digitale Infrastruktur geförderte Projekt Cartox2 ist kürzlich abgeschlossen worden. Sechs Partner, unter ihnen auch die Software AG, haben eine Plattform für Basisdienste entwickelt. Sie erfasst und verarbeitet Informationen über die Car-to-Car-Konnektivität (C2C), die Netzabdeckung für die Car-to-X-Kommunikation (C2X) sowie das Datenrouting zu und zwischen Edge-Clouds, den Zugangspunkten der Cloud-Umgebung. Cartox2 trägt hybride Kommunikations- und Positionierungsdaten mit weiteren Geodaten auf einer Big Data-Plattform zusammen. Es reichert statische mit Echtzeitinformationen an, um mit Algorithmen zur Datenanalyse neuartige Dienste und Geschäftsmodelle zu kreieren. Die Rolle der Software AG bestand darin, Daten zu integrieren, aufzubereiten, zu analysieren und zu visualisieren. Dem Team um Projektmanager Andre Litochevski ist dabei ein spannender modularer Prototyp mithilfe von MashZone NextGen, Apama, Webtechnologie Angular sowie Containervirtualisierung mit Docker und NginX-Sicherheit gelungen.

Signalstärke visualisieren

Worum geht es? Für autonomes Fahren ist ausreichende Signalstärke notwendig. Denn wo kein Mensch am Steuer sitzt, müssen Systeme miteinander kommunizieren und Signale wahrnehmen. Beispielsweise kann ein Auto ein anderes warnen, wenn in zwei Kilometer Entfernung ein Unfall passiert ist. Aber kann dieses Warnsystem auch überall funktionieren? Mithilfe von Mashzone NextGen bieten wir hier einen interessanten Service für die Visualisierung an. Die Daten im Raum Dresden sind dazu zuvor von einem Projektpartner vermessen worden. Die Software AG hat diese Daten abgegriffen, mit APAMA analysiert und sie mit Mashzone NextGen visualisiert zur Verfügung gestellt. Der Nutzer meldet sich über einen Browser an und klickt auf Orte auf einer Straßenkarte oder trägt die Koordinaten ein.  Sofort erfährt er, ob die Signalstärke dort hoch genug, autonomes Fahren also möglich ist.

Aber der Prototyp kann noch viel mehr, beispielsweise mit dem Feature RSSI (Received Signal Strength Indicator) Routing: Mashzone NextGen rechnet für Dresden Routen mit der besten Signalstärke aus. Es wird dargestellt, wie die sogenannte Line-of-Sights-Propagation, also die geradlinige Ausbreitung der Signale zum Empfänger, ist. Denn der Anwender will auch bei unübersichtlichen Kreuzungen „sehen“, wo es Hindernisse für ein gute Signalstärke gibt.

Der Prototyp visualisiert aber auch die Zugriffe auf Edge Clouds. Dort, wo Autos nicht direkt miteinander kommunizieren können, fragen sie Infos aus Edge Clouds ab, die zuvor andere Autosysteme dorthin gemeldet haben. Das funktioniert über RSUs Road Side Unites (RSUs), am Straßenrand installierte Hardware, die Mashzone NextGen über genaue Koordinaten anzeigt.

Unfallrisiken abschätzen

Cartox2 kann auch Unfallschwerpunkte identifizieren. Sie entstehen bei mangelnder Funkabdeckung vor allem für hochautomatisierte Fahrzeuge.

Und mehr noch: Mit einem Klick auf einen Unfallort erhält der Anwender Informationen darüber, wer wann unter welchen Bedingungen und mit welchem Fahrzeug einen Unfall verursacht hat. Die Cartox²-Serviceplattform versetzt Unfallforscher in die Lage, bereits bekannte Unfallschwerpunkte nach neuen Kriterien zu bewerten und Risiken abzuschätzen. Außerdem soll es zukünftig möglich werden, bisher unbekannte Unfallschwerpunkte, die mit den kommenden Fahrzeuggenerationen entstehen, zu prognostizieren.

Fit für das urbanes, autonomes Fahren

Die Vorteile einer solchen Visualisierung und die potenziellen Benutzertypen liegen auf der Hand: Entscheider in Kommunen können mit Cartox2 ihre Stadt fit für das autonome Fahren machen. Signalstärken lassen sich erfassen und optimieren. Der Verkehr kann bei schwacher Signalstärke, bei Unfällen oder hohem Verkehrsaufkommen schneller umgeleitet werden. Unfälle lassen sich durch die gesammelten und visualisierten Daten durch gezielte Verkehrslenkung ebenso vermeiden wie ein erhöhter CO2-Ausstoß.

Auch Busunternehmer profitieren von dem System. Sie erhalten Aufschluss darüber, welche Route beim autonomen Fahren ökonomisch und ökologisch sinnvoll ist und können in Absprache mit der Kommune ihre Routen planen.

Diese wertvollen Daten werden öffentlich und leicht zugänglich sein, auch für Bürgerinitiativen mit ihren lokalen Anliegen.

Die Use Cases sind vielversprechend und die Potenziale dieser Plattform längst nicht ausgeschöpft. Wir dürfen gespannt sein, welche Rolle Cartox2 mit der Mahzone NextGen-Anwendung in der Zukunft des autonomen Fahrens spielen wird.

Projektpartner

• Fraunhofer Institut für Verkehrs- und Infrastruktursysteme IVI

• CETECOM GmbH, Essen

• hrd.consulting, Dresden

• MechLab Engineering UG, Dresden

• Software AG

• Technische Universität Dresden, Professur für Informationstechnik für Verkehrssysteme

Mehr zu Cartox2 erfahren:

Flyer: Alle Infos auf einen Blick

Projektseite beim Bundesministerium für Verkehr und digitale Infrastruktur

Teilen:
Energiewende braucht Digitalisierung ohne Sicherheitslücken

Energiewende braucht Digitalisierung ohne Sicherheitslücken

Wie kann unser zukünftiges Energiesystem versorgungssicher, wirtschaftlich und nachhaltig aufgestellt werden?

Dieser Frage sind 31 Partner mit hunderten Beteiligten und einem Budget von 170 Millionen Euro nachgegangen. Nach vier Jahren ist nun das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt enera zu Ende gegangen. enera ist das Zusammenspiel von intelligenten Netzen, die umfassende Flexibilisierung von Energieanlagen der fünf Modellregionen und die Etablierung einer digitalen Wertschöpfungskette der Energieversorgung. Peter Altmeier, Bundesminister für Wirtschaft und Energie, fasst das Ergebnis zusammen:

„Die Fachleute haben gezeigt, dass intelligente Netze durch den Einsatz digitaler Technologien auch bei zeitweise bis zu 100 Prozent Stromeinspeisung aus erneuerbaren Energien ein stabiles und sicheres System gewährleisten können.“

Viele Konzepte und Ideen aus der digitalen Wirtschaft sind dabei für die Energiewirtschaft erschlossen worden. Die digitale Infrastruktur musste völlig neu gedacht werden. Daten sind ein entscheidender Rohstoff, wenn das Energiesystem digitalisiert wird. Rechenzenten werden zu zentralen Schnittstellen im Energiesystem der Zukunft.

In einem der 13 Arbeitspakete wurde mit der Smart Data und Service Plattform (SDSP) die zentrale Datendrehscheibe für enera aufgebaut. Sie dient als übergreifende Informations- und Datensammlung für Quell- und Zielsysteme. Es fließen Massendaten unterschiedlichster energiewirtschaftlichen Quellen ein. Sie stammen beispielsweise von Strombörsen oder virtuellen Kraftwerken – das ist ein Verbund aus vielen und zumeist kleinen Anlagen, die sich verschiedener Energiequellen bedienen können. Wetterprognosen werden ebenso erfasst wie der Netzzustand oder Verbrauchsdaten der Haushalte.

Aber ein dezentrales und digitales Energiesystem schafft Angriffspunkte. Das Stromsystem muss also jederzeit geschützt, der komplexe Datenfluss und die IT-Systeme abgesichert werden.

Security by Design mit ARIS

Es braucht digitale Technologien, die auch bei zeitweise bis zu 100 Prozent Stromeinspeisung aus erneuerbaren Energien ein stabiles und sicheres System gewährleisten können. Security by Design lautete die Devise, also die Erfassung und Berücksichtigung von sicherheitsrelevanten Eigenschaften von Beginn an. Und hier kommt die Stärke von ARIS ins Spiel. Da es sehr flexibel einsetzbar und erweiterbar ist, wurde im Projekt enera die Entscheidung getroffen, es mittels spezieller Erweiterungen sowohl methodisch als auch technisch zur Durchführung von Informationssicherheitsmanagementsystem (ISMS)-Analysen zu nutzen. Konkret ging es um die Möglichkeit, die ca. 60 erfassten Use Cases, die dokumentiert und in das Smart Grid Architektur Model übertragen wurden, zu importieren. Dieses Modell ist ein Framework für die Beschreibung von Architekturen im Smart Grid und definiert einerseits verschiedene sogenannte fachliche Zonen, andererseits aber auch die vorhandenen Domänen.

Technische Anpassungen zur ISMS Analyse wurden vorgenommen und durch die entsprechende Implementierung verfügbar gemacht, So konnte schließlich eine Strukturanalyse des Schutzbedarfs im Sinne eines ISMS durchgeführt werden.

webMethods sichert Services ab

Die modellierten Use Cases konnten dann mit einer API-Management-Lösung, bestehend aus webMethods API Portal und webMethods API Gateway, implementiert werden. Diese Lösung schützt die Zugriffe auf die Services der Smart Data und Service Plattform. Zugriffe werden nur gesichert über HTTPS zugelassen und für jede Anwendung, die einen Service nutzen möchte, wird ein individueller API-Token vergeben. Ein API-Token ist ein eindeutiges Zuordnungsmerkmal, das eine App oder eine Website nutzen kann, um die API anderer Unternehmen abzurufen. Dies erlaubt, die Zugriffe zu steuern und zu überwachen. Dazu gehört auch die Überprüfung, welche individuellen Zugriffe in welcher Frequenz stattgefunden haben. Die Zugriffsrate kann zwecks Lastverteilung limitiert werden, um die Verfügbarkeit der Plattform auch für andere Anwendungen sicherzustellen. Dieses Konzept wurde bereits im ersten Jahr des Projekts erstellt und hat sich bis zum Schluss so sehr bewährt, dass es im Laufe des Projekts auf mehr und mehr Services ausgeweitet wurde.

Sie wollen mehr über enera erfahren?

Das Projekt enera ist offiziell beendet, doch die gesammelten Erfahrungen, zahlreichen Ergebnisse und die neuen Ideen für die Zukunft der Energiewende bleiben. Laden Sie sich das enera Projektmagazin und das Projektkompendium herunter und lassen Sie die Projektjahre noch einmal Revue passieren.

Mehr erfahren

 

Teilen:
Die energieflexible Fabrik der Zukunft

Die energieflexible Fabrik der Zukunft

Wie können Industriebetriebe nicht nur energieeffizient produzieren, sondern auch zur Stabilität eines Stromnetzes mit erneuerbaren Energien beitragen? Antworten fand das Forschungsprojekt PHI-Factory. Die Software AG entwickelte dafür eine Echtzeitplattform, basierend auf der Analyse von Sensordatenströmen mit APAMA.

In Deutschland vollzieht sich ein Wandel in der Energieversorgung. Die Anzahl der konventionellen Großkraftwerke nimmt ab. Gleichzeitig steigt der Anteil der Erzeuger regenerativer Energien sowie der Anlagen der Kraft-Wärme-Kopplung mit dezentralem Standort. Für einen stabilen Betrieb der elektrischen Netze mit den Zielen hoher Versorgungszuverlässigkeit und -qualität hinsichtlich Spannung und Frequenz werden durch die Netzbetreiber fortlaufend Systemdienstleistungen wie Regelleistung, Blindleistung und Kurzschlussleistung angefordert.

Im Dezember 2016 startete das vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt PHI-Factory. Die Leitidee war es, eine digitalisierte und energieflexible Fabrik der Zukunft zu konzipieren und zu demonstrieren, dass eine Fabrik als aktives Regelelement zeitgleich Energiekosten einsparen und Systemdienstleistungen für das öffentliche Energieversorgungsnetz bereitstellen kann. Das Forschungskonsortium bestand aus einem Zusammenschluss von Forschungsinstituten aus Maschinenbau, Mechatronik, Elektrotechnik und ausgewählten Industriepartnern, die sowohl an Entwicklungsaufgaben als auch als Anwender der Forschungsergebnisse beteiligt waren. Die entwickelten Lösungen wurden in der ETA-Forschungsfabrik am Campus Lichtwiese der TU Darmstadt integriert und experimentell erprobt – und das mit großem Erfolg. Die ETA-Fabrik wurde zur vollständig digitalisierten, energieflexiblen Modellfabrik ausgebaut.

 

 

Schlanke Echtzeitplattform für Big Data

Durch die umfangreiche Datenerfassung im Kontext einer flexiblen elektrischen Fabriknetzführung war die Erforschung und Entwicklung neuer Big Data-Verfahren erforderlich. Hier kam die Software AG ins Spiel. Unter der Leitung ihres Projektmanagers Dr. Dietmar Gärtner entwickelte sie als eine der Kerninnovationen des Projekts eine Big Data-Plattform mit Anbindung an die Datenquellen sowie Datenauswertung und Regelung in Echtzeit. Externe Softwaresysteme wie Energiemonitoring, Prognosemodelle und Produktionsplanung werden über geeignete Schnittstellen in die Plattform integriert und berechnete Stellgrößen an die Steuerungen der Maschinen und Anlagen übertragen. Die Plattform erfüllt State-of-the-art-Anforderungen:

  • Effizienz
  • Skalierbarkeit
  • Sicherheit
  • Wartbarkeit
  • niedrige Kosten

Eine zentrale Rolle nahm dabei APAMA ein, das in der Abschlussveranstaltung des Forschungsprojekts seine „Glanzstunde“ hatte. Dort wurde die laufende Ermittlung von Lastprognosen anhand einer Werkzeugmaschine in der Modellfabrik demonstriert. Lastprognosen treffen Aussagen über den zukünftigen Energiebedarf. Ein von den Projektpartnern der TU Darmstadt in Python entwickeltes Prognosemodell, das über die Plattform in APAMA eingebunden war, wurde im Sekundentakt mit aktuellen Daten versorgt, um den Energiebedarf mit einem kurzzeitigen Horizont für die nächsten 100 Sekunden vorherzusagen. Die Lastprognose wurde dann direkt an das Energiemanagementsystem EnEffCo® des Konsortialpartners Ökotec übertragen und dort in einem Dashboard visualisiert.

In einem zweiten Anwendungsfall, der ebenfalls auf der Echtzeitplattform der Software AG basierte, wurde eine Blindleistungsreglung für die ETA-Fabrik demonstriert. Erfolgt ein Blindleistungsabruf durch den Netzbetreiber, wird dieses über die Plattform als Ereignis an APAMA signalisiert, das einen ebenfalls in Python implementierten Blindleistungsregler mit den aktuellen Ist- und Sollwerten aufruft. Der Regler ermittelt daraus den Stellwert und gibt ihn an APAMA zurück, das diesen in dem OPC UA Server der entsprechenden Steuerung aktualisiert, damit die Leistungselektronik die Blindleistung dem Stellwert entsprechend regelt. Das “Einschwingen” der Bildleistung auf den neuen Sollwert wurde ebenfalls in einem Dashboard visualisiert.

 

 

Monitoring von Energie- und Prozessdaten in der Modellfabrik

Die Bilanz von PHI-Factory nach dreieinhalb Jahren Forschungsarbeit kann sich sehen lassen:  Mit Hilfe des vollständigen Monitorings von Energie- und Prozessdaten können zukünftige Energieflüsse antizipiert und der elektrische Lastgang in Abhängigkeit von Wetter- und Marktdaten angepasst werden. Dabei wurden u.a. Methoden aus dem Bereich des maschinellen Lernens für industrielle Energiesysteme eingesetzt und eine künstliche Intelligenz entwickelt, die selbstständig ein optimiertes Betriebsverhalten erlernt. Zudem setzte das Konsortium einen hoch effizienten, hybriden Energiespeicher, bestehend aus einem Schwungmassenspeicher und Lithium-Ionen-Batterie, ein und erprobte ihn. Der Speicher integriert die Ladestrategien für die werksgebundene E-Mobilität. Die Fabrik kann somit in Zeiten mit geringer Einspeisung aus erneuerbaren Energien bis zu zwei Stunden autark betrieben werden. Bis zu 100 Prozent der elektrischen Fabriklast lässt sich so flexibilisieren und um mehrere Stunden verschieben. So kann der Netzbezug auf besonders günstige Zeiten mit hoher Verfügbarkeit erneuerbarer Energien verschoben werden.

Künftige Forschungen

Wichtige Ergebnisse aus dem Projekt, speziell im Hinblick auf den Beitrag der Software AG, waren die Erkenntnisse, dass bei der Erhebung und Verarbeitung von großen Datenmengen eine möglichst frühe Vorselektion der für den jeweiligen Zweck tatsächlich notwendigen Daten erfolgen sollte (Edge Computing). Außerdem zeigte sich, dass die Echtzeitverarbeitung auf den Datenströmen hier große Vorteile bringt. Auch die Verwaltung der Datenquellen, die in PHI-Factory teilweise manuell erfolgte, bedarf stärkerer Automatisierung. Der Einsatz von Methoden der künstlichen Intelligenz hat sich für die betrachteten Anwendungsfälle als sehr vorteilhaft erwiesen. Diese Erkenntnisse werden in einem Nachfolgeprojekt “KI4ETA” verwertet und weiter erforscht. Die Software AG beteiligt sich an diesem Nachfolgeprojekt und bringt dafür ihre Expertise und ihre Technologien Cumulocity Cloud und Edge sowie APAMA mit ein.

 

Mehr über intelligente Lösungen für die Industrie erfahren

Teilen: