Neue Wege zur Optimierung systemkritischer Infrastrukturen Sensordatenverarbeitung: Symbiose aus Edge und Cloud

Von Prof. Dr.-Ing. Carsten Trinitis und Dr. rer. nat. Roman Karlstetter 7 min Lesedauer

Anbieter zum Thema

Sensoren in modernen Anlagen systemkritischer Infrastrukturen generieren enorme Datenmengen, die bislang eher ineffizient in Clouds verarbeitet werden. Wie kann es gelingen, weniger, dafür aber relevantere Daten zu übertragen? Die Lösung: eine Kombination aus Edge und Cloud Computing.

Wenn in Industrieanlagen etwas kaputt geht, dann kommen sie zum Einsatz. Besser ist es, aufkeimende Fehler durch gezielte Überwachung bereits festzustellen, bevor diese Wirkung entfalten. Und dies lässt sich am besten mit einer Kombination aus Edge und Cloud Computing realisieren.(Bild:  NORN - stock.adobe.com / KI-generiert)
Wenn in Industrieanlagen etwas kaputt geht, dann kommen sie zum Einsatz. Besser ist es, aufkeimende Fehler durch gezielte Überwachung bereits festzustellen, bevor diese Wirkung entfalten. Und dies lässt sich am besten mit einer Kombination aus Edge und Cloud Computing realisieren.
(Bild: NORN - stock.adobe.com / KI-generiert)

Daten sind der Motor unserer modernen Welt – sie durchdringen nahezu jeden Lebens- und Arbeitsbereich. Sie ermöglichen es uns, Probleme zu identifizieren, zu bewerten sowie fundierte Entscheidungen zu treffen. Doch die Speicherung und Übertragung dieser riesigen Datenmengen stellt hohe Anforderungen an Rechenkapazitäten, Server und stabile Netzwerke.

Um dieser Herausforderung zu begegnen, sollte der Fokus weniger auf Quantität, sondern mehr auf Qualität liegen: Klasse statt Masse muss das Leitprinzip der Datenverarbeitung sein. Durch eine Reduktion der „Daten-Transportwege“ kann die Signifikanz der Daten gewährleistet und deren effiziente Nutzung sichergestellt werden, um Systeme in verschiedensten Bereichen optimal zu steuern. Dies gilt insbesondere für Daten aus Bereichen systemkritischer Infrastruktur – dazu zählen klassische Beispiele wie die Trinkwasserversorgung, aber auch der Betrieb von Kraftwerken.

Real Time Sensor Monitoring: Herausforderungen und Chancen

Technische und industrielle Anlagen werden durch Real Time Sensor Monitoring kontinuierlich überwacht. Sensoren messen dabei innerhalb der Anlagen physikalische, chemische oder elektronische Parameter wie Temperatur, Druck, Bewegung oder Feuchtigkeit. Dies führt – gerade bei ständig steigenden Abtastraten – zu enormen Datenmengen, deren schnelle und effiziente Verarbeitung aufgrund ihrer Größe oft eine Herausforderung darstellt. Die Auswertung dieser Daten hängt stark von der jeweiligen Anwendung ab, da unterschiedliche Einsatzgebiete unterschiedliche Anforderungen an die Systeme stellen – etwa in Bezug auf die Geschwindigkeit der Verarbeitung oder die Analysefähigkeit.

Um diese Anforderungen zu erfüllen, werden moderne modellbasierte Entscheidungssysteme eingesetzt, die mit Künstlicher Intelligenz (KI) oder Machine Learning (ML) arbeiten. Dadurch können die Systeme kontinuierlich aus den umfassenden Datenmengen lernen, ihr Verhalten anpassen und direkt vor Ort anwenden.

Obwohl diese Sensordaten entscheidend für die effektive Überwachung komplexer systemkritischer Infrastrukturen sind, werden sie bisher nicht hinlänglich oder auf nur sehr simple Weise durch einfache, lokale Regelkreisläufe ohne Berücksichtigung langfristiger Trends und Muster ausgewertet. Das führt dazu, dass Systeme lediglich auf unmittelbare, kurzfristige Ereignisse reagieren können. Zudem werden die Sensordaten häufig isoliert betrachtet, ohne sie mit anderen relevanten Informationen oder Ereignissen zu verknüpfen. Diese Verbindungen sind jedoch unerlässlich, um die Überwachung systemkritischer Infrastrukturen effizient zu gestalten. Darüber hinaus werden die Sensordaten nur in seltenen Fällen langfristig gespeichert oder ausgewertet – ungenügende Speicher- und Rechenkapazitäten sowie fehlende entsprechende Netzanbindungen an externe Systeme sind die Ursache dafür.

Ein Beispiel sind Gaskraftwerke, die Schwankungen in der Stromerzeugung aus erneuerbaren Energiequellen ausgleichen. Sie sind auf der ganzen Welt verteilt, allerdings gibt es nicht überall schnelle Netzanbindungen, welche die Übertragung der Sensordaten in die Cloud problemlos ermöglichen. Es stellt sich also die Frage, wie eine effiziente Sensordatenverarbeitung in Anlagen systemkritischer Infrastrukturen gelingen kann. Die Lösung ist relativ simpel: Weniger, dafür aber relevantere Daten müssen in die Cloud übertragen werden.

Die nächste Generation der eingebetteten Systeme

Neue, moderne und leistungsfähige Generationen von eingebetteten Systemen eröffnen neue Möglichkeiten, wie die Übertragung von Daten in die Cloud optimiert werden kann. Genauer gesagt benötigen solche Embedded Systems wenig Platz und Energie und können direkt vor Ort, zum Beispiel in Gaskraftwerken, Daten verarbeiten. Die Kombination von lokaler (am Edge) und globaler Datenverarbeitung (in der Cloud) ist dabei entscheidend.

Im Rahmen der lokalen Verarbeitung werden die Sensordaten direkt vor Ort analysiert, damit die Systeme in Echtzeit effizient und sicher gesteuert werden können. Zusätzlich werden Daten aus verschiedenen Standorten in der Cloud zusammengeführt und langfristig ausgewertet, um Trends zu erkennen und Basismodelle zu bilden, die auf lange Sicht stabil sind und nur in größeren Abständen regelmäßigen aktualisiert werden müssen. Werden Sensordaten direkt vor Ort (am Edge) ausgewertet und lokale Modelle dort trainiert, während gleichzeitig eine regelmäßige globale Datenauswertung (in der Cloud) stattfindet, können Sensordaten um einiges effizienter genutzt und die Systeme dadurch optimaler gesteuert werden.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Federated Dataset Distillation

In industriellen Anwendungen, wie zum Beispiel in der Fertigungsindustrie oder in der Energiebranche, sind Sensordatenverarbeitungssysteme oft an geografisch unterschiedlichen Standorten installiert. Für Machine-Learning-Anwendungen werden die Daten zentral in der Cloud verarbeitet, was nicht immer ideal ist – hoher Datenübertragungsbedarf, Latenzprobleme, steigender Energieverbrauch etc. sind die Folge. Der innovative Ansatz „Federated Dataset Distillation“ erlaubt es, Teile der globalen Datenauswertung direkt an die lokalen Geräte vor Ort auszulagern. Dies gelingt, indem große Datenmengen am Edge effektiv komprimiert werden, bevor man sie in die Cloud überträgt. Das verringert die Anforderungen an die Übertragungskapazität, während die Daten weiterhin für das Training von ML-Modellen nutzbar bleiben. Diese Methode reduziert die Abhängigkeit von der Cloud und erlaubt eine effizientere Nutzung der verfügbaren Rechenressourcen.

Ein Blick in die Praxis: Das SensE-Projekt

Wie die Kombination von Edge und Cloud Computing in der Praxis erprobt und eingesetzt werden kann, zeigt beispielhaft das „SensE“-Projekt (Sensor on the Edge) der IFTA Ingenieurbüro für Thermoakustik GmbH im oberbayerischen Puchheim in Kooperation mit der TU München. Das Projekt konzentrierte sich auf einen spezifischen Anwendungsfall des Real Time Sensor Monitorings: den Betrieb eines Gaskraftwerks in Deutschland mit zwei Turbinen. Die dort installierten Sensoren überwachen kontinuierlich thermoakustische Schwingungen der Turbinen, um sicherzustellen, dass diese im optimalen Betriebsbereich arbeiten.

Im Rahmen des Projekts wurden verschiedene Rechnerarchitekturen für das Edge untersucht, um herauszufinden, welche sich am besten für die Datenverarbeitung eignen. Dabei wurden unterschiedliche Prozessormodelle und Machine-Learning-Algorithmen analysiert.

Die Meilensteine des SensE-Projektes

Zu Beginn des Projekts wurde ein Prototyp beziehungsweise Demonstrator entwickelt, der sich auf die Edge-Seite konzentrierte. Ziel war es, ein System bereitzustellen, das die bisherige Verarbeitungsrate der Sensordaten verdoppelt. Gleichzeitig wurden grundlegende Funktionen wie Komprimierung, Filterung und Datenmodellierung integriert. Ein Leistungsmodell lieferte erste Einblicke in den Ressourcenbedarf der Edge-Systeme und diente als Grundlage für weitere Optimierungen. Im weiteren Verlauf wurde der Demonstrator erweitert, um die nahtlose Zusammenarbeit zwischen Edge und Cloud zu ermöglichen. Im Labor wurde ein Testsystem aufgebaut, das eine statische Strategie für KI-Pipelines (strukturierte Workflows, welche die verschiedenen Schritte zur Entwicklung, Verarbeitung und Implementierung von KI beschreiben) und kollaborative Datenmodelle integrierte. Es wurden detaillierte Leistungsmessungen am Demonstrator vorgenommen. Die Messergebnisse dienten dazu, den Ressourcenbedarf am Edge sowie in der Cloud abzuschätzen und darauf basierend den Systemdurchsatz zu optimieren.

Echtzeitüberwachungssysteme mit angeschlossenen Sensorkabeln(Bild:  TUM Campus Heilbronn / IFTA)
Echtzeitüberwachungssysteme mit angeschlossenen Sensorkabeln
(Bild: TUM Campus Heilbronn / IFTA)

In der letzten Phase des Projektes wurde zusätzliche Hardware vor Ort im Kraftwerk installiert, mit welcher der Demonstrator Anomaliekennwerte je nach Anlagenzustand berechnete. Diese Kennwerte wurden anhand eines zentral trainierten Modells berechnet. In Zukunft könnte das Training ebenso vor Ort stattfinden.

Frühzeitige Schadenserkennung in smarten Gaskraftwerken

Im Rahmen des SensE-Projektes wurden bis dahin ungelöste Herausforderungen bei der Verarbeitung von Sensordaten, insbesondere im Kontext von KI-Anwendungen, erforscht. Im Mittelpunkt steht ein innovativer Demonstrator, der die Sensordaten von Hochleistungsgasturbinen kontinuierlich analysiert und potenzielle Schäden mehrere Tage im Voraus erkennt. Dieser Demonstrator kombiniert die Stärken von Edge und Cloud Computing, um Daten schon im Vorfeld effizient zu verarbeiten und gleichzeitig komplexe KI-Modelle zentral zu trainieren. Mithilfe von eingebetteten Systemen wird die Datenverarbeitung direkt an der Maschine ermöglicht, wodurch Latenzen minimiert und Echtzeitanalysen unterstützt werden.

Die Integration von Federated Dataset Distillation könnte zudem in Zukunft eine verlustbehaftete Komprimierung der großen historischen Sensordaten erlauben, sodass das Training der KI-Modelle ressourceneffizient erfolgen kann, während so wenig relevante Informationen wie möglich verloren gehen. Diese technologische Kombination bietet eine leistungsstarke Lösung zur frühzeitigen Schadenserkennung in den Turbinen des Gaskraftwerks und optimiert gleichzeitig die Nutzung von Rechenressourcen.

Die Mischung macht’s: Vom Edge zur Cloud und zurück

Aktuell besteht ein wachsender Bedarf an Lösungen zur Analyse großer Datenmengen, insbesondere bei Kraftwerksbetreibern. Dieser wird durch die steigende Bedeutung von Gaskraftwerken im Verlauf der Energiewende weiter zunehmen. Daher ist es umso wichtiger, sich mit neuen, innovativen Möglichkeiten in der Sensordatenverarbeitung zu beschäftigen.

Das Projekt zeigt anschaulich, wie sich die Datenverarbeitung von einer lokalen, passiven Edge-Lösung hin zu einer dynamischen, kollaborativen Architektur entwickeln lässt, die optimal auf die Anforderungen moderner industrieller Anwendungen abgestimmt ist. Die Kombination aus Edge- und Cloud-Verarbeitung bietet dabei eine ideale Balance zwischen Effizienz und Skalierbarkeit, die besonders in datenintensiven industriellen Anwendungen wie Gaskraftwerken entscheidend ist.

Carsten Trinitis(Bild:  TUM Campus Heilbronn)
Carsten Trinitis
(Bild: TUM Campus Heilbronn)

Roman Karlstetter(Bild:  IFTA Ingenieurbüro für Thermoakustik)
Roman Karlstetter
(Bild: IFTA Ingenieurbüro für Thermoakustik)

Über die Autoren

Prof. Carsten Trinitis ist seit 2021 Professor für Rechnerarchitektur und Betriebssysteme an der Technischen Universität München am Campus Heilbronn. Seine Forschung umfasst Mikroprozessorarchitekturen, hardware-orientierte Optimierungen in der Raumfahrt, rechenintensive Codes sowie die Simulation elektrostatischer Felder. Zudem ist er Sprecher der Fachgruppe „Informatik und Ethik“ der Gesellschaft für Informatik.

Dr. Roman Karlstetter ist Technical Lead Software bei der IFTA Ingenieurbüro für Thermoakustik GmbH, wo er seit 2013 tätig ist. Nach seinem Bachelor- und Masterstudium an der Technischen Universität München (TUM) widmete er sich seiner Promotion. Sein Forschungsschwerpunkt lag auf der effizienten Verarbeitung und langfristigen Speicherung von Sensordaten im industriellen Kontext. Durch seine langjährige Erfahrung kombiniert Roman Karlstetter wissenschaftliches Know-how mit praktischer Expertise in der Entwicklung innovativer Softwarelösungen.

(ID:50262548)