Sensoren in modernen Anlagen systemkritischer Infrastrukturen generieren enorme Datenmengen, die bislang eher ineffizient in Clouds verarbeitet werden. Wie kann es gelingen, weniger, dafür aber relevantere Daten zu übertragen? Die Lösung: eine Kombination aus Edge und Cloud Computing.
Wenn in Industrieanlagen etwas kaputt geht, dann kommen sie zum Einsatz. Besser ist es, aufkeimende Fehler durch gezielte Überwachung bereits festzustellen, bevor diese Wirkung entfalten. Und dies lässt sich am besten mit einer Kombination aus Edge und Cloud Computing realisieren.
(Bild: NORN - stock.adobe.com / KI-generiert)
Daten sind der Motor unserer modernen Welt – sie durchdringen nahezu jeden Lebens- und Arbeitsbereich. Sie ermöglichen es uns, Probleme zu identifizieren, zu bewerten sowie fundierte Entscheidungen zu treffen. Doch die Speicherung und Übertragung dieser riesigen Datenmengen stellt hohe Anforderungen an Rechenkapazitäten, Server und stabile Netzwerke.
Um dieser Herausforderung zu begegnen, sollte der Fokus weniger auf Quantität, sondern mehr auf Qualität liegen: Klasse statt Masse muss das Leitprinzip der Datenverarbeitung sein. Durch eine Reduktion der „Daten-Transportwege“ kann die Signifikanz der Daten gewährleistet und deren effiziente Nutzung sichergestellt werden, um Systeme in verschiedensten Bereichen optimal zu steuern. Dies gilt insbesondere für Daten aus Bereichen systemkritischer Infrastruktur – dazu zählen klassische Beispiele wie die Trinkwasserversorgung, aber auch der Betrieb von Kraftwerken.
Real Time Sensor Monitoring: Herausforderungen und Chancen
Technische und industrielle Anlagen werden durch Real Time Sensor Monitoring kontinuierlich überwacht. Sensoren messen dabei innerhalb der Anlagen physikalische, chemische oder elektronische Parameter wie Temperatur, Druck, Bewegung oder Feuchtigkeit. Dies führt – gerade bei ständig steigenden Abtastraten – zu enormen Datenmengen, deren schnelle und effiziente Verarbeitung aufgrund ihrer Größe oft eine Herausforderung darstellt. Die Auswertung dieser Daten hängt stark von der jeweiligen Anwendung ab, da unterschiedliche Einsatzgebiete unterschiedliche Anforderungen an die Systeme stellen – etwa in Bezug auf die Geschwindigkeit der Verarbeitung oder die Analysefähigkeit.
Um diese Anforderungen zu erfüllen, werden moderne modellbasierte Entscheidungssysteme eingesetzt, die mit Künstlicher Intelligenz (KI) oder Machine Learning (ML) arbeiten. Dadurch können die Systeme kontinuierlich aus den umfassenden Datenmengen lernen, ihr Verhalten anpassen und direkt vor Ort anwenden.
Obwohl diese Sensordaten entscheidend für die effektive Überwachung komplexer systemkritischer Infrastrukturen sind, werden sie bisher nicht hinlänglich oder auf nur sehr simple Weise durch einfache, lokale Regelkreisläufe ohne Berücksichtigung langfristiger Trends und Muster ausgewertet. Das führt dazu, dass Systeme lediglich auf unmittelbare, kurzfristige Ereignisse reagieren können. Zudem werden die Sensordaten häufig isoliert betrachtet, ohne sie mit anderen relevanten Informationen oder Ereignissen zu verknüpfen. Diese Verbindungen sind jedoch unerlässlich, um die Überwachung systemkritischer Infrastrukturen effizient zu gestalten. Darüber hinaus werden die Sensordaten nur in seltenen Fällen langfristig gespeichert oder ausgewertet – ungenügende Speicher- und Rechenkapazitäten sowie fehlende entsprechende Netzanbindungen an externe Systeme sind die Ursache dafür.
Ein Beispiel sind Gaskraftwerke, die Schwankungen in der Stromerzeugung aus erneuerbaren Energiequellen ausgleichen. Sie sind auf der ganzen Welt verteilt, allerdings gibt es nicht überall schnelle Netzanbindungen, welche die Übertragung der Sensordaten in die Cloud problemlos ermöglichen. Es stellt sich also die Frage, wie eine effiziente Sensordatenverarbeitung in Anlagen systemkritischer Infrastrukturen gelingen kann. Die Lösung ist relativ simpel: Weniger, dafür aber relevantere Daten müssen in die Cloud übertragen werden.
Die nächste Generation der eingebetteten Systeme
Neue, moderne und leistungsfähige Generationen von eingebetteten Systemen eröffnen neue Möglichkeiten, wie die Übertragung von Daten in die Cloud optimiert werden kann. Genauer gesagt benötigen solche Embedded Systems wenig Platz und Energie und können direkt vor Ort, zum Beispiel in Gaskraftwerken, Daten verarbeiten. Die Kombination von lokaler (am Edge) und globaler Datenverarbeitung (in der Cloud) ist dabei entscheidend.
Im Rahmen der lokalen Verarbeitung werden die Sensordaten direkt vor Ort analysiert, damit die Systeme in Echtzeit effizient und sicher gesteuert werden können. Zusätzlich werden Daten aus verschiedenen Standorten in der Cloud zusammengeführt und langfristig ausgewertet, um Trends zu erkennen und Basismodelle zu bilden, die auf lange Sicht stabil sind und nur in größeren Abständen regelmäßigen aktualisiert werden müssen. Werden Sensordaten direkt vor Ort (am Edge) ausgewertet und lokale Modelle dort trainiert, während gleichzeitig eine regelmäßige globale Datenauswertung (in der Cloud) stattfindet, können Sensordaten um einiges effizienter genutzt und die Systeme dadurch optimaler gesteuert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Federated Dataset Distillation
In industriellen Anwendungen, wie zum Beispiel in der Fertigungsindustrie oder in der Energiebranche, sind Sensordatenverarbeitungssysteme oft an geografisch unterschiedlichen Standorten installiert. Für Machine-Learning-Anwendungen werden die Daten zentral in der Cloud verarbeitet, was nicht immer ideal ist – hoher Datenübertragungsbedarf, Latenzprobleme, steigender Energieverbrauch etc. sind die Folge. Der innovative Ansatz „Federated Dataset Distillation“ erlaubt es, Teile der globalen Datenauswertung direkt an die lokalen Geräte vor Ort auszulagern. Dies gelingt, indem große Datenmengen am Edge effektiv komprimiert werden, bevor man sie in die Cloud überträgt. Das verringert die Anforderungen an die Übertragungskapazität, während die Daten weiterhin für das Training von ML-Modellen nutzbar bleiben. Diese Methode reduziert die Abhängigkeit von der Cloud und erlaubt eine effizientere Nutzung der verfügbaren Rechenressourcen.
Ein Blick in die Praxis: Das SensE-Projekt
Wie die Kombination von Edge und Cloud Computing in der Praxis erprobt und eingesetzt werden kann, zeigt beispielhaft das „SensE“-Projekt (Sensor on the Edge) der IFTA Ingenieurbüro für Thermoakustik GmbH im oberbayerischen Puchheim in Kooperation mit der TU München. Das Projekt konzentrierte sich auf einen spezifischen Anwendungsfall des Real Time Sensor Monitorings: den Betrieb eines Gaskraftwerks in Deutschland mit zwei Turbinen. Die dort installierten Sensoren überwachen kontinuierlich thermoakustische Schwingungen der Turbinen, um sicherzustellen, dass diese im optimalen Betriebsbereich arbeiten.
Im Rahmen des Projekts wurden verschiedene Rechnerarchitekturen für das Edge untersucht, um herauszufinden, welche sich am besten für die Datenverarbeitung eignen. Dabei wurden unterschiedliche Prozessormodelle und Machine-Learning-Algorithmen analysiert.
Die Meilensteine des SensE-Projektes
Zu Beginn des Projekts wurde ein Prototyp beziehungsweise Demonstrator entwickelt, der sich auf die Edge-Seite konzentrierte. Ziel war es, ein System bereitzustellen, das die bisherige Verarbeitungsrate der Sensordaten verdoppelt. Gleichzeitig wurden grundlegende Funktionen wie Komprimierung, Filterung und Datenmodellierung integriert. Ein Leistungsmodell lieferte erste Einblicke in den Ressourcenbedarf der Edge-Systeme und diente als Grundlage für weitere Optimierungen. Im weiteren Verlauf wurde der Demonstrator erweitert, um die nahtlose Zusammenarbeit zwischen Edge und Cloud zu ermöglichen. Im Labor wurde ein Testsystem aufgebaut, das eine statische Strategie für KI-Pipelines (strukturierte Workflows, welche die verschiedenen Schritte zur Entwicklung, Verarbeitung und Implementierung von KI beschreiben) und kollaborative Datenmodelle integrierte. Es wurden detaillierte Leistungsmessungen am Demonstrator vorgenommen. Die Messergebnisse dienten dazu, den Ressourcenbedarf am Edge sowie in der Cloud abzuschätzen und darauf basierend den Systemdurchsatz zu optimieren.
Echtzeitüberwachungssysteme mit angeschlossenen Sensorkabeln
(Bild: TUM Campus Heilbronn / IFTA)
In der letzten Phase des Projektes wurde zusätzliche Hardware vor Ort im Kraftwerk installiert, mit welcher der Demonstrator Anomaliekennwerte je nach Anlagenzustand berechnete. Diese Kennwerte wurden anhand eines zentral trainierten Modells berechnet. In Zukunft könnte das Training ebenso vor Ort stattfinden.
Frühzeitige Schadenserkennung in smarten Gaskraftwerken
Im Rahmen des SensE-Projektes wurden bis dahin ungelöste Herausforderungen bei der Verarbeitung von Sensordaten, insbesondere im Kontext von KI-Anwendungen, erforscht. Im Mittelpunkt steht ein innovativer Demonstrator, der die Sensordaten von Hochleistungsgasturbinen kontinuierlich analysiert und potenzielle Schäden mehrere Tage im Voraus erkennt. Dieser Demonstrator kombiniert die Stärken von Edge und Cloud Computing, um Daten schon im Vorfeld effizient zu verarbeiten und gleichzeitig komplexe KI-Modelle zentral zu trainieren. Mithilfe von eingebetteten Systemen wird die Datenverarbeitung direkt an der Maschine ermöglicht, wodurch Latenzen minimiert und Echtzeitanalysen unterstützt werden.
Die Integration von Federated Dataset Distillation könnte zudem in Zukunft eine verlustbehaftete Komprimierung der großen historischen Sensordaten erlauben, sodass das Training der KI-Modelle ressourceneffizient erfolgen kann, während so wenig relevante Informationen wie möglich verloren gehen. Diese technologische Kombination bietet eine leistungsstarke Lösung zur frühzeitigen Schadenserkennung in den Turbinen des Gaskraftwerks und optimiert gleichzeitig die Nutzung von Rechenressourcen.
Die Mischung macht’s: Vom Edge zur Cloud und zurück
Aktuell besteht ein wachsender Bedarf an Lösungen zur Analyse großer Datenmengen, insbesondere bei Kraftwerksbetreibern. Dieser wird durch die steigende Bedeutung von Gaskraftwerken im Verlauf der Energiewende weiter zunehmen. Daher ist es umso wichtiger, sich mit neuen, innovativen Möglichkeiten in der Sensordatenverarbeitung zu beschäftigen.
Das Projekt zeigt anschaulich, wie sich die Datenverarbeitung von einer lokalen, passiven Edge-Lösung hin zu einer dynamischen, kollaborativen Architektur entwickeln lässt, die optimal auf die Anforderungen moderner industrieller Anwendungen abgestimmt ist. Die Kombination aus Edge- und Cloud-Verarbeitung bietet dabei eine ideale Balance zwischen Effizienz und Skalierbarkeit, die besonders in datenintensiven industriellen Anwendungen wie Gaskraftwerken entscheidend ist.
Carsten Trinitis
(Bild: TUM Campus Heilbronn)
Roman Karlstetter
(Bild: IFTA Ingenieurbüro für Thermoakustik)
Über die Autoren
Prof. Carsten Trinitis ist seit 2021 Professor für Rechnerarchitektur und Betriebssysteme an der Technischen Universität München am Campus Heilbronn. Seine Forschung umfasst Mikroprozessorarchitekturen, hardware-orientierte Optimierungen in der Raumfahrt, rechenintensive Codes sowie die Simulation elektrostatischer Felder. Zudem ist er Sprecher der Fachgruppe „Informatik und Ethik“ der Gesellschaft für Informatik.
Dr. Roman Karlstetter ist Technical LeadSoftware bei der IFTA Ingenieurbüro für Thermoakustik GmbH, wo er seit 2013 tätig ist. Nach seinem Bachelor- und Masterstudium an der Technischen Universität München (TUM) widmete er sich seiner Promotion. Sein Forschungsschwerpunkt lag auf der effizienten Verarbeitung und langfristigen Speicherung von Sensordaten im industriellen Kontext. Durch seine langjährige Erfahrung kombiniert Roman Karlstetter wissenschaftliches Know-how mit praktischer Expertise in der Entwicklung innovativer Softwarelösungen.