Telekommunikationsunternehmen stehen heute vor der Herausforderung, ihre Netzwerke effizienter zu betreiben und damit auch die Monetarisierung voranzutreiben. Ein entscheidender Erfolgsgarant ist dabei das Design und der Aufbau einer intelligenten autonomen Infrastruktur. Sie beinhaltet die Nutzung von Automatisierung und KI sowie eines wirtschaftlichen Hybrid-Cloud-Modells.
Um von einer durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt, sagt Honoré LaBourdette von Red Hat.
(Bild: Red Hat)
Wie in vielen Industrien findet auch in der Telekommunikationsbranche derzeit ein Umdenken in Bezug auf die Cloud-Nutzung statt. Den ursprünglichen Plan, alles in eine Public Cloud zu verlagern, verfolgt heute kaum noch ein Unternehmen. Unterschiedliche Workloads erfordern die Nutzung verschiedener Betriebsumgebungen, um Compliance-, Sicherheits- und ökonomische Anforderungen abzudecken, sodass sich hybride Szenarien als der beste Weg zur Zielerreichung erwiesen haben.
Die gleiche Diskussion wird derzeit bei vielen Service-Providern geführt. Nach einer Phase schneller Cloud-Migrationen haben sie ein differenziertes Verständnis für die Wirtschaftlichkeit ihres Betriebs gewonnen. Dieses Bewusstsein in Verbindung mit sich ändernden gesetzlichen Anforderungen und Geschäftsstrategien führt zu einer häufigen Neubewertung, welche Workloads in welche Cloud verlagert werden sollen. Im Mittelpunkt stehen dabei hybride Cloud-Strategien, die die notwendige Flexibilität bieten, sich an veränderte Vorgaben sowie die finanziellen, betrieblichen und geschäftlichen Ziele anzupassen.
Eine Möglichkeit, die Komplexität einer hybriden Umgebung zu reduzieren, ist die Nutzung einer horizontalen und einheitlichen Plattform, die einen konsistenten Satz an operativen Tools und Sicherheitsfunktionen über mehrere Clouds hinweg bietet. Unternehmen erhalten dabei eine zentrale Kontrolle, indem sie die Skalierung und Verlagerung von Workloads vom Kern zum Edge und zur Public Cloud – und auch zurück – automatisieren. Zudem bestehen so eine maximale Flexibilität und Unabhängigkeit bei der Auswahl aktueller oder zukünftiger Cloud-Optionen.
Die integrierte Automatisierung
Um Clouds mit einer skalierbaren Plattform optimal zu integrieren, sind vor allem zwei Dinge von essenzieller Bedeutung: eine durchgängige Automatisierung und KI.
Die Automatisierung unterstützt in mehrfacher Hinsicht. Sie liefert Datenpunkte von vielen Geräten und Endpunkten im Netzwerk und in der gesamten IT. Diese Daten werden von KI-Anwendungen analysiert, die dann Empfehlungen für Automatisierungstools bereitstellen, um sowohl proaktive als auch reaktive Änderungen vorzunehmen.
KI bietet nicht nur bessere Informationen über die zu automatisierenden Prozesse, sondern kann auch das Schreiben von Softwarebefehlen zur Ausführung der Automatisierung beschleunigen.
Die Bereitstellung von Konnektivitätsdiensten erfolgt heute bei vielen Service-Providern bereits automatisiert, aber die Einbindung der Automatisierung auf der Anwendungsebene ist eine weitere Möglichkeit. Wie bei der hybriden Cloud müssen Service-Provider auch bei der Automatisierung einen ganzheitlichen Ansatz verfolgen – sowohl im Netzwerk und in der Infrastruktur als auch auf der Ebene der Geschäftsanwendungen. Es geht darum, die Automatisierung auf breiterer Ebene auf konsistente, wiederholbare Weise anzuwenden, sei es bei der Bereitstellung der Infrastruktur, der Entwicklung eines Services oder der Extraktion von Daten aus einem System. Die unternehmensweite Automatisierung kann auf einer konsistenten Plattform zentralisiert werden, um isolierte Automatisierungsinseln zu vermeiden und die allgemeine Benutzerfreundlichkeit und Produktivität zu verbessern.
Anwendung von AIOps auf die Infrastruktur
Derzeit beschränkt sich der Einsatz von KI bei Service-Providern mit Chatbots noch eher auf Bereiche wie den Kundenservice oder Compliance-Checks und die Erkennung von Malware. In der Infrastruktur-Optimierung steht der KI-Einsatz noch am Anfang. Durch die Weiterentwicklung der generativen KI und bei Large Language Models (LLMs) wird KI jedoch auch dort eine immer wichtigere Rolle spielen. Von besonderer Bedeutung ist hier vor allem das Konzept Retrieval-Augmented Generation (RAG), das den LLMs zusätzliche Informationen aus externen Wissensquellen zur Verfügung stellt, etwa aktuelle Echtzeitdaten, kontextuelle, proprietäre oder domänenspezifische Informationen. Dies ermöglicht den Aufbau eines Closed-Loop-Systems, das automatisch Entscheidungen in die Infrastruktur einfließen lässt, sodass diese bei Bedarf dynamisch angepasst werden kann.
Mögliche Anwendungsszenarien betreffen die Überwachung des Datenverkehrs, das Lastmanagement, das Tuning, das Netzwerk-Lebenszyklusmanagement und das Energiemanagement. Mit letzterem können beispielsweise Workloads in kleineren Einheiten zusammengefasst werden, um weniger Energie im Rechenzentrum zu verbrauchen, was zu geringeren Kosten führt. Bislang musste dazu auf jedes System einzeln zugegriffen und ein Scheduler ausgeführt werden, sodass diese möglichen Veränderungen einen transformativen Charakter haben.
Im Radio Access Network (RAN) können KI-Modelle für eine dynamischere Steuerung von Frequenzen, Sektoren, Zellen und Basisstationen eingesetzt werden. KI kann auch den Betrieb vereinfachen und optimieren, indem sie eine Ursachenanalyse in Echtzeit ermöglicht, um die Zeit bis zur Fehlerbehebung zu verkürzen oder um mit prädiktiver Analytik Störungen zu verhindern, bevor sie überhaupt auftreten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die sinnvolle Nutzung der Hybrid-Cloud
Die zunehmende KI-Nutzung wiederum korrespondiert mit der wachsenden Bedeutung der Cloud. Unternehmen erkennen verstärkt, dass sie lokale, Edge- und Cloud-Ressourcen benötigen, um das Beste aus ihren KI-Projekten herauszuholen. Sie arbeiten daher an der strategischen Integration von Hybrid-Cloud-Lösungen in KI-Initiativen. Der Grund dafür ist die Notwendigkeit, Datensicherheit und -hoheit mit der für leistungsstarke KI-Modelle erforderlichen Rechenleistung zu kombinieren und zugleich die Kosten für das Training von Modellen und die Modellinferenz unter Kontrolle zu halten.
Cloud-Services und KI stehen gewissermaßen in einer symbiotischen Beziehung zueinander, wobei erstere als Rückgrat für die kontinuierliche Weiterentwicklung und die breite Einführung von KI dienen. Diese Integration ist entscheidend für die Erschließung neuer Geschäftsmöglichkeiten wie die Nutzung von Enterprise-Edge-Anwendungen und für die Transformation herkömmlicher Geschäftspraktiken.
Letztlich wird eine radikale Neukonzeption der Netzwerke den Service-Providern helfen, Innovationen voranzutreiben und wettbewerbsfähig und zukunftsfähig zu bleiben. Das Ziel ist dabei der Aufbau einer vollständig automatisierten Infrastruktur mit Zero-Touch-Bereitstellung und -Betrieb, mit intelligenter Steuerung von Rechen-, Speicher- und Netzwerkfunktionen und mit der Fähigkeit, sich selbst zu konfigurieren, zu heilen, zu optimieren und weiterzuentwickeln.
Dies ist jedoch nicht möglich, wenn man einzelne Lösungen nutzt, die unterschiedlich funktionieren, oder wenn man Entscheidungen in Silos trifft. Um von der durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt. Vor allem aber ist ein offenes und kollaboratives Ökosystem für die Entwicklung, das Testen und die Innovation erforderlich, um all diese Teile zusammenzufügen.
Über die Autorin
Honoré LaBourdette ist Acting Senior Vice President Global Telco und Vice President Telco Partner Ecosystem bei Red Hat.