Cloud, KI und Automatisierung für die TK-Branche Intelligente autonome Infrastrukturen sind das Ziel

Von Honoré LaBourdette 4 min Lesedauer

Anbieter zum Thema

Telekommunikationsunternehmen stehen heute vor der Herausforderung, ihre Netzwerke effizienter zu betreiben und damit auch die Monetarisierung voranzutreiben. Ein entscheidender Erfolgsgarant ist dabei das Design und der Aufbau einer intelligenten autonomen Infrastruktur. Sie beinhaltet die Nutzung von Automatisierung und KI sowie eines wirtschaftlichen Hybrid-Cloud-Modells.

Um von einer durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt, sagt Honoré LaBourdette von Red Hat.(Bild:  Red Hat)
Um von einer durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt, sagt Honoré LaBourdette von Red Hat.
(Bild: Red Hat)

Wie in vielen Industrien findet auch in der Telekommunikationsbranche derzeit ein Umdenken in Bezug auf die Cloud-Nutzung statt. Den ursprünglichen Plan, alles in eine Public Cloud zu verlagern, verfolgt heute kaum noch ein Unternehmen. Unterschiedliche Workloads erfordern die Nutzung verschiedener Betriebsumgebungen, um Compliance-, Sicherheits- und ökonomische Anforderungen abzudecken, sodass sich hybride Szenarien als der beste Weg zur Zielerreichung erwiesen haben.

Die gleiche Diskussion wird derzeit bei vielen Service-Providern geführt. Nach einer Phase schneller Cloud-Migrationen haben sie ein differenziertes Verständnis für die Wirtschaftlichkeit ihres Betriebs gewonnen. Dieses Bewusstsein in Verbindung mit sich ändernden gesetzlichen Anforderungen und Geschäftsstrategien führt zu einer häufigen Neubewertung, welche Workloads in welche Cloud verlagert werden sollen. Im Mittelpunkt stehen dabei hybride Cloud-Strategien, die die notwendige Flexibilität bieten, sich an veränderte Vorgaben sowie die finanziellen, betrieblichen und geschäftlichen Ziele anzupassen.

Eine Möglichkeit, die Komplexität einer hybriden Umgebung zu reduzieren, ist die Nutzung einer horizontalen und einheitlichen Plattform, die einen konsistenten Satz an operativen Tools und Sicherheitsfunktionen über mehrere Clouds hinweg bietet. Unternehmen erhalten dabei eine zentrale Kontrolle, indem sie die Skalierung und Verlagerung von Workloads vom Kern zum Edge und zur Public Cloud – und auch zurück – automatisieren. Zudem bestehen so eine maximale Flexibilität und Unabhängigkeit bei der Auswahl aktueller oder zukünftiger Cloud-Optionen.

Die integrierte Automatisierung

Um Clouds mit einer skalierbaren Plattform optimal zu integrieren, sind vor allem zwei Dinge von essenzieller Bedeutung: eine durchgängige Automatisierung und KI.

Die Automatisierung unterstützt in mehrfacher Hinsicht. Sie liefert Datenpunkte von vielen Geräten und Endpunkten im Netzwerk und in der gesamten IT. Diese Daten werden von KI-Anwendungen analysiert, die dann Empfehlungen für Automatisierungstools bereitstellen, um sowohl proaktive als auch reaktive Änderungen vorzunehmen.

KI bietet nicht nur bessere Informationen über die zu automatisierenden Prozesse, sondern kann auch das Schreiben von Softwarebefehlen zur Ausführung der Automatisierung beschleunigen.

Die Bereitstellung von Konnektivitätsdiensten erfolgt heute bei vielen Service-Providern bereits automatisiert, aber die Einbindung der Automatisierung auf der Anwendungsebene ist eine weitere Möglichkeit. Wie bei der hybriden Cloud müssen Service-Provider auch bei der Automatisierung einen ganzheitlichen Ansatz verfolgen – sowohl im Netzwerk und in der Infrastruktur als auch auf der Ebene der Geschäftsanwendungen. Es geht darum, die Automatisierung auf breiterer Ebene auf konsistente, wiederholbare Weise anzuwenden, sei es bei der Bereitstellung der Infrastruktur, der Entwicklung eines Services oder der Extraktion von Daten aus einem System. Die unternehmensweite Automatisierung kann auf einer konsistenten Plattform zentralisiert werden, um isolierte Automatisierungsinseln zu vermeiden und die allgemeine Benutzerfreundlichkeit und Produktivität zu verbessern.

Anwendung von AIOps auf die Infrastruktur

Derzeit beschränkt sich der Einsatz von KI bei Service-Providern mit Chatbots noch eher auf Bereiche wie den Kundenservice oder Compliance-Checks und die Erkennung von Malware. In der Infrastruktur-Optimierung steht der KI-Einsatz noch am Anfang. Durch die Weiterentwicklung der generativen KI und bei Large Language Models (LLMs) wird KI jedoch auch dort eine immer wichtigere Rolle spielen. Von besonderer Bedeutung ist hier vor allem das Konzept Retrieval-Augmented Generation (RAG), das den LLMs zusätzliche Informationen aus externen Wissensquellen zur Verfügung stellt, etwa aktuelle Echtzeitdaten, kontextuelle, proprietäre oder domänenspezifische Informationen. Dies ermöglicht den Aufbau eines Closed-Loop-Systems, das automatisch Entscheidungen in die Infrastruktur einfließen lässt, sodass diese bei Bedarf dynamisch angepasst werden kann.

Mögliche Anwendungsszenarien betreffen die Überwachung des Datenverkehrs, das Lastmanagement, das Tuning, das Netzwerk-Lebenszyklusmanagement und das Energiemanagement. Mit letzterem können beispielsweise Workloads in kleineren Einheiten zusammengefasst werden, um weniger Energie im Rechenzentrum zu verbrauchen, was zu geringeren Kosten führt. Bislang musste dazu auf jedes System einzeln zugegriffen und ein Scheduler ausgeführt werden, sodass diese möglichen Veränderungen einen transformativen Charakter haben.

Im Radio Access Network (RAN) können KI-Modelle für eine dynamischere Steuerung von Frequenzen, Sektoren, Zellen und Basisstationen eingesetzt werden. KI kann auch den Betrieb vereinfachen und optimieren, indem sie eine Ursachenanalyse in Echtzeit ermöglicht, um die Zeit bis zur Fehlerbehebung zu verkürzen oder um mit prädiktiver Analytik Störungen zu verhindern, bevor sie überhaupt auftreten.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die sinnvolle Nutzung der Hybrid-Cloud

Die zunehmende KI-Nutzung wiederum korrespondiert mit der wachsenden Bedeutung der Cloud. Unternehmen erkennen verstärkt, dass sie lokale, Edge- und Cloud-Ressourcen benötigen, um das Beste aus ihren KI-Projekten herauszuholen. Sie arbeiten daher an der strategischen Integration von Hybrid-Cloud-Lösungen in KI-Initiativen. Der Grund dafür ist die Notwendigkeit, Datensicherheit und -hoheit mit der für leistungsstarke KI-Modelle erforderlichen Rechenleistung zu kombinieren und zugleich die Kosten für das Training von Modellen und die Modellinferenz unter Kontrolle zu halten.

Cloud-Services und KI stehen gewissermaßen in einer symbiotischen Beziehung zueinander, wobei erstere als Rückgrat für die kontinuierliche Weiterentwicklung und die breite Einführung von KI dienen. Diese Integration ist entscheidend für die Erschließung neuer Geschäftsmöglichkeiten wie die Nutzung von Enterprise-Edge-Anwendungen und für die Transformation herkömmlicher Geschäftspraktiken.

Letztlich wird eine radikale Neukonzeption der Netzwerke den Service-Providern helfen, Innovationen voranzutreiben und wettbewerbsfähig und zukunftsfähig zu bleiben. Das Ziel ist dabei der Aufbau einer vollständig automatisierten Infrastruktur mit Zero-Touch-Bereitstellung und -Betrieb, mit intelligenter Steuerung von Rechen-, Speicher- und Netzwerkfunktionen und mit der Fähigkeit, sich selbst zu konfigurieren, zu heilen, zu optimieren und weiterzuentwickeln.

Dies ist jedoch nicht möglich, wenn man einzelne Lösungen nutzt, die unterschiedlich funktionieren, oder wenn man Entscheidungen in Silos trifft. Um von der durchgängigen Verbindung von Core, Edge und Cloud profitieren zu können, wird ein einheitliches Fundament aus Betriebsmodell, Automatisierungstechnik und Cloud-Plattform benötigt. Vor allem aber ist ein offenes und kollaboratives Ökosystem für die Entwicklung, das Testen und die Innovation erforderlich, um all diese Teile zusammenzufügen.

Über die Autorin

Honoré LaBourdette ist Acting Senior Vice President Global Telco und Vice President Telco Partner Ecosystem bei Red Hat.

(ID:50048173)