Moderne IT- und Anwendungsumgebungen führen zu immer komplexeren Netzwerkinfrastrukturen. Mit dem Einsatz von KI können Unternehmen den Netzwerkbetrieb jedoch deutlich vereinfachen und optimieren.
Dieter Badmann von Juniper Networks erläutert, was KI-native Netzwerkplattformen ausmacht und wieso diese für AIOps wichtig sind.
(Bild: Juniper Networks)
Die Nutzung einer KI-nativen Netzwerkplattform deckt dabei zwei unterschiedliche Anwendungsszenarien ab. Sie kann im klassischen AIOps-Kontext (Artificial Intelligence for IT Operations) und mit Fokus auf AI for Networking auf dem Campus und in Niederlassungen eingesetzt werden, aber auch als effiziente Basis für KI- und Machine-Learning-Workloads (ML) – also mit Fokus auf Networking for AI – im Rechenzentrum dienen.
KI-native Netzwerke wurden mit einer KI-Integration als Kernkomponente entwickelt. Das heißt, im Gegensatz zu Systemen, bei denen KI nachträglich als separates Element hinzugefügt wird, basieren KI-native Netzwerke von Anfang an auf Künstlicher Intelligenz und Maschinellem Lernen.
Unabhängig davon, ob ein Unternehmen KI für das Netzwerk nutzt oder ein optimales Netzwerk für KI aufbaut, bietet eine KI-native Netzwerkplattform die Flexibilität, Automatisierung und Sicherheit, um den Betrieb zu vereinfachen, die Produktivität zu steigern und eine zuverlässige Performance zu liefern. KI-native Netzwerke sollten so konzipiert sein, dass sie AIOps nutzen, um eine außergewöhnliche End-to-End-Erfahrung für Betreiber und Endnutzer zu gewährleisten. Dabei werden die richtigen Daten, die richtigen Echtzeitreaktionen und die richtige Infrastruktur genutzt, um sicherzustellen, dass jede Verbindung für jedes Gerät, jeden Nutzer, jede Anwendung und jedes Asset zuverlässig, messbar und geschützt ist.
KI optimiert den Netzwerkbetrieb
Zunächst sind KI-native Netzwerke die ideale Basis für die Umsetzung von AIOps-Konzepten. Der Begriff beschreibt Technologieplattformen und Prozesse, die IT-Teams helfen, schnellere und bessere Entscheidungen zu treffen und zeitnah auf Netzwerk- und Systemvorfälle zu reagieren. Mit AIOps erhalten Unternehmen Kontextinformationen für große Mengen an Telemetrie- und Protokolldaten in der gesamten IT-Infrastruktur in Echtzeit oder nahezu in Echtzeit. Dadurch ergeben sich mehrere Vorteile wie eine bessere Erfahrung für die IT-Betreiber, eine Reduzierung der Betriebskosten für das Netzwerk und eine bessere Erfahrung für die Endnutzer. Die Netzwerkperformance wird kontinuierlich überwacht und analysiert, wobei auch automatisch Anpassungen vorgenommen werden, um die Geschwindigkeit, Zuverlässigkeit und Effizienz zu optimieren. Indem Netzwerkausfälle und Engpässe vorhergesagt werden, bevor sie tatsächlich auftreten, kann AIOps vorbeugende Wartungsmaßnahmen ergreifen und so Ausfälle reduzieren.
Bei der Auswahl einer Lösung für den KI-getriebenen Netzwerkbetrieb ist darauf zu achten, dass sie alle Daten von kabelgebundenen und kabellosen Technologien sowie von SD-WANs (Softwaredefinierten WANs) in der gesamten Unternehmensumgebung sammelt und nutzt. Dazu sollten Rechenzentren, Homeoffices sowie alle Campus-, Zweigstellen- und Cloud-Netzwerke gehören. So besteht eine End-to-End-Transparenz über das gesamte Netzwerk. Idealerweise werden Netzwerkbetriebsteams auch durch einen virtuellen Netzwerkassistenten mit dialogorientierter Benutzerschnittstelle unterstützt. Er ermöglicht Abfragen und Antworten in natürlicher Sprache. Dadurch erhält man schnell und einfach Einblick in das Netzwerk und kann die Fehlerbehebung vereinfachen und beschleunigen.
Das Netzwerk optimiert die KI-Nutzung
Die Nutzung KI-nativer Netzwerke als Fundament für die Verbindung von Anwendern ist aber nur die eine Seite der Medaille. Der andere wichtige Aspekt der KI liegt in der Frage, wie wir die Netzwerke in den Rechenzentren gestalten, um die massiven neuen Anforderungen für das Training von KI-Modellen und die Verarbeitung von KI-Workloads zu unterstützen. Schließlich haben die jüngsten Fortschritte in der generativen KI die Themen KI und Maschinelles Lernen in den Fokus der meisten Unternehmen gerückt. Rechenzentren sind dabei das Herzstück der KI und Netzwerke spielen eine kritische Rolle bei der Verbindung und Maximierung der Nutzung kostenintensiver GPU-Server.
Traditionelle Rechenzentrumstechnologien und -designs können nur schwer die Anforderungen hinsichtlich Performance, Kapazität und Latenz erfüllen, die KI-Workloads an die Infrastruktur stellen. Moderne KI- und ML-Cluster bestehen aus Hunderten, manchmal auch aus Tausenden von GPUs. Sie werden benötigt, um die massive, parallele Rechenleistung bereitzustellen, die zum Trainieren moderner KI-Modelle erforderlich ist. Vor allem die sprunghaft steigende Nachfrage nach leistungsfähigen GPUs – verbunden mit hohen Preisen – und die Abhängigkeit von proprietärem InfiniBand stellen Unternehmen dabei vor Herausforderungen.
Für Unternehmen kommt es also darauf an, nach Möglichkeiten für eine Kostensenkung zu suchen. Zwar treiben in der Regel vor allem die GPU-Server die Gesamtkosten von KI-Rechenzentren in die Höhe, aber von entscheidender Bedeutung sind auch die Netzwerke von KI-Rechenzentren. An diesem Punkt kommen KI-native Netzwerkplattformen ins Spiel, die ein robustes Fundament für schnelle Verarbeitungszeiten und eine optimale GPU-Nutzung bereitstellen. Sie unterstützen die Verteilung der Workloads über die GPUs und die anschließende Synchronisierung zum Trainieren des KI-Modells, wobei die Job Completion Time (JCT) beschleunigt und die Wartezeit bis zum Abschluss der Berechnungen durch die letzte GPU, die so genannte Tail-Latenz, reduziert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ein solches Netzwerk für KI muss allerdings einige Kriterien erfüllen und wichtige Leistungsmerkmale aufweisen. Im Hinblick auf die Netzwerktechnologie dürfte dabei vor allem Ethernet als offene, bewährte Alternative zu proprietärem und kostspieligem InfiniBand an Bedeutung gewinnen. Durch die Weiterentwicklung zu 800 GbE und das Data Center Bridging (DCB) bietet Ethernet eine hohe Kapazität, eine niedrige Latenz für die Optimierung der Job Completion Time, ein verbessertes Congestion Management und eine verlustfreie Datenübertragung. Damit sind Ethernet-Fabrics ideale Lösungen für den unternehmenskritischen KI-Datenverkehr.
Eine weitere wichtige Komponente wäre eine Clos-Fabric mit konsistenter Netzwerkgeschwindigkeit, die das Trainings-Framework optimiert. Darüber hinaus erhöhen weitere Design-Konzepte die Zuverlässigkeit und Effizienz der gesamten Fabric. Dazu gehören angemessen große Fabric Interconnects mit der optimalen Anzahl von Links und der Möglichkeit, Ungleichgewichte des Datenstroms zu erkennen und zu korrigieren, um eine Überlastung und einen Paketverlust zu vermeiden. Explicit Congestion Notification (ECN) mit Data Center Quantized Congestion Notification (DCQCN) und prioritätsbasierter Datenstromsteuerung gewährleisten hier eine verlustfreie Übertragung.
Schließlich ist auch die Automatisierung ein wichtiges Element einer effizienten Lösung für KI-Rechenzentrumsnetzwerke. Sie sollte kontinuierlich beim Design, bei der Bereitstellung und der Verwaltung eingesetzt werden und den Lebenszyklus des Netzwerks von Day 0 bis Day 2+ automatisieren und validieren. Auf diese Weise entstehen wiederholbare und kontinuierlich validierte Designs und Bereitstellungen von KI-Rechenzentren, die nicht nur menschliche Fehler eliminieren, sondern auch die Telemetrie- und Datenstromdaten nutzen, um die Performance zu optimieren, die proaktive Fehlerbehebung zu erleichtern und Ausfälle zu vermeiden.
Mit einem KI-nativen Netzwerk als Basis können Unternehmen daher die ständig steigende Zahl von vernetzten Geräten, Nutzern und Anwendungen sowohl im Netzwerk als auch im Rechenzentrum mit einem begrenzten IT-Personal und Zeitaufwand unterstützen. Unternehmen müssen außerdem sicherstellen, dass das Netzwerk skalierbar ist, um KI-Workloads im Rechenzentrum zu bewältigen. Damit machen sie ihr Netzwerk auch zukunftssicher, denn eines sollte klar sein: Wir befinden uns mit KI an einem Wendepunkt. Es wird ein größerer Wandel sein als das Internet, und Veränderungen dieser Größenordnung erfordern ein Umdenken in Bezug auf die Netzwerke.