Aktueller Channel Fokus:

Gaming & eSports

Herausforderungen und Antworten für Rechenzentrums-Netze

Software defined Networks im RZ - Gartner bewertet Anbieter

| Redakteur: Ulrike Ostler

Das Marktforschungs- und Beratungsunternehmen Gartner weißt stets darauf hin, dass jedes Unternehmen stets selbst überprüfen muss, ob eines der genannten Unternehmen und Produkte in Frage kommt oder ein ganz anderes. Trotzdem lohnt es sich, die Bewertungsgrundlagen der Analysten einmal anzuschauen.
Das Marktforschungs- und Beratungsunternehmen Gartner weißt stets darauf hin, dass jedes Unternehmen stets selbst überprüfen muss, ob eines der genannten Unternehmen und Produkte in Frage kommt oder ein ganz anderes. Trotzdem lohnt es sich, die Bewertungsgrundlagen der Analysten einmal anzuschauen. (Bild: Gartner)

Software Defined Networks (SDN) bedeuten das Ende eines etwa 15jährigen nahezu unveränderten Netzwerk-Designs im Rechenzentrum. Die Analysten von Gartner haben im vergangenen Monat ein „Magic Quadrant for Data Center Network Infrastructure“ veröffentlicht, das dieser Entwicklung Rechnung trägt. HP, Brocade, Juniper Networks, Alcatel-Lucent und Arista Networks gelten hier als „Visionäre“.

Die Gartner-Untersuchung von den Autoren Tim Zimmerman und Mark Fabbi befasst sich mit den Kern- und Rechenzentrumssegmenten im Netzwerk. Der Report wurde in diesem Jahr erstmals erstellt, um dem Wachstum in den Kern- und Rechenzentrumssegmenten von Netzwerken Rechnung zu tragen.

Damit hat Gartner das Tracking des Bereichs Netzwerkinfrastruktur und die Magic-Quadrant-Serien rund um die Netzwerkmärkte verändert und konzentriert sich mehr auf die Geschäftsentwicklung innerhalb der Unternehmen.

In der Untersuchung heißt es: Ein „Visionorär“ habe seine Fähigkeit unter Beweis gestellt, die Funktionen in seinem Angebot auszubauen, um einen einzigartigen und differenzierten Ansatz im Markt zu bieten.

Die aktuellen Anforderungen

Dazu müssen noch Innovationen in einem oder mehreren entscheidenden Bereichen der Datacenter-Infrastruktur kommen, zum Beispiel beim Management (einschließlich Virtualisierung), in puncto Sicherheit (einschließlich der Umsetzung von Richtlinien), im Bereich Betriebseffizienz und SDN sowie hinsichtlich Kostensenkungen.

Doch, wo liegen die Herausforderungen?

Es ist fast schon banal, darauf hinzuweisen, dass die Geschwindigkeit im und die Größe von Rechenzentrumsnetzen stark zugenommen hat, während die 3stufige Hierarchie mit Hilfe von End-of-Row-Switches, einer Aggregationsschicht und intelligenten Layer-3-Core-Switches nahezu unangetastet geblieben ist. In Gebrauch sind in den vergangenen 15 Jahren bis jetzt Cassis-Switches gewesen, die sich sowohl im Rechenzentrum als auch auf dem Campus und in Workgroup-Schränken wiederfinden.

Doch die Rechenzentren selbst ändern sich, etwa in Bezug auf die Größe und die Dichte an Rechenleistung. Die Gartner-Analysten machen drei Makro-Trends aus, die darauf Einfluss nehmen:

  • 1. Die Konsolidierung von Servern und ganzer Rechenzentren. Denn die IT-Organisationen zeigen ein anhaltendes Interesse daran, die Computing-Ressourcen zu zentralisieren und zugleich die Anzahl der physischen Datacenter zu minimieren. Heraus kommen weniger, aber größere Enterprise-Rechenzentren.
  • 2. Die Dichte steigt und zwar durch Multicore-, Multisocket-Server in Kombination mit der Virtualisierung, die einen höheren Auslastungsgrad mit sich bringt. Workloads, die früher über verschiedene Server-Racks verteilt wurden, lassen sich nun von einem Teil eines einzelnen Racks abarbeiten.
  • 3. Die Migration von Anwendungen in Richtung Cloud Services schafft Platz im hausinternen Rechenzentrum.

Außerdem ändern sich die Verkehrsmuster – statt eines vornehmlichen Nord-Süd-Stroms (vom Server über den Core bis zum User) wird der Ost-West-Verkehr dominant (zwischen den einzelnen Anwendungen). Der Grund: Die Anwendungen werden verteilt, auf verschiedene Applikations-Ebenen und –Architekturen.

Schließlich verbieten Service-basierte IT-Angebote und die Nachfrage nach Antworten in Echtzeit manuelle Eingriffe in den Netzwerkbetrieb. Vielmehr ist beispielsweise ein automatisiertes und möglichst schnelles Applikations-Provisioning gefragt. Eine „menschliche Middleware“ dagegen wird als Bremse verstanden; denn das Handanlegen kostet Tage oder Wochen.

Inhalt des Artikels:

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 38647930 / Technologien & Lösungen)