Suchen

Netzwerkstrukturen für virtuelle Umgebungen und Cloud Computing, Teil 2 Die Konvergenz des Speicher und des Datennetzes

Autor / Redakteur: Johann Baumeister / Dipl.-Ing. (FH) Andreas Donner

Speicher- und Datennetze sind bis dato meist getrennt. Durch verbesserte Protokolle und eine schnellere Anbindung aber können sie vereinheitlicht werden. Damit entfällt die getrennte Bereitstellung und Verwaltung von zwei separaten Netzwerken, die beide nur ein Ziel haben: den schnellen und zuverlässigen Transport von Daten über Leitungen.

Firmen zum Thema

HP Virtual Connect Flex 10 ermöglicht die passgenaue Verteilung der Bandbreite auf mehrere logische Kanäle (Quelle: HP).
HP Virtual Connect Flex 10 ermöglicht die passgenaue Verteilung der Bandbreite auf mehrere logische Kanäle (Quelle: HP).
( Archiv: Vogel Business Media )

Im ersten Teil dieser Reihe haben wir uns mit den generellen Grundlagen und Anforderungen beschäftigt, die für eine Virtualisierung der Netzwerke sprechen. Eine Kernaussage dabei war, dass die Strukturierung der Datennetzwerke, so wie sie heute meist anzutreffen ist, nicht so recht zur Virtualisierung der restlichen IT-Ressourcen und des Cloud Computing passt.

In diesem zweiten Teil wollen wir uns nun mit den Aspekten der Speicheranbindung beschäftigen. Speichernetzwerke stellen neben den Datennetzwerken den zweiten zentralen Kommunikationspfad der Anwendungen dar.

Bildergalerie

Konvergenz der Netze

Virtualisierung und Cloud Computing basieren auf einer dynamischen Lastverteilung und -zuweisung. Die Dienste der virtuellen Maschinen erhalten dabei ihre Ressourcen aus Pools zugewiesen. Damit diese Zuweisung schnell und automatisiert erfolgen kann müssen die Ressourcen standarisiert sein.

Für die Server (Compute), den Arbeitsspeicher (Memory) und den Plattenspeicher (Storage) gilt diese Konvergenz und Standardisierung in der Regel schon heute. Die Compute-Ressourcen (die Server) basieren nahezu ausnahmslos auf der x86-Architektur. Auch bei Arbeitsspeicher und Plattenspeicher gibt es, außer den Unterschieden in den Zugriffszeiten, kaum Unterscheidungsmerkmale. Sie werden vor allem durch die Größe bestimmt. Platten- und Arbeitsspeicher sind damit längst vereinheitlicht.

Die Zugriffszeit auf Shared Storage wiederum ist eine Sache des Netzwerks. Lokaler DAS-Speicher (Direct Attached Storage) wiederum hat im Zusammenhang mit Virtualisierung und Cloud ohnehin keine Berechtigung, denn bei der Migration einer virtuellen Maschine muss der Empfänger Zugriff auf das Dateisystem der virtuellen Maschine haben. Und das geht nur dann vernünftig, wenn es sich dabei um Shared Storage handelt.

Getrennte Netze verdoppeln den Verwaltungsaufwand

Nicht vereinheitlicht allerdings sind bis heute die Zugriffspfade über die Netzwerke. Das Datennetz basiert fast ausnahmslos auf TCP/IP und einer speziellen Netzwerkschnittstelle, der Network Interface Card (NIC). Die Anbindung der Speichersysteme wiederum erfolgt – wenn ein Höchstmaß an Leistung benötigt wird – über Fibre Channel (FC). Alternativ stehen mit iSCSI oder NAS (Network Attached Storage) weitere Zugangswege zur Verfügung, die bis dato aber nicht die Leistung und Güte von Fibre Channel erreichen.

Damit existieren mehrere gänzlich unterschiedliche Kommunikationswege und -techniken. Hinzu kommt, dass die Datennetze und Speichernetze in der Regel auch durch unterschiedliche Administratoren betreut werden. Dies verdoppelt den Verwaltungsaufwand.

Die Trennung der Daten- und Speichernetze stellt so mancher Analyst zunehmend infrage. Laut deren Untersuchungen wird das zwar auch in den kommenden Jahren noch so bleiben. Doch der Trend geht klar in Richtung Netzkonvergenz. Auch die Analysten von Gartner erwarten hier keine schnellen Änderungen, gehen in ihren Prognosen aber davon aus, dass die Konvergenz der Netze mittelfristig unausweichlich ist.

Das Ziel der Konvergenz des Speicher- und Datennetzes liegt in einer Vereinheitlichung der Netze. Statt getrennter Technologien und Netze für Daten und Speicher werden diese in Zukunft zusammenwachsen.

Als Voraussetzung für die Netzkonvergenz sehen die Fachleute vor allem zwei Aspekte: Datenpakete dürfen nicht verloren gehen (Lossless transmission). Und die Latenz bei der Ethernet-Übertragung muss verringert sowie der Durchsatz erhöht werden. Die Steigerung des Durchsatzes ist dabei das kleinere Problem. Sie kommt allein durch die technische Weiterentwicklung zustande. Server und selbst Desktops werden heute an Gigabit-Netze angeschlossen. Nicht ganz so einfach ist die Reduzierung der Latenz.

weiter mit: Durchsatz und Latenz sind der Schlüssel für die Konvergenz

(ID:2051857)