Dynamische Skalierung von Servern, Storage und Netzwerkkomponenten Dell-Management baut aus RZ-Disziplinen ein virtuell integriertes System

Autor / Redakteur: Peter Dümig / Ulrike Ostler

Heterogene IT-Landschaften aus physikalischen und virtuellen Servern, Speichersystemen und Netzwerkkomponenten konfrontiert die Administratoren mit vielen Management-Tools. Dazu kommt der Anspruch auf mehr Dynamik. Abhilfe von der Komplexität schafft eine Architektur, die integriert und eine gemeinsame Verwaltung zulässt.

Firmen zum Thema

Ein mögliches Stufenmodell beim Übergang von einem statischen zu einem dynamischen Data Center. Quelle: Dell
Ein mögliches Stufenmodell beim Übergang von einem statischen zu einem dynamischen Data Center. Quelle: Dell
( Archiv: Vogel Business Media )

Die Rechenzentren großer Mittelständler und Konzerne sind wie ein lebendiger Organismus, sie verändern sich beinahe täglich. Server müssen umkonfiguriert werden, für einzelne Projekte aus den Fachabteilungen muss temporär Rechenleistung und Storage bereitgestellt werden und externe Mitarbeiter benötigen einen kontrollierten Zugang zu ausgewählten Applikationen.

Und das alles muss natürlich auch unter Einhaltung der vorhandenen Datensicherungs-, Disaster-Recovery- und IT-Security-Richtlinien geschehen. Für die auf einzelne Arbeitsgebiete spezialisierten IT-Administratoren bedeutet dies: Sie sind ständig mit neuen Anforderungen aus den Fachabteilungen und der Umsetzung von Änderungen konfrontiert.

Bildergalerie
Bildergalerie mit 5 Bildern

Zusätzlich erschwert wird die Situation durch die in vielen Rechenzentren übliche Organisationsstruktur, nämlich eine technologische Segmentierung in Server, Speichersysteme, Netzwerkkomponenten sowie Betriebssysteme und Applikationen. Nicht umsonst spricht man hier auch von „Technologie-Silos“.

Silos und zu viele Tools bilden ein Korsett

Jedes dieser Silos wird mit einem eigenen Management-Tool bedient, wobei pro Segment meist noch mehr als ein Tool zum Einsatz kommt, etwa für Hardware, Betriebssysteme und Applikationen. Eine weitere Herausforderung besteht darin, dass in nahezu jedem Unternehmen Server, Storage- und Betriebssysteme von unterschiedlichen Herstellern eingesetzt werden: Die IT-Welt in den Unternehmen ist äußerst heterogen.

Isolierte Management-Inseln sind typisch für so genannte statische Data Center. Ein weiteres Merkmal: Die Server-Images und die zugehörigen Applikationen sind starr mit der Hardware verbunden, auf der sie installiert sind. Die Bereitstellung neu konfigurierter Server und die Einbindung in vorhandene Netzwerk- und Storage-Infrastrukturen erweist sich immer wieder als ein sehr aufwändiger manueller und zeitraubender Prozess. Interne und externe Servicemitarbeiter müssen direkt an den Servern und Speichersystemen tätig werden, um sie für den produktiven Einsatz einzurichten. Von der Anforderung aus einer Fachabteilung nach zusätzlichen Serverkapazitäten bis zu deren tatsächlichen Verfügbarkeit können manchmal mehrere Tage vergehen.

Vom statischen zum dynamischen Data Center

Das Gegenteil eines statischen ist ein dynamisches Rechenzentrum. Dies wird jedoch nicht schlagartig quasi über Nacht entstehen, sondern Schritt für Schritt.

Den Ausgangspunkt bilden in aller Regel die Server, speziell die bereits virtualisierten Server. Denn hier ist eine der grundlegenden Voraussetzungen eines dynamischen Data Centers bereits vorhanden: Es gibt keine zwingenden Verbindungen mehr zwischen dem Server-Image und der Hardware.

Die für statische Rechenzentren charakteristische inflexible und starre Kopplung ist aufgehoben. Modellmäßig, und in virtuellen Server-Umgebungen bereits praktiziert, wird das Server-Image an einem zentralen Speicherort gelagert und bei Bedarf auf einem dafür vorgesehenen – bereits vorhandenen oder eigens angeschafften – Server bereitgestellt und gestartet.

weiter mit: Die Komponenten müssen reden

Die Komponenten müssen reden

Damit der automatisch gestartete Boot-Vorgang korrekt abläuft, muss der Server zunächst über entsprechende Kommunikationskanäle mit dem Netzwerk und den Speichersystemen verbunden sein, um das Server-Image und die Applikationen zu übermitteln. Dazu bedarf es koordinierter Aktionen zwischen den verschiedenen Technologie-Silos, die in einem statischen Rechenzentrum recht komplex sein können, in einen dynamischen Data Center weitgehend automatisch ablaufen sollten.

Für solche Aufgaben steht beispielsweise „Dell Advanced Infrastructure Manager“ (AIM) bereit, einer von drei zentralen Bausteinen der IT-Management-Lösung „Virtual Integrated System“ (VIS). Als Steuerzentrale fungiert eine Controller-Software, die auf einem physikalischen Server oder einer virtuellen Maschine installiert ist.

Für eine redundante Lösung wird ein zweiter Controller installiert. Dabei benötigen beide Controller Zugriff auf das in einem SAN gespeicherte Konfigurations-Repository.

Management by Dell

Der Controller läuft unter Red Hat Linux und benötigt eine Layer-3-Kommunikationsverbindung zu Servern und anderen Infrastrukturkomponenten, die mit dem IT-Managementsystem administriert werden sollen. Damit lassen sich dann physikalische Server, virtuelle Maschinen und Hypervisor (Virtual Machine Hosts, etwa von Citrix, Microsoft und VMware) integrieren.

Die Systeme selbst werden dabei nicht weiter beeinflusst (non-intrusiv). Voraussetzung dafür ist jedoch, dass der Controller tatsächlich Zugriff auf die Server und Hypervisor hat und diese remote administrieren kann.

Das gleiche gilt für die Netzwerk-Switche. Bei vorrätigen oder fabrikneuen Servern ohne jegliches Betriebssystem (Bare-Metal-Servern) muss die Firmware-Einstellung auf „Network Boot“ lauten und sie müssen mit dem LAN und SAN verbunden werden, und schon lassen sie sich als Baustein einer dynamischen Infrastruktur einsetzen.

Es entstehen große Töpfe

Durch die Zusammenfassung physikalischer und virtueller Systeme entsteht ein gemeinsamer Pool von IT-Infrastruktur-Ressourcen, zwischen denen Arbeitslasten zugewiesen und verteilt werden können, um Spitzenbelastungen auszugleichen. Aus diesem Pool lassen sich zusätzliche physische und virtuelle Server bereitstellen und automatisch Rechenleistung, Storage und Netzwerkbandbreite aufteilen.

Der Vorteil: Der Administrator muss sich dann nicht mehr mit dem Management verschiedener Hardware und Virtualisierungs-Layer oder unterschiedlichen Technologien beschäftigen, sondern lediglich mit einem einzigen Ressourcen-Pool.

weiter mit: Virtualisierung, Konsolidierung, Automatisierung, Connectvity

Virtualisierung, Konsolidierung, Automatisierung, Connectvity

Die Virtualisierung, Konsolidierung und Automatisierung betrifft zunächst einmal den Bereich Betriebssysteme und die darauf laufenden Applikationen. Da die neu zu konfigurierenden oder zu ändernden Server über das SAN gebootet werden, lässt sich zentral gesteuert der Server auch ein- und ausschalten.

Ferner existiert keine direkte und enge Verknüpfung des Betriebssystems mit bestimmten Applikationen und dies sorgt für eine hohe Flexibilität, denn die Applikationen können dann auf dem physikalischen oder virtuellen Server eingesetzt werden, der ihnen durch den Administrator zugewiesen wird.

Der nächste Aspekt ist die LAN-Connectivity. Das Betriebssystem und die Applikationen eines Servers verfügen über eine IP-Adresse, damit andere Server oder Netzwerkressourcen sie korrekt ansteuern können.

IP-Adressen bleiben, Storage migriert

In einer statischen Infrastrukturumgebung müssen die IP-Adressen bei der Verlagerung des Software-Stack auf einen anderen Server ebenfalls geändert werden. Als Teil eines virtuellen Ressourcen-Pools können die Adressen auch bei einer Migration auf andere physikalische oder virtuelle Maschinen beibehalten werden.

Es fehlt schließlich noch die Betrachtung des Storage-Bereichs. Der physische oder virtuelle Host Bus Adapter ist üblicherweise fix an bestimmte LUNs des SANs gekoppelt.

Auch hier kurz der Vergleich: Statt jede physische oder virtuelle Maschine bei einer Umwidmung neu mit den benötigten Zugriffsrechten für Storage-Systeme konfigurieren zu müssen, kann in einem virtuellen Ressourcen-Pool der gesamten Storage-Kontext gemeinsam mit dem Server selbst migriert werden.

weiter mit: Selbstbedienung im Portal

elbstbedienung im Portal

Ein weiterer Baustein der modularen IT-Management-Lösung, wie sie Dells VIS bietet, ist der „Self-Service Creator“. Über ein Web-basiertes Portal können autorisierte User IT-Applikationen auswählen, physische und virtuelle Maschinen sowie Storagekapazitäten einrichten und verwalten.

Der Zugriff auf das „Selbstbedienungs“-Portal erfolgt über Nutzerrollen, die mit einem bestimmten Set an Zugriffsrechten ausgestattet sind. Eine sehr nützliche Funktion dabei ist die Ressourcenkontrolle für virtuelle Maschinen (VM Sprawl Control), mit der sich teure Über- oder gefährliche Unterprovisionierung leichter identifizieren und beheben lassen.

Die dritte Komponente von VIS schließlich ist der VIS Director. Dessen Aufgabe besteht unter anderem darin, einen zentralen Überblick über die IT-Infrastruktur und Abhängigkeiten zwischen physischen und virtuellen Umgebungen zu liefern.

Das Berichtswesen

Spezielle Reporting-Funktionen veranschaulichen Auslastungs- sowie Performance-Trends und ermöglichen Kostenanalysen der tatsächlich verbrauchten IT-Ressourcen. Ein Simulationsmodul ermöglicht die Analyse alternativer Konfigurationen und Auslastungsmodelle und eine faktenbasierte Planung von Kapazitätsänderungen und Erweiterungen.

Zusammenfassend ermöglicht die ganzheitliche Betrachtung und Koordination der physischen und virtuellen Infrastrukturkomponenten – von den Servern über Storagesysteme bis zu den Netzwerk-Fabrics – eine effiziente Steuerung und Bereitstellung von IT-Ressourcen. Die vorhandene Infrastruktur lässt sich so weit einfacher als in einem statischen Rechenzentrum an geänderte Business-Anforderungen anpassen.

Der Autor:

Peter Dümig ist Enterprise Solution Marketing Manager bei Dell.

(ID:2049707)