Standardpflichten im Rechenzentrum Virtualisierung stellt Hochverfügbarkeit und Disaster Recovery auf den Prüfstand

Autor / Redakteur: Andreas Bechter, Virtualisierungsspezialist bei Symantec / Regina Böckle

Virtualisierungstechnologien gehören mittlerweile zum festen Bestandteil der Unternehmens-IT. Recht sorglos gehen IT-Entscheider allerdings häufig mit den Aspekten Hochverfügbarkeit und Disaster Recovery in virtuellen Systemumgebungen um.

Anbieter zum Thema

Oft sind virtuelle Maschinen nicht in ein entsprechendes Konzept eingebunden. Sind geschäftskritische IT-Dienste, Applikationen und Hardware in die virtuelle Struktur integriert, wächst das Risiko allerdings enorm: Der physische Server fungiert als Single-Point-of-Failure und zieht im Fall der Fälle auch die darauf laufenden virtuellen Maschinen in den Absturz.

Im toten Winkel: Disaster Recovery

Auslastung, Ressourcenmanagement, Kosteneinsparungen – die Euphorie um die Möglichkeiten mit Virtualisierungstechnologien verstellt manch einem den Blick für Standardpflichten in geschäftskritischen IT-Umgebungen: Etablierte Methoden und Lösungen für das Disaster Recovery (DR) und die Hochverfügbarkeit bleiben häufig außen vor.

Für Daten und Applikationen in virtuellen Umgebungen bergen nicht ausreichende Backup-Tools und mangelnde automatisierte Wiederherstellungslösungen die größten Risiken. (Archiv: Vogel Business Media)

Dies beweist eine aktuelle Studie des Sicherheitsexperten Symantec mit 1.650 IT-Managern weltweit: Fast die Hälfte aller virtuellen Server sind nicht in die DR-Pläne der Unternehmen integriert. Die Motive reichen dabei von der unübersichtlichen Vielfalt der unterschiedlichen und teils unausgereiften Backup-Lösungen bis hin zu fehlenden Möglichkeiten einer Automatisierung für den Fall einer Wiederherstellung.

Vor allem aber folgende Aussagen dürften die Zurückhaltung bei IT-Verantwortlichen begründen: Bewährte Werkzeuge und Prozesse zur Hochverfügbarkeit und Disaster Recovery von physischen Servern lassen sich nicht auf virtuelle Szenarien adaptieren oder bieten nur einen eingeschränkten Funktionsumfang.

36 Prozent der Daten auf virtuellen Servern werden nicht regelmäßig in ein übergreifendes Backup einbezogen. Die Hauptgründe: mangelnde Speicherkapazitäten (52 Prozent) und fehlende Storage-Management-Tools (53 Prozent).

Riskant: Notfallpläne ohne Testlauf

Ferner kommt die im Juni dieses Jahres in 24 Ländern durchgeführte Erhebung zu dem Schluss, dass Notfallpläne nur selten geprüft werden. Sie sollen die alltäglichen Geschäftsprozesse nicht stören. 27 Prozent der Unternehmen testen diese Notfallpläne aus Gründen wie diesem gar nicht auf ihre Wirksamkeit – mit teils gravierenden Folgen. Denn bei einem Viertel der befragten Unternehmen versagte der Test.

Entsprechend düster muten die Worst Case-Szenarien an: Durchschnittlich drei Stunden benötigen Unternehmen, um eine Basisversorgung ihrer Systeme gewährleisten zu können. Nach rund vier Stunden erfolgt in der Regel wieder ein Normalbetrieb im Rechenzentrum.

Wie sich physische Server vor Ausfällen schützen lassen und was bei der Datensicherung zu beachten ist, erläutert Andreas Bechter auf der folgenden Seite.

(ID:2040659)