Virtualisierung in der Praxis – über Hopp oder Topp entscheidet die Storage-Strategie Die fünf wichtigsten Storage-Aspeke für erfolgreiche Virtualisierungsprojekte

Autor / Redakteur: Thomas Höfer / Dipl.-Ing. (FH) Andreas Donner

Das angespannte Wirtschaftsklima lässt Unternehmen rigoros IT-Projekte auf Eis legen, die nicht binnen eines Jahres rentabel sind. Gute Aussichten für Virtualisierungsvorhaben. Denn Pluspunkte wie ein effizienterer Datacenter-Betrieb, sinkende Risiken, niedrigere Betriebskosten, erhöhte Flexibilität und ein schnellerer RoI überzeugen. Wer das Potenzial voll ausschöpfen will, muss für einen Erfolg jedoch ganzheitlich denken und die folgenden fünf Storage-Aspekte beachten.

Anbieter zum Thema

Rechenzentren müssen effizienter, agiler und dynamischer werden. Die Gründe dafür liegen auf der Hand: ein Großteil der eingesetzten Ressourcen ist unproduktiv oder schlicht Geldverschwendung. Pauschal gesagt sind 90 Prozent der Serverressourcen, 70 Prozent der Speicherressourcen und 50 Prozent der Netzwerkressourcen unnütz.

Als schneller Weg zum Effizienzerfolg gilt die Servervirtualisierung. Dennoch sind CIOs heute mit ungewollten Komplexitäten und Problemen an anderer Stelle konfrontiert: den Storage-Systemen. Damit Virtualisierung einen maximalen geschäftlichen Mehrwert und Kostenspareffekt hat, ist daher eine ganzheitliche Perspektive und ein expliziter Blick auf die Storage-Aspeke ratsam.

1. Bewertung der virtuellen Umgebung

Prinzipiell gilt: Was nicht quantifizierbar ist, ist auch nicht optimierbar. Um die aktuelle Situation im Rechenzentrum abschätzen und bewerten zu können, empfiehlt es sich, vor und nach der Einführung eines Virtualisierungsprojektes quantifizierbare Eckdaten zu erfassen. Aus diesem Vorher-Nachher-Vergleich lassen sich die Kosten und die operative Effektivität ableiten.

Abhängig von den Zielsetzungen und den Anforderungen eines Unternehmens gibt es verschiedene Kriterien, die in eine solche Auswertung einfließen können. Hier sind einige Kriterien als Beispiele:

  • Performance von Applikationen
  • Wiederherstellungzeiten bei performancerelevanten Problemfällen
  • Erfolgsrate bei der Lösung von Performanceproblemen
  • Verfügbarkeit und Kosten ungeplanter Downtimes
  • Zeit für die Bereitstellung neuer Applikationen
  • Kosten für Strom, Stellplatz und Kühlung

Entscheidend für die Bewertung ist zudem, dass die gesamte Umgebung – Storage, Netzwerk, physische Server und virtuelle Serverumgebung – berücksichtigt wird.

weiter mit: 2. Unified Storage verbessert die Flexibilität im Datacenter

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:2020768)