Aktueller Channel Fokus:

Managed Services

Channel Fokus: Storage und Data Management

Ohne Storage kein Datacenter

| Autor: Wilfried Platten

Storage rückt immer mehr ins Zentrum des „Datacenter-Zyklons“.
Storage rückt immer mehr ins Zentrum des „Datacenter-Zyklons“. (Bild: nasa_gallery - stock.adobe.com)

Von wegen Hardware-Peripherie! Storage wird immer mehr zum strategischen Zentrum einer zukunftsfähigen Datacenter-Architektur. Damit steigen sowohl die Anforderungen an die Expertise von Systemhäusern als auch deren Business-Optionen

Es gibt Stimmen die behaupten, Storage sei langweilig. Wer sich jedoch einmal intensiver in diesem Metier getummelt hat, der kann dies überhaupt nicht nachvollziehen. Der Markt ist ultradynamisch, hochspannend und dazu auch noch äußerst lukrativ – wenn man es richtig macht. Aber diese Einschränkung gilt ja praktisch überall.

Große wie mittelständische Unternehmen stehen beim Datenmanagement vor einer Fülle von Herausforderungen: Da ist einerseits die schiere Menge an Daten, die sie zu überrollen droht. Da sind die immer kürzeren Reaktionszeiten (Responsiveness), die nicht nur in (teil-)digitalisierten Geschäftsmodellen gefordert werden – und das in immer häufiger global vernetzten und kooperierenden Zusammenhängen. Da sind die stetig steigenden Anforderungen hinsichtlich der Sicherheit und Integrität von Daten, inklusive der Erfüllung komplexer Compliance-Richtlinien.

Und als wäre das noch nicht genug, stehen sie vor einer verwirrenden Vielfalt an potenziellen Lösungsansätzen und -szenarien mit diversen Protokollen, Systemen und Architekturen – manche davon seit Jahren bewährt, wie SAN, Flash, FibreChannel oder iSCSI, andere gehypt als „the next big thing“, wie beispielsweise NVMe oder SCM. Nicht zu vergessen: Hybrid Storage, respektive Cloud Storage.

Die Top 5 der Storage-Anbieter

Analog zu Cloud und Hybrid-IT kann man auf der Speicherebene mittlerweile vom Dualismus von Private und Public Storage sprechen. Und beim Public-Anteil wiederum von Mono- und Multi-Cloud-Storage. Das will gemanaged werden.

Bevor jedoch die Cloud-Fantasien ins Kraut schießen, müssen zuerst die Hausaufgaben gemacht, sprich die internen Speicherstrukturen auf Vordermann gebracht werden. Das Storage-Geschäft wird in Europa und weltweit von den großen Fünf dominiert: der zusammengeschweißten Dell EMC, der wiedergenesenen NetApp, der Zukauf-gestärkten HPE (Nimble und Simplivity), der Highend-zentrierten Hitachi und der offenbar unverwüstlichen IBM.

Die Top 5 weltweit...
Die Top 5 weltweit... (Bild: IDC)

...und in EMEA.
...und in EMEA. (Bild: IDC)

In Deutschland kommen als wichtige Anbieter noch Fujitsu (tritt hierzulande ja gleichzeitig auch als NetApp-Distributor auf) und lokale Größen wie Tarox oder Wortmann dazu. Und nicht zu vergessen all die hausgelabelten Storage-Systeme auf Supermicro-Basis.

Virtualisierung & SDS

Ein in Modernisierungs-Szenarien immer wieder auftauchendes Reizwort ist die Virtualisierung. Bei Servern ist sie mit einem simplen Mehrwert-Versprechen gekoppelt: „Mache mit zwei gut ausgelasteten Servern das, was vorher zehn schlecht genutzte gemacht haben und profitiere von den Anschaffungs- und Betriebskosteneinsparungen“. Daher lässt sie sich dort relativ einfach erklären und verkaufen. Und die Umsetzung wird zudem noch durch die Tatsache erleichtert, dass sie von einem einzigen Anbieter dominiert wird, der für einen Quasi-Standard gesorgt hat.

Bei Storage ist die Situation sehr viel komplexer. Erstens sind Effizienzfortschritte nicht so eindeutig zu beziffern und zudem tummeln sich unter diesem Begriff viele Ansätze: vom einfachen Mapping physischer Laufwerke auf logische Volumes über Thin Provisioning und asynchrone/synchrone Replikation bis hin zur In- und Out-of-Band-Virtualisierung. Die dadurch erzielbaren Effekte reichen von einfacherer Administration bis hin zur Clusterung von Hochverfügbarkeits-Lösungen.

Den Ausweg aus diesem Dilemma soll ein Trend bringen, der in der Storage-Branche rauf und runter dekliniert wird: Software-defined-Storage (SDS). Unter diesem Begriff kann jedoch dummerweise so ziemlich alles subsumiert werden, was nur im Entferntesten einen Hauch von Software besitzt – und das sind praktisch 100 Prozent. Eine allgemeinverbindliche Standarddefinition ist nicht in Sicht. Konsens ist jedoch, dass sich SDS-Lösungen besonders für den Einsatz in hybriden IT-Architekturen mit Multi-Cloud-Anteilen anbieten. Denn das Management der temporär, flexibel und volatil auf verschiedenen Private und Public Clouds verteilten Daten kann nur über ein zentrales Software-Layer mit hoher Automatisierungs- und Orchestrierungs-Funktionalität erfolgen.

Für Systemhäuser liegen in diesen Szenarien lukrative Projektoptionen für Beratungs-, Konfigurations- und Implementierungsleistungen bis hin zu umfassenden Betriebskonzepten. Zudem ist Storage für sich allein genommen spätestens jenseits einfacher NAS-Systeme keine Frage singulärer Lösungen mehr, sondern immer Teil eines größeren Lösungsansatzes, sprich elementarer Bestandteil eines Datacenters – und in diesem Kontext ein extrem wichtiger. Eigentlich sind wir hier im Herzen eines jeden Rechenzentrums. Denn was passiert dort? Datenverarbeitung! Und wo sind die Daten? Eben!

Systemintegration & Integrierte Systeme

Dabei ist es ganz egal, ob sie im eigenen Keller, in einem fremden Untergrund (Colocation) oder in der Cloud stecken. Sie müssen bei Bedarf blitzschnell dort sein, wo sie benötigt werden und deshalb müssen Storage-Systeme auf möglichst perfektes Teamwork mit Netzwerk- und Computing-Ressourcen getrimmt werden. Auch dies ist eine der vornehmsten Aufgaben, wichtiges Kompetenzfeld und spannende Projektoption für Systemhäuser.

Diese Integrationsleistung scheint aber immer weniger gefragt, respektive notwendig. Wie anders wäre es zu erklären, dass die Beliebtheit und Verbreitung Integrierter Systeme ständig wächst? Auf den ersten Blick entfällt hier ein wichtiger Wertschöpfungszweig für Systemhäuser, andererseits ist das kompensatorische Geschäft mit Integrierten Systemen durchaus lukrativ, trifft auf latenten Bedarf und ist vor allem mit weitaus weniger internem Aufwand verbunden, als die Einzelteile mit dem Jonglieren und Ausbalancieren diverser Systemkomponenten langwierig und mit viel Knowhow-Einsatz zu einem sinnvollen Ganzen zu fügen.

Die Segmentierung Integrierter Systeme nach Gartner
Die Segmentierung Integrierter Systeme nach Gartner (Bild: Gartner)

Allerdings tummeln sich unter diesem Begriff verschiedenste, nur bedingt miteinander vergleichbare Systemkonstellationen. Eine sinnvolle Segmentierung findet man bei Gartner. Die Zahlen (siehe Grafik) spiegeln die aktuelle Entwicklung und prognostizieren die Erwartungen bis 2019. Danach sind die hyperkonvergenten HCI-Systeme ganz eindeutig die „Rising Stars“. Während die Wachstumsraten der drei anderen Segmente eher moderat ausfallen, oder im Falle der Stack-Systeme sogar rückläufig sind, glänzen sie mit exorbitanten Zuwächsen von 55 Prozent. Das zum Thema latenter Bedarf.

Eine besondere Rolle spielt im HCI-Kontext das NVMe-Protokoll (Nonvolatile Memory Express) für Flash Technology. Laut Gartner wird der NVMe-Umsatzanteil bei HCI-Systemen von null Prozent 2017 auf bis auf fünf Prozent 2020 ansteigen. Also eine beachtenswerte Entwicklung, die man im Auge behalten sollte.

Im Herzen des Datacenters

Die vielleicht wichtigste Entwicklung betrifft jedoch nicht konkrete technologische Fortschritte, sondern die strategische Bedeutung, die Storage durch eben diese Errungenschaften in Rechenzentren jeglicher Dimension zunehmend bekommt.

Jede IT-Ära war und ist geprägt durch das jeweilige, sie dominierende Teilsystem. Früher war das, beginnend mit dem Mainframe, der Server, dann diktierte das Betriebssystem den Takt. Mitte der neunziger Jahre rankte sich kurz einmal alles um die Datenbank, und dann übernahmen die Applikationen das Kommando. Sie alle waren zu ihrer Zeit das Herzstück einer IT-Architektur, auf das alle anderen Komponenten zugeschnitten werden mussten.

Aktuell rückt Storage in diese zentrale Position, sozusagen ins Auge des Zyklons. Um etwa die potenziellen Vorteile von Storage Class Memory (SCM), das vielen Auguren als Speichertechnologie der Zukunft gilt, nutzen zu können, sind Anpassungen sowohl in den Servern, als auch im Prozessor selbst, insbesondere in den Cache-Architekturen, vonnöten. Und selbst die SCM-nutzenden Applikationen sollten daraufhin optimiert werden. Nicht nur deshalb geht ohne belastbare Storage-Kompetenz im Datacenter bald gar nichts mehr.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45485772 / Storage & Data-Management)