Aktueller Channel Fokus:

Storage&DataManagement

Channel Fokus: Storage und Data Management

Die fleißigen Helferlein im Hintergrund

| Autor: Wilfried Platten, Klaus Länger

Bei Data Management sind Unternehmen auf profunde Unterstützung angewiesen.
Bei Data Management sind Unternehmen auf profunde Unterstützung angewiesen. (Bild: © Gorodenkoff - stock.adobe.com)

In vielen Unternehmen herrscht Nachholbedarf in Sachen Storage. Denn oft genug sind die einschlägigen Budgets nicht gleichem Maße gewachsen wie die Datenflut, die damit bewältigt werden muss. Neue Speichertechnologien locken zudem mit spannenden Optionen.

Die Buzzwords der Gegenwart gehen am Storage-Markt nicht spurlos vorüber: Virtualisierung, Digitalisierung, Security und natürlich die Cloud in all ihren Spielarten, Darreichungsformen und ­Geschmacksrichtungen prägen das Segment. Während die Storage-Virtualisierung mittlerweile Commodity ist, kommt der einstige Hoffnungsträger Software-defined Storage dagegen nicht so recht vom Fleck.

Nach wie vor gilt es, bei der Evaluation des passenden Storage-Systems das geplante Einsatzszenario im dreistufigen Tiering-Modell zu beachten:

  • Operative Daten/ Transaktionen
  • Backup/ Recovery
  • Archivierung

Allerdings gehört die übliche Gleichsetzung archivierter Daten mit „alt, kalt und nicht mehr gebraucht“ ihrerseits ins Archiv. Denn einerseits gelten auch für sie sowohl die härteren Datenschutzbestimmungen wie DSGVO oder die kommende e-Privacy-Verordnung als auch die strengeren gesetzlichen und regulatorischen Compliance-Anforderungen. Andererseits werden auch sie immer interessanter für Auswertungen im Rahmen von ­Data Analytics und Business Intelligence. Entsprechend schnell und unkompliziert muss der Zugriff darauf sein, was neue Anforderungen an die Archiv-Systeme stellt. Für Systemhäuser ist das „Entstauben“ der Archive im Unternehmen und die damit notwendigerweise verbundene technische Aufrüstung potenziell ein ­lukratives Geschäftsfeld.

Backup & Analytics

Das Daten-Backup galt und gilt als eines der wichtigsten „Einfallstore“ für Cloud-Storage und As-a-Service-Modelle. Praktisch alle Anbieter haben entsprechende Angebote im Portfolio, und auch auf den Cloud-Plattformen von Distributoren und Service Providern gehört es zu den Dauerbrenner-Anwendungen. Andererseits rückt das Backup damit auch vermehrt in den Blickpunkt von Sicherheits-Diskussionen.

Immer wichtiger wird bei den operativen Daten das Thema Analytics. Die Analyse der Datenflut soll diverse Kenngrößen optimieren: von betrieblicher Effizienz und Rentabilität über Neukundenakquise und Mitarbeiterproduktivität bis hin zu Kundenbindung und -zufriedenheit. Die damit verbundenen, temporär begrenzten Anforderungen an Speicher­kapazitäten und Zugriffsgeschwindigkeiten lassen sich nur mit hohem Aufwand über interne Storage-Systeme skalieren. Nicht nur hier liegt deshalb das Lösungs-Mantra in Hybrid- und Multi-Cloud-Szenarien. Allerdings wachsen damit auch die Komplexität der Storage-Umgebungen und die Anforderungen an das für ­deren Steuerung und Kontrolle nötige Data und Storage Management.

Cloud-Mythen

Rund um das Thema Cloud Storage ranken sich einige Mythen – manchmal schießen sie auch ins Kraut. Meist geht dabei um entweder den Aspekt Preis oder den Aspekt Sicherheit – oft auch um beide. Und sie sind untrennbar verbunden mit dem Schreckgespenst der Schatten-IT. Denn Cloud-Speicher wie Dropbox, Amazon Drive, 1&1 HiDrive oder Microsoft One­Drive werden von Abteilungen oder Projektteams gerne genutzt, gerade weil sie vermeintlich günstig und unkompliziert sind. Und die IT-Abteilung weiß von nichts.

Ergänzendes zum Thema
 
Data Management: Bei der Distribution in besten Händen

Abgesehen von funktionalen Schwächen (beispielsweise fehlende Synchronisationsfunktionen in Amazon Drive) geht es dabei immer auch um die Datensicherheit und -integrität. Deutsche Anbieter werben gerne mit dem Slogan „Cloud ­Made in Germany“. Dass ein Storage-Server in Deutschland steht, ist aber noch kein Security-Merkmal per se. So bewertete die Stiftung Warentest ausgerechnet die heimische GMX-Cloud als sicherheitskritisch. Die Mutter United Internet nahm dies zum Anlass, die technische Basis für GMX und Web.de unter Sicherheitsaspekten massiv zu überarbeiten. Unternehmen sollten also ganz genau hinschauen, was intern so ­alles an Cloud-Diensten genutzt wird. Hier können Systemhäuser helfen und mit professionellen Lösungen punkten.

Neue Speicher-Technologien

Apropos Storage-Lösungen: Die Entwickler und Anbieter haben hier aktuell eine Menge interessanter Neuheiten zu bieten, die als Aufhänger und Argumenta­tionshilfe im Kundengespräch wertvolle Dienste leisten können. Mal ganz abgesehen von den fortschrittlichen Storage-Architekturen, die sich damit verwirklichen lassen.

So könnte auf der Ebene der Storage-Plattformen für Intel eine ernsthafte Konkurrenz entstehen. In den vergangenen Jahren hatte der Chiphersteller mit seinen unterschiedlichen Xeon-Prozessoren hier fast ein Monopol. Lediglich bei NAS-Systemen der Einstiegsklasse mit maximal vier Bays werden die günstigen und sparsamen ARM-SoCs eingesetzt und bei einigen Highend-Storage-Systemen noch Power-Prozessoren von IBM. Mit den Epyc-Prozessoren der ersten Generation konnte AMD noch keine nennenswerte Zahl von Design-Wins verzeichnen. Hier waren die Vorteile gegenüber den etablierten Intel-Prozessoren einfach nicht groß genug, um die aufwändige Entwicklung für eine neue Plattform zu rechtfertigen. Bei der zweiten Epyc-Generation sieht das nun anders aus.

Bereits bei der Vorstellung der unter dem Codenamen „Rome” entwickelten Prozessoren konnte AMD-Chefin Lisa Su einige Server-Systeme mit Epyc-2-CPU von namhaften Herstellern ankündigen, die explizit auch für Storage-Anwendungen bestimmt sind. Je nach Modell bieten die Prozessoren der Epyc-7002-Serie zwischen 8 und 64 Cores, bei denen jeweils acht in einem 7-Nanometer-Chiplet untergebracht sind. Das in 14-Nanometer gefertigte I/O-Chiplet unterstützt bei ­allen Varianten 128 PCI-Express-Lanes, die zudem auch noch PCIe-4.0-Konnektivität bieten. Das ist zwar auch schon beim Power 9 von IBM der Fall, aber der ist extrem teuer und spielt bei Storage-Systemen praktisch keine Rolle.

Zahlenspiele

Mit seinen 128 PCIe-Lanes kann der AMD-Prozessor im Prinzip bis zu 32 NVMe-SSDs mit jeweils vier Lanes anbinden. Ein aktueller Intel Xeon Silver der Cascade-Lake-Generation verfügt nur über 48 PCIe-Lanes, die zudem nur den 3.0-Standard unterstützen. Daher ist hier selbst ein Dual-CPU-System mit dann 96 Lanes einem Storage-Server mit Epyc 2 in der maximalen Zahl von NVMe-Drives unterlegen. Bei diesem verdoppelt sich die Zahl der PCIe-Verbindungen in einer Dual-CPU-Konfiguration nicht, da hier dann jeweils 64 Lanes für die Kommunikation zwischen den CPUs verwendet werden.

Mit PCIe 4.0 steigt auch die Datenübertragungsrate der SSDs. Auf dem Flash Memory Summit in Santa Clara präsentierten etliche Hersteller PCIe-4.0-Controller für SSDs. Dort wurden bereits erste Enterprise-SSDs mit Dual-Port PCIe Gen4 Interface gezeigt, die eine sequenzielle Lesegeschwindigkeit von mehr als 6,4GB/s erreichen. Intel wird wohl frühestens Mitte 2020 mit Ice Lake SP einen Server-Prozessor an den Start bringen, der ebenfalls die vierte Generation des PCI-Express-Standards unterstützt.

Dafür verfügt Intel mit Optane DC Persistent Memory über eine Technologie, die derzeit exklusiv nur im Zusammenspiel mit den Xeon-Prozessoren der Cascade-Lake-Familie funktioniert. Mit 3D-XPoint-Chips bestückte Speichermodule, die in die DDR4-Speicherslots der Server-Mainboards stecken, sollen die Performance-Lücke zwischen DRAM und SSD schließen.

Optane DC Persistent Memory kann in verschiedenen Modi genutzt werden. Im Betriebssystem-unabhängigen Memory Mode dient er schlicht zur Vergrößerung des Arbeitsspeichers. Der DDR4-Speicher dient dann als Write-Back-Cache. In diesem Modus sind die in den Optane-Modulen gespeicherten Daten flüchtig. Beim App-Direct-Modus, der einen zusätzlichen Tier zwischen DRAM und Block-Storage einzieht, ist der Speicher persistent. Für Applikationen stellt Intel ein Persistent Memory Development Kit bereit. SAP hat Hana bereits für App Direct ausgelegt, weitere Projekte sind in Entwicklung.

Mit Storage über App Direct kann der Optane-Speicher zudem als extrem schneller NVMe-Speicher dienen. Intel verwendet die mit geringen Latenzen arbeitenden 3D-XPoint-Speicherchips zudem in Massenspeichern mit NVMe-Interface, die als Cache für SSDs fungieren und so eine weitere Schicht in der Speicherhierarchie bilden können.

Architekturfragen

Auf Ebene der Storage-Architektur arbeiten diverse Hersteller an Lösungen für eine ­hybride Multi-Cloud, mit der sich sowohl Daten als auch Applikationen einfach zwischen dem lokalen Datacenter und unterschiedlichen Hyperscalern verschieben lassen. Dabei bieten einige Storage-Hersteller Kubernetes und darüber noch OpenShift als eigenen Service an, um Kunden oder Systemhäusern ein einfaches Werkzeug für das Management von Containern sowohl in der Cloud als auch On-Premises an die Hand zu geben.

Mit diesen Services soll laut den Storage-Herstellern ein Cloud-Lock-in vermieden werden, das entsteht, wenn die unterschiedlichen Storage-Implementierungen der Provider zum Einsatz kommen. Auf Anwenderseite entsteht damit allerdings ein Vendor-Lock-in durch die genutzte Storage-Infrastruktur des betreffenden Herstellers. Für Kunden und Systemhäuser ist das aber eine zu verschmerzende Einschränkung, da die eigene Implementierung von Kubernetes kein Spaziergang ist und eine sofort einsetz­bare Lösung unter Umständen viel Zeit und Geld spart. So existieren für Docker und Kubernetes viele Opensource-Storage-Projekte mit unterschiedlichen Zielsetzungen und Fähigkeiten.

Composable Infrastructure

Die Composable Infrastructure ist ein neuer Ansatz für eine Software-defined Infrastructure (SDI), bei der Compute-, Storage- und Netzwerk-Ressourcen in flexiblen, virtuellen Pools zusammengefasst werden, aus denen Administratoren oder Entwickler über ein API die zu ­einem Workload passenden Ressourcen wie einen Service abrufen. Natürlich gibt es dabei auch Schnittstellen in die Cloud. Im Gegensatz zu einer hyperkonvergenten sollen bei der Composable Infrastructur neben Containern und virtuelle Maschinen auch Bare-Metal-Server unterstützt werden. Sie soll fähig sein, Applikationen die benötigten Ressourcen automatisch aus den Pools ­bereitzustellen und wieder in den Pool freizugeben, wenn sie nicht mehr benötigt werden.

Auf der Hardware-Ebene muss zunächst damit gearbeitet werden, was an herkömmlicher Server-, Storage- und Netzwerk-Hardware zur Verfügung steht. Letztlich sollen aber Technologien entwickelt werden, mit denen die notwendige Flexibilität einfacher erreicht werden kann. Beim Storage ist die Open Composable Disaggregated Infrastructure (CDI) ein solcher Ansatz. Dabei werden sowohl SSDs, als auch HDDs in Form von Fabric-Devices via NVMe-over-Fabric angebunden, um einen ­flexiblen Storage-Pool zu formen. Zur Orchestrierung werden offene APIs genutzt.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46120392 / Storage & Data-Management)