Aktueller Channel Fokus:

Partnerprogramme

NVMe – ein Protokoll will Daten schneller ins Ziel bringen

Die nächste Fabric-Revolution braucht noch zehn Jahre

| Autor / Redakteur: Walter Schadhauser / Dr. Jürgen Ehneß

NVMe oF ist ein Netzwerkprotokoll, das unzähligen Anwendungen einen transparenten und latenzarmen Zugriff auf Flash-Speicher und den PCIe-Bus bieten wird.
NVMe oF ist ein Netzwerkprotokoll, das unzähligen Anwendungen einen transparenten und latenzarmen Zugriff auf Flash-Speicher und den PCIe-Bus bieten wird. (Bild: ©Dmitry - stock.adobe.com)

Man fragt sich, wie man noch vor Kurzem eine Office-Anwendung ohne Millionen I/Os betreiben konnte. Damals galten noch Antwortzeiten aus dem Backoffice von einer Sekunde als richtig performant. Heute reichen Latenzzeiten von weniger als 0,1 Millisekunden gerade noch aus, damit der Anwender nicht sofort zum Kaffeeautomaten läuft. Ein kritischer Blick auf eine Speicherrevolution.

Die Storage-Industrie hat sich darauf geeinigt, dass die NVMe-Infrastruktur (Non-Volatile Memory Express) der „alternativlose“ Weg in die technologische Zukunft ist. Dementsprechend ist die Presse begeistert und formuliert Überschriften wie „Mit NVMe startet Flash richtig durch“ oder „Eine neue Ära der Speichernetzwerke“ und vieles andere mehr. Doch der Betreiber müsste seine physische Infrastruktur umwälzen, um eine Super-Performance zu bekommen, von der er meistens keinen Vorteil hat.

Der technische Fortschritt hat zur Zeit für Storage-Kunden den Nachteil, dass er schneller Innovationen ausspuckt, als manch einer gucken kann. Nach Jahren skeptischer Begutachtung der Flash- und SSD-Technik, ob sie sich selbst und damit die Daten nicht zerstört, zeigte die Erfahrung, dass man mit Wear-out-Levelling und dazugehörigem Reserve-Speicher der Langlebigkeit von SSDs auf die Sprünge helfen kann.

NVMe im Rechner

Flash respektive SSDs haben die überkommenen Server-Schnittstellen wie SAS und SATA ausrangiert. Mit mehr Speicherkanälen in der SSD ist nur noch der PCIe-Bus in der Lage, die Datenmenge ohne Bremseffekt an den Prozessor zu liefern. Und die Überarbeitung des Transportprotokolls von SCSI zu NVMe sorgt ebenfalls für 30 bis 40 Prozent geringere Latenzen. Das beschert den Marketingabteilungen das Glück der ganz großen und ganz kleinen Zahlen: zig Terabyte Kapazität pro Speichermedium, Millionen Transaktionen pro Rack-Einschub, mikrosekundenkleine Latenzen und Gigabyte-schnelle Datentransfers – über die Kosten will man vielleicht später mal reden.

Gartner schätzte schon 2017 im Report „The Future of High Performance Computing“, dass der Preis von Storage Class Memory (SCM) im Jahr 2020 unter einen US-Dollar pro Gigabyte fallen könnte. SCM ist ein Hybridspeicher, der schnelle Halbleiter wie 3D Xpoint, ReRAM oder PCM mit TLC- (Triple-Level-Cell-) oder QLC-Flash-Kapazitäten (Quadruple Level Cell) kombiniert. Server würden dann Terabyte-große Datenmengen mit hohen Geschwindigkeiten nahe am Prozessor verarbeiten können.

Eine Fabric für alles

Was für den direkt im Server installierten Speicher einen gewissen Hype rechtfertigt, gilt vorerst nicht für das Netzwerk. Gartner schreibt in der Definition von NVMe und NVMe oF (NVMe over Fabrics) im Report des „Hype Cycle for Storage Technologies, 2018“: NVMe und NVMe oF sind Host-Controller- und Netzwerkprotokolle, die unzähligen Anwendungen größtmöglichen Nutzen eines parallelen und latenzarmen Zugriffs auf SSD-Speicher und den PCIe-Bus bieten.

Auch wenn sich Gartner für Server- und Netzwerk-NVMe begeistern kann, so ist die Einschätzung der Marktanalysten über die Reife dieser Techniken eine andere. Gartner verortet im „Hype Cycle 2018“ die NVMxxx-Technik auf dem mittleren „Innovation Trigger“-Bereich. Das sollte auch einem „Early Adaptor“ zu denken geben: Bis zum ausgereiften Produktlevel, dem „Plateau of Productivity“ gesteht Gartner der Technik weitere fünf bis zehn Jahre zu. Wem das ein wenig übertrieben erscheint, der denke an die Einführung des Fibre Channel Protocols zurück.

Diese Einschätzung lässt sich auch beim jährlich wiederkehrenden Interoperability Laboratory der University of New Hamsphire (UNH) nachvollziehen. Von Mai bis Ende Juni 2019 findet das mehrtägige NVMe-, NVMeoF- und das PCIe-Plugfest Numero elf statt. Gegenstände der Interoperabilitätstests der interessierten Produktlieferanten sind unter anderem das „NVMe over TCP Testing“, erste Storage-Tests auf der Software-Ebene, das Entwickeln von Test-Tools und nicht zuletzt Konformitätsprüfungen von Treibern und über Betriebssystemgrenzen (OS) hinweg.

Wer hier nur an die regelmäßigen Updates und Upgrades der bekannteren OS denkt, der bekommt eine Ahnung davon, dass er bei der Einführung von NVMe-Software sehr umsichtig zu Werke gehen sollte. Und es soll mit dem zukünftigen Transportprotokoll etwas funktionieren, das vor vielen Jahren mit FC over Ethernet (FCoE) grandios gescheitert ist: die Interoperabilität über Netzwerkprotokolle wie FC, Ethernet und Infiniband hinweg. Das Encapsulieren von Paketen soll es wie schon damals möglich machen. Die eierlegende Wollmilchsau ist einmal mehr die Zukunftsvision der vereinigten Storage- und Netzwerkindustrie.

NVMe (oF) ist mehr als einen Blick wert

Bei der Einführung von NVMe war die Netzwerkvariante eine Option für Spezialisten. Bei der Datenverarbeitung unterscheidet die Industrie schon seit langem zwischen „heißen“ und „kalten“ Daten. Für kalte Daten ein Hochgeschwindigkeitsnetzwerk aufzubauen, erschien vielen als Luxus. Die Praxis und der Wunsch nach exzessiver Datenanalyse haben hier wohl eine Kehrtwende bewirkt. Von der technischen Argumentation her ist die Kombination von Server- und Netzwerk-NVMe bis auf Weiteres unschlagbar. Die Experten geben als Ziel an, dass der Netzwerktraffic über NVMeoF nur 10 Mikrosekunden langsamer sein soll als mit serverintegrierten NVMe-Devices, die ebenfalls 10 Mikrosekunden für den Datentransfer beanspruchen.

Dementsprechend empfiehlt Gartner, NVMe-Infrastrukturen an innovativen innerbetrieblichen Projekten auszutesten und die Roadmap führender Hersteller mit den eigenen Interessen abzugleichen. Bei Gartner denkt man dabei vorzugsweise an Projekte mit SQL/NoSQL-Datenbanken, High-Performance-Computing – hier ist sicherlich der Kauf von Mellanox durch Nvidia ein interessanter Aspekt – und Real-Time-Analytics. Der Technologielieferant sollte allerdings darauf verpflichtet werden, dass er technischen Support für anderthalb bis zwei Jahre gewährleistet. Die Marktanalysten von DCIG weisen zudem darauf hin, dass wie bei iSCSI ein Offload-HBA (Host based Adapter) eingesetzt werden sollte, damit die CPU-Benützung nicht bei 50 Prozent liegt.

Im Vorteil scheinen derzeit Anwender der altbewährten FC-SANs der fünften, besser noch der sechsten Generation mit Bandbreiten von 16 bis 32 Gbit pro Sekunde zu sein. Stabile Treiber und eine erprobte Switch- und HBA-Infrastruktur mit Zoning-Funktionen erleichtern die Integration von NVMe-Storage-Arrays. Allerdings sollte man hier Einblick in eine erneuerte FC-Roadmap verlangen, da Bandbreiten von 4 GByte/s das unterste Ende zukünftiger Datentransferraten darstellen.

Diffiziler sieht es anscheinend bei Ethernet mit Geschwindigkeiten von 40, 50 und 100 Gbit/s aus. DCIG warnt im letzten Jahr vor dem „schwierigen Setup und einer unzureichenden Skalierfähigkeit“ von NVMeoF mit TCP.

Vorläufiges Fazit

Innezuhalten und nachzudenken über die vor Kurzem noch kostensparende Hybrid-Speichertechnik mit Flash und Festplatte oder über die hohe Leistung und das einfache Management von AFA-Arrays, fällt angesichts des Hypes schwer. Der NVMe-Zug beschleunigt, und wer nicht sofort aufspringt, landet wirtschaftlich unverzüglich auf dem Abstellgleis, so glauben viele. Es ist mal wieder wie bei jedem anderen Technologie-Hype: Der Kunde soll in eine Technologie investieren, die ganz viel Potenzial hat. Dass der Endkunde mit Millionen IOPS überhaupt nichts anfangen kann, stört nicht weiter. Die Festplatte funktioniert ja. Dass aber Anwenderunternehmen in eine unfertige Infrastruktur investieren sollen, in der alle Hersteller mit noch tolleren Funktionen und besseren Latenzwerten den nächsten Standard beeinflussen wollen, könnte sich im schlimmsten Fall als Konkurrenznachteil erweisen.

Eines steht jedenfalls für fast alle Early Adaptors fest: Wer sein Geschäft nicht mit schnellem Datentransport bestreitet, der wird zusätzlich einiges Geld ins Management, in Tests und erfahrene Mitarbeiter investieren müssen, um seine schnelle Infrastruktur überhaupt am Laufen zu halten. Und nicht zuletzt sind da ja auch noch die Anwendungs-Software-Pakete, die schon bei einfachen SSD-Speichersystemen nichts mit dem Leistungsschub anzufangen wussten. Infrastrukturen auf einen neuen Level zu bringen, sei es in der Cloud, bei KI und autonomen Maschinen, ist ein jahrzehntelanges Dauerprogramm. Und die ersten zehn Jahre sind bald vorbei. Die Anfänge liegen laut Wikipedia im Jahr 2011.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45832918 / Hardware)