Flash im Fokus der Expertendiskussion Das All-Flash-Rechenzentrum. Und was bedeutet „Tape lebt“?

Ein Gastbeitrag von Vanessa Milak 12 min Lesedauer

Anbieter zum Thema

Nach zwei Jahrzehnten Flash-Geschichte, ist es an der Zeit, einige grundlegende Fragen zur Zukunft der Technik zu stellen. Eine Expertenrunde äußert unter anderem, wann das All-Flash-Rechenzentrum zur alltäglichen Realität wird und wo sich Flash auf der Technologiekurve befindet.

Festplatten und Tapes sind nach wie vor aus dem Datacenter nicht wegzudenken. Oder wer hätte gedacht, dass die Menge an Festplatten, die von Hyperscalern gekauft wird, die Menge der heutigen Flash-Laufwerke übersteigt?(Bild:  Dragon Claws - stock.adobe.com)
Festplatten und Tapes sind nach wie vor aus dem Datacenter nicht wegzudenken. Oder wer hätte gedacht, dass die Menge an Festplatten, die von Hyperscalern gekauft wird, die Menge der heutigen Flash-Laufwerke übersteigt?
(Bild: Dragon Claws - stock.adobe.com)

Es ist etwa 20 Jahre her, dass Flash-Speicher – in seiner äußerst dominanten NAND-Variante - erstmals Einzug in die Rechenzentren von Unternehmen gehalten hat. Seitdem hat die Technik die Datenspeicherung verändert. So ist die Leistung bei einer Vielzahl von Anwendungen erheblich gestiegen, weil Flash-Medien die viel langsameren, rotierenden Festplatten als Standardmedium für die primäre Datenspeicherung ersetzt hat.

Als Flash in den späten 1990er Jahren erstmals in Rechenzentren Einzug hielt, wurde die Technik lediglich zur Speicherung einer Teilmenge von Daten für eine Teilmenge von leistungsempfindlichen Anwendungen verwendet; denn sie war teuer. Doch als die Flash-Preise immer weiter fielen und Flash zur Speicherung von Daten für eine immer breitere Palette von Anwendungen verwendet wurde, begannen Branchenbeobachter zu fragen, wie lange es dauern würde, bis Flash die Festplatte vollständig verdrängt und so genannte All-Flash-Rechenzentren entstehen würden.

Tape ist nicht tot (und die Festplatte wird auch bestehen)

Zwei Jahrzehnte später haben wir diese Frage unserer Expertenrunde gestellt. Alle Fachleute waren sich einig, dass Flash die Festplatte noch viele Jahre lang nicht vollständig verdrängen wird, und die Mehrheit gab zu Protokoll, dass das All-Flash-Rechenzentrum auf absehbare Zeit eine Seltenheit bleiben wird. Andere Antworten fielen jedoch überraschend anders aus.

Alfred Chase Hui, Vice President of International Business bei Dapustor, einem Anbieter von Flash-Laufwerken, System-on-a-Chip-Prozessoren und anderen Edge-Produkten, fasste die wichtigsten Faktoren für die Beantwortung dieser Frage zusammen: „Es ist vernünftig zu erwarten, dass sich All-Flash-Rechenzentren in Zukunft immer mehr durchsetzen werden.“ Er setzt aber auch hinzu: „Der Übergang zu All-Flash-Rechenzentren kann jedoch aufgrund von bestimmten Faktoren (Kosten, Kompatibilität, Leistungsanforderungen) einige Zeit dauern.“

Andere Experten weisen insbesondere auf zwei Ursachen mit Blick auf die unbestimmte Zukunft der Festplatte hin:

  • der fünf- bis siebenfache Preisunterschied pro Terabyte Kapazität zwischen Flash und Festplatte und
  • der Bedarf von Unternehmen, große und ständig wachsende Datenmengen zu speichern, die nicht aktiv genutzt werden, etwa für KI/ML- und Analysetraining, Archivierung, Compliance sowie Backups.

Shawn Meyers, Field CTO bei Tintri, einem Hersteller von Speichersystemen, die auf virtualisierte Umgebungen zugeschnitten sind, gibt zu Protokoll: „Der Bedarf an kostengünstigem Archivierungsspeicher, zu dem vielerorts immer noch Tape gehört, wird bleiben. Man braucht schnellen Speicher nur für Dinge, an denen man aktiv arbeitet, und nicht für Dinge, die man nur für den späteren Gebrauch aufbewahrt."

Die Menge an Festplatten, die von Hyperscalern gekauft wird, übersteigt die Menge der heutigen Flash-Laufwerke.

Shawn Meyers

Meyers' Kommentar ähnelte den Aussagen anderer Teilnehmer unserer Expertenrunde, die man zusammenfassend als das 'Tape didn't die'-Argument bezeichnen könnte. Trotz der Vorhersagen zum Ende von Tape in den letzten zwei Jahrzehnten hat die Nutzung von Tape - zumindest in Bezug auf das schiere Volumen der darauf gespeicherten Daten - eher zu- als abgenommen, da immer größere Mengen an kalten oder selten zugänglichen Daten gespeichert werden müssen.

Die Tape-Fans

Peter Donnelly, Director of Products bei Atto Technology, einem Anbieter von Speichernetzwerken, teilt die Ansicht, dass All-Flash-Rechenzentren keinen Sinn machen" und dass es immer einen Bedarf an mehreren Speicherebenen geben werde. Er fügt hinzu, dass aufkommende Technologien wie KI/ML dieses Argument noch verstärkten.

Donelly sagt: „Unternehmen benötigen Zugang zu riesigen Speicherpools, etwa für das Training beim maschinellen Lernen, aber sobald dieses abgeschlossen ist, müssen die Daten auf kostengünstigere Speichertechnologien ausgelagert werden. Es mag zwar kontraintuitiv erscheinen, aber man kann durchaus argumentieren, dass aufkommende KI-Anwendungen den Bedarf an zweit- und drittklassigen Speichersystemen wie Festplatten und sogar Tape erhöhen.“

Coby Hanoch, CEO und Gründer von Weebit Nano, einem Entwickler von Speichermedien der nächsten Generation, teilte die Ansichten mit Blick auf Tape und fügte einen weiteren Grund hinzu, warum er glaubt, dass All-Flash-Rechenzentren nie wirklich weit verbreitet sein werden: alternative Solid-State-Technologien in Rechenzentren werden zum Einsatz kommen.

Ich bezweifle, dass es jemals reine Flash-Rechenzentren geben wird.

Coby Hanoch

Das klingt dann, selbst auf einen endlosen Zeithorizont so: „Ich bezweifle, dass es jemals reine Flash-Rechenzentren geben wird, und zwar aus mehreren Gründen. Es wird immer einen Bedarf an Tape oder Festplatten geben, einfach weil sie riesige Datenmengen auf billige Weise offline speichern können, und es wird eine wachsende Menge an Daten geben, auf die nur selten zugegriffen wird, die aber dennoch gespeichert werden müssen. Und wenn Flash die Rechenzentren übernimmt, werden die neueren NVMs [nichtflüchtige Speicher] wie etwa ReRAM und MRAM Teile der Rechenzentren beherrschen.“

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Der Festplatten-Fan

Steven Umbehocker, Gründer und CEO von Osnexus, einem Anbieter von skalierbaren, softwaredefinierten Speichersystemen, wies darauf hin, dass Festplatten in objektbasierten Speichersystemen fest verankert seien und dass beispielsweise der Festplattenriese Seagate eine kontinuierliche technologische Entwicklung vorausgesagt habe.

Sein Statement lautet: „Die Kostenersparnis von 5:1 zwischen Flash und Festplatte macht die Festplatte in objektbasierten Speichersystemen zu einer stärkeren Alternative zu Tape, und da Seagate in den nächsten Jahren die lang erwarteten 30-, 40- und 50-TB-Festplatten ausliefern wird, sollte sich in der Folge die Lebensdauer der Festplatte verlängern.“

Der Analyst

IT-Teams berücksichtigen jedoch mehr als nur die Anschaffungskosten, wenn sie zwischen Festplatten und Flash-Speichern wählen. Randy Kerns, leitender Stratege beim Analystenunternehmen Futurum Group, merkt dazu an: „Es gibt einen Aspekt bei der Umstellung auf Flash-Technologie, der oft übersehen wird: Neben der Leistungssteigerung durch Flash gibt es auch einen Wert der Einfachheit.“

Das erläutert er auch: „Mit Einfachheit meine ich die Notwendigkeit, die Geräte-Eigenschaften für die Platzierung/Verteilung von Daten im Hinblick auf die Leistung zu verwalten. Es ist einfacher, wenn die Leistung des Speichers höher ist.“ Er folgert: „Dies ist ein Faktor, der Unternehmen dazu bewegen wird, auf leistungsfähigere Technologien umzusteigen.“

Einige Rechenzentren sind vollständig mit Flash-Speicher ausgestattet

Für Tintri führt Meyers an, dass All-Flash-Rechenzentren bereits existierten. Und zur zukünftigen Ausstattung sagt er: „Die Antwort auf die Frage nach All-Flash-Rechenzentren wird von der Größe, dem Umfang sowie der Reichweite des Rechenzentrums abhängen.“

Es gebe viele kleinere bis mittelgroße Rechenzentren, die vollständig mit Flash ausgestattet sind. Dabei handele es sich jedoch eher um Rechenzentren für Einzelkunden.

Die großen Unternehmen, die regionalen Hosting-[Service-Provider] und die großen Hyperscaler werden für jeden beliebigen Zeitraum, den Sie prognostizieren wollen, Spinning-Rost haben.

Shawn Meyers

Dennis Hahn, leitender Analyst beim Forschungsunternehmen Omdia, stimmte dem zu und prognostizierte eine Klasse von Unternehmensrechenzentren, die bis 2028 komplett mit Flash ausgestattet sein werde. Dies seien Rechenzentren von Unternehmen, die zunehmend öffentliche Infrastruktur-Clouds nutzen, um ihre weniger leistungssensiblen oder kritischen Anwendungen zu hosten, die keinen Flash-Speicher benötigen, und die dieselben Clouds nutzten, um kalte oder selten benötigte Daten zu speichern.

„Vor-Ort-Rechenzentren, die sich weitgehend auf die Ausführung geschäftskritischer Anwendungen konzentrieren, gehen schnell zu reinen Flash-Speichern über“, sagt Hahn. Omdia prognostiziere, dass in den kommenden drei bis fünf Jahren die Mehrheit dieser lokalen Rechenzentren vollständig auf Flash-Technologie umsteigen sein wird.

Langsames Internet braucht keine schnellen Speicher

Mit anderen Worten: Festplatten werden aus diesen Unternehmensrechenzentren in die Hyper-Cloud-Rechenzentren verlagert - wo sie nach Ansicht von Hahn, wie auch der anderen Mitglieder der Expertenrunde, aufgrund ihrer niedrigen Kosten und des fehlenden Bedarfs an Leistung bei der Speicherung von kalten Daten noch viele Jahre lang bestehen werden.

Hahn nennt noch einen weiteren Grund, warum Flash nicht für die Speicherung jeder Art von Daten verwendet werden sollte: „Da diese [Bulk-, Archiv- und Backup-Speicher] oft mit dem relativ langsamen Internet verbunden sind, ist eher der Durchsatz als die geringe Latenz beim Abruf entscheidend. Wichtige Anwendungsfälle wie etwa Video und Rich Media werden HDD für eine lange Zeit effizient nutzen können, ebenso Technologien wie IoT und ELT [Extract, Load, Transform]-Datenerfassungspipelines.“

... und die Nachhaltigkeit ...

Roy Illsley, Chefanalyst bei Omdia, fügte hinzu: „Eine weitere Überlegung ist der Trend zur Verlängerung der Lebensdauer von IT-Geräten als Teil einer Strategie der ökologischen Nachhaltigkeit und Kosteneinsparung. Daher sind die Kunden jetzt weniger bereit, eine vermeintlich alte Technologie durch eine neue zu ersetzen. Die Auswirkungen auf die Rechenzentren werden darin bestehen, dass eine Mischung von Technologien eingesetzt wird, die in einigen Fällen bis zu sieben Jahre alt sein können, was bedeutet, dass die Einführung von Flash-Rechenzentren nicht unmittelbar bevorsteht.”

Curtis Anderson, Software-Architekt bei Panasas, einem Anbieter von Speichersoftware für leistungsintensive Workloads, vertritt eine ähnliche Ansicht bezüglich der Verbreitung von All-Flash-Rechenzentren. Allerdings basiert seine Meinung auf der Größe eines Unternehmensrechenzentrums und nicht auf den darin gehosteten Workloads.

„Wir glauben, dass es eine Grenze gibt, bei der Implementierungen unterhalb einer bestimmten Kapazität als All-Flash sinnvoll sind und Implementierungen oberhalb dieser Grenze nicht. Diese Grenze wird sich langsam nach oben verschieben, aber unserer Meinung nach meist mit dem Wachstum des Kapazitätsbedarfs Schritt halten.“

Keine synchrone Skalierung von Leistung und Kosten

Zur Verdeutlichung seines Arguments fügt Anderson an, dass ein Unternehmen mit der Speicherung eines relativ kleinen Dateisystems von 200 TB in Flash zufrieden sein könnte, da dies nur etwa 150.000 Dollar mehr kosten würde als die Speicherung auf Festplatte und eine viel bessere Leistung hätte. Aber für eine 100-mal größere Kapazität von 20 PB würden die zusätzlichen Kosten 12 Millionen Dollar betragen, was schwer zu rechtfertigen wäre. „Wenn man nicht gerade sehr spezielle Anforderungen hat, könnte man diese Mittel besser für den Kauf von CPUs und GPUs einsetzen.“

Die technologische Entwicklung folge oft einer Kurve, bei der die Kosten- oder Leistungsverbesserung im Laufe der Zeit langsam abnimmt und immer flacher wird, je schwieriger der technische Fortschritt zu erreichen ist. Um das Jahr 2010 herum sagten viele Beobachter voraus, dass die technische Entwicklung von NAND-Flash in Bezug auf die Anzahl der Speicherzellen, die in einen einzigen Flash-Chip gepackt werden können, vor riesigen Herausforderungen stehe.

Zu diesem Zeitpunkt war Flash bereits ein etablierter und wachsender Bestandteil der IT-Landschaft in Unternehmen, nicht nur wegen seiner Leistung und weiterer Vorteile gegenüber Festplatten, sondern auch, weil sein Preis in den letzten zehn Jahren immer weiter gesunken war. Sobald Hersteller von Flash-Chips auf die vorhergesagten Herausforderungen stießen, würden im Umkehrschluss die Preise, gemessen in Dollar pro Einheit Speicherkapazität, viel langsamer fallen.

Noch viel Dampf in der Flash-Technologiekessel

Im Jahr 2013 umging Samsung jedoch die vorhergesagte Einschränkung, indem es die ersten so genannten 3D-Flash-Chips auf den Markt brachte, die aus mehreren Schichten von Speicherzellen bestehen, statt wie bisher aus einer einzigen Schicht. Ein äußerst wertvoller Nebeneffekt ist die Möglichkeit, mehr Datenbits in jeder Speicherzelle zu speichern. Das hat dazu geführt, dass die Preise pro TB fielen.

Alle großen Flash-Hersteller folgten bald Samsungs Beispiel, und seither ist die Anzahl der Schichten pro Chip rapide gestiegen. Aber das war vor zehn Jahren. Nähert sich Flash nun dem Ende oder dem flacheren Teil seiner Technologiekurve?

„Leute, die sagen: 'Moore's Law ist tot', ignorieren 3D NAND, im Handy“, so der Generaldirektor des Analystenhauses Objective Research Jim Handy. Diese Technologie habe NAND-Flash einen neuen Schub gegeben, um weiterhin Bits zum Chip hinzuzufügen. „Jedes Jahr finden die Prozessingenieure geniale Wege, um die Technologie weiter voranzutreiben. Es ist zu erwarten, dass die Kosten in den nächsten Jahren mindestens um weitere Größenordnungen sinken werden, da die Chipdichte weiter zunimmt.“

Erkenntnisse vom Flash Memory Summit

Die Ankündigungen auf dem Flash Memory Summit 2023 bestätigten diesen Ausblick, so Leander Yu, Präsident und CEO von Graid Technology, einem Anbieter von GPU-gestützten softwaredefinierten Speichersystemen.

„Flash-Speicher-Hersteller wie Samsung, SK Hynix, Kioxia, Western Digital und Micron werden weiterhin Innovationen mit Roadmaps für höhere Dichte mit mehr Schichten unter Verwendung von Stacking-Techniken, Architektur- und Design-Innovationen sowie mehr Bits pro Zelle (etwa Penta-Level-Zelle oder PLC) entwickeln“, sagt er voraus.

Die ersten mehrschichtigen Flash-Chips, die 2013 auf den Markt kamen, bestanden aus 24 Schichten von Speicherzellen und speicherten 128 GBit. Yu verweist auf die diesjährige Demonstration eines 321-Layer-Chips von SK Hynix mit einer Speicherkapazität von 1 Terabit und auf die Vorhersage von Samsung aus dem letzten Jahr, dass das Unternehmen bis 2030 Chips mit 1.000 Lagen ausliefern werde.

Mit 1000 Lagen

Amos Ankrah, Lösungsspezialist bei Boston, einem Anbieter von Hochleistungsservern und Speichersystemen, vertritt die Ansicht, dass sich Flash noch auf dem steigenden Ast befindet: „Es gibt einige Faktoren, die darauf hindeuten, dass sich Flash in seiner technologischen Entwicklung noch im Aufwind befindet. Man kann darüber streiten, wo die derzeitige Flash-Technologie in neue Technologien übergeht, aber angesichts des Entwicklungsniveaus, das die Unternehmen, die Flash-Speicher entwickeln, immer noch an den Tag legen, scheint dies darauf hinzudeuten, dass es noch weiter aufwärts geht, bevor das Plateau erreicht ist.“

Donnelly von Atto gibt eine ganzheitlichere Antwort auf die Frage, ob Flash am Ende seiner Technologiekurve steht. In Bezug auf die Entwicklung der Netzwerk- und Speicherzugriffsprotokolle, die Flash-Laufwerke und Speichersysteme mit Servern verbinden, sagte er: „Bei weitem nicht. Wir beginnen gerade erst zu sehen, wie Flash in Rechenzentren eingesetzt werden kann.“

Der Wert von NVMe-Kommunikationsprotokollen werde in Rechenzentren gerade erst erkannt, und es werde mindestens ein Jahrzehnt dauern, bis sie die massive SCSI-basierte Infrastruktur ersetzen könnten. Auch die Weiterentwicklung der PCIe-Schnittstelle sowie neue Technologien wie CXL würden weitere Möglichkeiten für die Implementierung von Flash-Speichern bieten. Darüber hinaus entwickelten sich Transportprotokolle wie NVM-oF, typischerweise über RDMA-Ethernet, gerade erst zu einer brauchbaren Alternative.

Wann werden wir den nächsten neuen diskreten Festkörperspeicher sehen?

Flash hat die Datenspeicherung in Unternehmen verändert und war eine wichtige Triebkraft für die Revolution im Bereich der mobilen Computer. Jetzt ist es eine wichtige Technologie. Unabhängig von der Herstellung von Flash-Produkten wie Speicherlaufwerken oder kompletten Speichersystemen erwirtschaftet allein die Herstellung von NAND-Flash-Chips inzwischen einen Jahresumsatz von rund 80 Milliarden Dollar.

Dies wirft eine offensichtliche Frage auf: Wann wird die nächste neue Solid-State-Datenspeichertechnologie auftauchen, die denselben Einfluss auf den Massenmarkt haben könnte? In den letzten Jahrzehnten wurden Milliarden in Forschungslabors investiert, um eine neue Technologie zu entwickeln.

Der von Intel und Micron gemeinsam entwickelte „Optane“-Speicher war das Ergebnis dieser Forschung und wurde 2017 erstmals in Solid-State-Laufwerken ausgeliefert. Schneller, aber teurer als Flash, wurde Optane als der erste einer neuen Klasse von so genannten Storage-Class-Speichern (SCM) angekündigt, die Flash entweder ergänzen oder ersetzen und einen ähnlich großen Einfluss auf die IT haben würden.

Irrwege

Optane verkaufte sich jedoch schlecht. Im Jahr 2021 kündigte Intel an, die Produktion des Speichers einzustellen - nur vier Jahre nach seiner ersten Auslieferung.

In der Zwischenzeit wird die Forschung mit Blick auf andere potenzielle SCMs fortgesetzt. Für Objective Analysis, das sich schwerpunktmäßig mit neu entstehenden Speichern beschäftigt, sagt Handy, dass es in diesem und im nächsten Jahrzehnt wahrscheinlich keine neuen Speichertechnologien geben werde, die das Potenzial habe, die gleiche Wirkung wie Flash zu erzielen.

Er unterschied dabei zwischen zwei Arten von Speichern: solche, die in Prozessoren oder andere Chips eingebettet sind, und solche wie NAND-Flash und Optane, die als diskrete, reine Speicherchips in weitaus größeren Mengen verkauft werden und daher ein größeres Marktpotenzial haben.

Hanoch, CEO und Gründer von Weebit Nano, stimmt mit Handys Einschätzung überein, dass Optane - auch bekannt als 3D XPoint - aus wirtschaftlichen Gründen gescheitert sei, meint aber, dass die Schaffung einer Alternative zu Flash unvermeidlich sei: „Mehrere NVM-Technologien, darunter ReRAM, MRAM, PCM und FRAM, zeichnen sich als potenzielle Alternativen zu Flash ab.“

Intels 3D XPoint sei ein erster Versuch gewesen, das Problem anzugehen. Der Schlüssel zu einer erfolgreichen Flash-Alternative liege in der Entwicklung eines Speichers, der eine ausreichend hohe Speicherdichte zu einem ausreichend niedrigen Preis biete.

Sowohl Intel als auch AMD haben sich inzwischen vollständig von Vanilla-NVDIMMs zurückgezogen, ganz zu schweigen vom exotischeren Optane.

Boyan Krosnov

Boyan Krosnov, CTO und Mitbegründer von Storpool, einem Anbieter von softwaredefinierten, verteilten Speichersystemen, erinnert: „Jede neue Technologie muss sich gegen die bestehende Technologie durchsetzen, die von jahrzehntelanger Optimierung und Großserienfertigung profitiert. Die neue Technologie wird also einen erheblichen Nachteil haben.“

Anderson erwartet nicht, dass in den kommenden zehn Jahren ein SCM auftauchen werde und weist auf eine weitere Hürde hin, die Optane hätte nehmen nehmen müssen. „SCMs waren und sind vielversprechend, aber die Änderung der Software-Architektur, die für Anwendungen erforderlich ist, um alle Vorteile zu nutzen, die SCMs bieten können, war zu hoch.“

(ID:49949177)