NetApp AI Data Engine und AFX-Systeme für KI All-Flash-Storage und Datenservice für KI von NetApp

Von Klaus Länger 3 min Lesedauer

Anbieter zum Thema

Mit der AXF-Serie bringt NetApp ein disaggregiertes Storage-System mit optionalen Compute-Nodes für anspruchsvolle KI-Anwendungen auf den Markt. Die NetApp AI Data Engine soll die Datennutzung für KI-Anwendungen einfacher und sicherer machen.

Die disaggregierten AXF-Systeme von NetApp bestehen aus AFX-1K-Storage-Controllern, NX224-Storage-Enclosures mit NVMe-SSDs und optionalen DX50-Data-Compute-Nodes.(Bild:  NetApp)
Die disaggregierten AXF-Systeme von NetApp bestehen aus AFX-1K-Storage-Controllern, NX224-Storage-Enclosures mit NVMe-SSDs und optionalen DX50-Data-Compute-Nodes.
(Bild: NetApp)

Rund 60 Prozent aller KI-Projekte könnten im kommenden Jahr scheitern, da das Management der Daten nicht an die Anforderungen von KI angepasst ist, warnt Gartner. Traditionelle Datenmanagement-Systeme seien oft zu langsam und zu unflexibel für die KI-Teams. Zudem sind die Daten oft über viele Silos verteilt, und es fehlt an den nötigen Metadaten.

NetApp will diese Probleme mit der NetApp AI Data Engine, den disaggregierten AFX-Systemen und neuen Lösungen für die Google Cloud und Microsofts Azure adressieren.

KI-Datenservice für die hybride Cloud

Die NetApp AI Data Engine (AIDE) ist ein umfassender KI-Datenservice, der einen globalen Überblick auf alle NetApp-Daten in der hybriden Cloud bieten soll. AIDE umfasst:

  • eine Metadaten-Engine für das schnelle Finden relevanter Daten,
  • Data Sync auf Basis von SnapMirror und
  • SnapDiff für das automatische Synchronisieren von Daten und das Erkennen von Änderungen, um redundante Kopien von Daten zu vermeiden,
  • Data Guardrails und
  • einen Data Curator.

Für die Guardrails werden alle Daten kontinuierlich gescannt und kategorisiert, um sensible Informationen zu finden und gegebenenfalls von der Nutzung durch KI-Anwendungen auszuschließen. Dieser Vorgang läuft automatisiert auf Basis regulatorischer Vorgaben. Der Data Curator ermöglicht schließlich den KI-Teams den Aufbau kuratierter Datensammlungen für KI-Anwendungen und die Vorbereitung für RAG durch eine integrierte Vektorisierung. Laut NetApp nutzt AIDE dafür die Nvidia AI Data Platform als Referenzdesign für Vektorisierung und Retrieval der Daten.

Bildergalerie
Bildergalerie mit 7 Bildern

KI-Storage mit optionalen Compute-Nodes

Eine passende Hardware-Plattform bildet die neuen All-Flash-Systeme der AFX-­Serie. AFX ist ein disaggregiertes System, bestehend aus den AFX-1K-Storage-Controllern und den NX224-Storage-Enclosures mit bis zu 24 NVMe-SSDs. Letztere bilden einen gemeinsamen Storage-Pool und werden mit den Controllern durch ein Highspeed-Netzwerk mit niedriger Latenz verbunden. Als optionale Komponente kommen noch die DX50 Data Compute Nodes im 1U-Format mit einem 64-Core-Prozessor AMD Epyc 9554P und einer Nvidia-L4-GPU hinzu, auf der dann die NetApp AI Data Engine laufen kann. Die L4 ist eine Blackwell-Karte mit 16 GB GDDR6X.

Als stärkere Alternative will der Hersteller künftig die von etlichen Herstellern angebotenen RTX-Pro-Server mit RTX-Pro-6000-Karten unterstützen. Ein AFX-Cluster kann aus insgesamt 128 Controllern und 52 Enclosures bestehen, die zusammen mehr als ein Exabyte an schnellem SSD-Speicher bereitstellen können. Pro Cluster lassen sich zusätzlich bis zu zehn DX50-Nodes einsetzen.

Ein AFX-Cluster kann auf bis zu 128 Controller und 52 Enclosures mit einer Gesamtkapazität von mehr als einem Exabyte skaliert werden. (Bild:  NetApp)
Ein AFX-Cluster kann auf bis zu 128 Controller und 52 Enclosures mit einer Gesamtkapazität von mehr als einem Exabyte skaliert werden.
(Bild: NetApp)

AFX kann zudem als Storage-System in FlexPod AI integriert werden, NetApps gemeinsame Lösung mit Cisco, die dafür UCS-Server mit Nvidia-GPUs und die Netzwerkkomponenten stellen.

Kunden, die ein großes einmaliges Investment in AFX und AIDE umgehen wollen, können den KI-Datenservice und die Systeme auch als Keystone-STaaS mit monatlicher Bezahlung buchen. Dabei sind laut NetApp ohne zusätzliche Kosten bis zu 20 Prozent Burst-Kapazität für fluktuierende KI-Workloads enthalten.

NetApp-Storage für KI-Lösungen der Hyperscaler

Kunden, die für ihre KI-Anwendungen die Angebote der Hyperscaler nutzen, können dort ebenfalls NetApp-Lösungen für das Datenmanagement nutzen. So lassen sich die NetApp Volumes in der Google Cloud künftig über einen direkten und sicheren Kanal mit Googles Vertex-AI-Plattform verbinden, um so die Gemini-Modelle zu nutzen. Für KI-Services auf Microsoft Azure wie Microsoft Fabric, Azure OpenAI, Azure Databricks, Azure Synapse, Azure AI Search oder Azure Machine Learning, bietet NetApp als Neuheit eine Object-REST-API. Damit können Kunden direkt auf Azure NetApp Files zugreifen. Das bisherige Kopieren der Daten in einen separaten Objektspeicher fällt somit weg.

(ID:50604935)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung