Nvidia AI Enterprise für VMWare vSphere KI mit Breitenwirkung durch vSphere als Basis

Autor: Klaus Länger

In Kooperation mit VMware bringt Nvidia KI-Workloads auf vSphere. Mit der Software Suite Nvidia AI Enterprise sollen nun hunderttausende von Kunden relativ unkompliziert branchenspezifische KI-Lösungen einsetzen können. Die Basis bilden zertifizierte Server.

Firmen zum Thema

Die AI Enterprise-Software-Suite soll einer ganzen Reihe von Branchen die unkomplizierte Nutzung von KI-Workloads auf virtualisierten Systemen ermöglichen. Denn die Software ist exklusiv für das brandneue VMware vSphere 7 Update 2 bestimmt.
Die AI Enterprise-Software-Suite soll einer ganzen Reihe von Branchen die unkomplizierte Nutzung von KI-Workloads auf virtualisierten Systemen ermöglichen. Denn die Software ist exklusiv für das brandneue VMware vSphere 7 Update 2 bestimmt.
(Bild: Nvidia)

Nvidia sieht sich selbst im professionellen Markt nicht mehr als reiner Hardwarehersteller, sondern als Lösungsanbieter für vertikale Märkte wie die Fertigungsindustrie, Logistik, den Finanzsektor, den Einzelhandel oder das Gesundheitswesen. Hier sieht der Hersteller Bedarf nach KI-Anwendungen für intelligente Fabriken, die Betrugserkennung bei Finanzdienstleistungen oder die Diagnostik im Gesundheitswesen, die Nvidia gemeinsam mit den Partnern im Channel und OEM-Partnern adressieren will. Einen ordentlichen Schub soll hier die Kooperation mit VMWare für die Software Suite Nvidia AI Enterprise für VMWare vSphere bringen, die für das gerade ankündigte Update 2 der Virtualisierungslösung bestimmt ist. Mit ihr können IT-Abteilungen in Unternehmen KI-Anwendungen mit den selben Werkzeugen managen, die sie auch sonst für die Verwaltung ihrer Rechenzentren und der hybriden Cloud verwenden. Damit sinkt die Komplexität in der IT-Landschaft, da keine parallelen Infrastrukturen für KI-Anwendungen benötigt werden oder gar in Form einer Schatten-IT in den Fachabteilungen existieren. Nvidia AI Enterprise soll zudem unter vSphere eine skalierbare, mehrknotenfähige KI-Anwendungsleistung liefern, die annähernd das Niveau von Bare-Metal-Servern erreicht.

Bildergalerie

Als Basis dienen dabei durch Nvidia für die Verwendung von A100-GPUs zertifizierte Server. Zu den ersten derartigen Systemen zählen die folgenden Modelle:

  • Dell EMC PowerEdge R7525 und R740
  • Gigabyte R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
  • HPE Apollo 6500 Gen10 und HPE ProLiant DL380 Gen10
  • Inspur NF5488A5
  • Supermicro A+ Server AS -4124GS-TNR und AS -2124GQ-NART

Die Komponenten von AI Enterprise

Die AI Enterprise Suite besteht aus einem ganzen Satz an für Nvidia-GPUs optimierten KI-Anwendungen und Frameworks wie etwa Tensor Flow, PyTorch, RAPIDS, TensorRT, dem Nvidia Transfer Learning Toolkit und dem Nvidia Triton Inference Server, jeweils angepasst an bestimmte Aufgabenbereiche. Dazu kommen noch vortrainierte Modelle, Tools für das Cloud-native Deployment und Infrastruktur-Werkzeuge wie Nvidia vGPU, Magnum IO, Cuda -X AI und das DOCA SDK für Bluefield DPUs. VMWare hat in vSphere 7 Update 2 die Unterstützung spezieller Funktionen der A100-GPUs integriert. So kann GPUDirect RDMA for vGPUs genutzt werden, um eine direkte Kommunikation zwischen GPUs in unterschiedlichen Nodes zu ermöglichen. Zudem wird durch Multi-instance GPU (MIG) die geteilte Nutzung einer GPU durch bis zu sieben VMs ermöglicht und auch das Verschieben von MIG-Instanzen zu anderen A100-Hosts. Diese Funktionen bietet vSphere derzeit als einzige Server-Virtualisierungslösung

NVIDIA AI Enterprise ist als unbefristete Lizenz zu einem Preis von 3.595 US-Dollar pro CPU-Sockel erhältlich. Der Enterprise Business Standard Support für NVIDIA AI Enterprise schlägt mit 899 US-Dollar pro Jahr und Lizenz zu Buche.

Neue Partner werden adressiert

Für Alfred Manhart, VP Channel EMEA bei Nvidia, ist AI Enterprise auch eine Möglichkeit, zusätzliche Partner zu gewinnen, da damit eine große Zahl von Systemhäusern und MSPs adressiert werden, die mit vSphere arbeiten und Kunden haben, die an spezifischen KI-Lösungen für ihr Geschäftsfeld interessiert sind. Auch das Partnerprogramm von Nvidia ist inzwischen nicht mehr an den unterschiedlichen Produkten des Herstellers festgemacht, sondern an Ökosystemen für unterschiedliche vertikale Einsatzbereiche. Dabei sind an Projekten meist mehrere Partner mit unterschiedlichen Kompetenzen beteiligt. Der Hersteller verfügt hier über gute Kontakte zu weltweit mehreren Tausend Startups aus dem KI-Anwendungsbereich und zu Universitäten. Partner können zudem an Schulungen des Nvidia Deep Learning Institute teilnehmen. Über die Nvidia GPU Cloud (NGC) stellt der Hersteller zudem KI-Framworks in Containern, vorab trainierte Modelle. Schritt-für-Schritt-Anleitung und Skripts zum Erstellen von Deep-Learning-Modellen und so genannte Collections bereit

(ID:47269618)

Über den Autor

 Klaus Länger

Klaus Länger

Redakteur