KI-Ankündigungen auf der HPE Discover Barcelona Auf Cloud Native folgt AI Native

Von Klaus Länger 3 min Lesedauer

Anbieter zum Thema

Auf der HPE Discover Barcelona drehte sich alles um KI. Der Hersteller stellt seine KI-native Architektur sowie neue Lösungen für die KI-Entwicklung im Unternehmen vor, bevorzugt als Greenlake-Service. Die Zusammenarbeit mit Nvidia wird ausgebaut.

HPE hat eine KI-native Architektur entwickelt, um Unternehmen bei der Einführung von Generative AI (GenAI) zu unterstützen. (Bild:  Midjourney / Klaus Länger)
HPE hat eine KI-native Architektur entwickelt, um Unternehmen bei der Einführung von Generative AI (GenAI) zu unterstützen.
(Bild: Midjourney / Klaus Länger)

„Mit dem Erscheinen von Generative AI (GenAI) erkennen Unternehmen schnell, dass die Anforderungen an Storage und Rechenleistung für die effiziente Arbeit mit KI-Modellen einen grundsätzlich anderen Ansatz bei der genutzten Technologie erfordert “, sagte HPE-CEO Antonio Neri in seiner Keynote auf der HPE Discover Barcelona Ende November. Seine Firma bezeichnet diesen Ansatz als „AI Native Architektur“, die in der Lage sein soll, Unternehmen eine KI-getriebene Transformation zu ermöglichen, mit der sie KI-Modelle mit ihren eigenen Daten sicher entwickeln können.

AI ganz groß geschrieben: HPE-CEO Antonio Neri bei seiner Keynote auf der HPE Discover Barcelona.(Bild:  HPE)
AI ganz groß geschrieben: HPE-CEO Antonio Neri bei seiner Keynote auf der HPE Discover Barcelona.
(Bild: HPE)

Die KI-native Infrastruktur

Die Workloads bei der GenAI erfordern sowohl eine sehr hohe Rechenleistung, als auch die Fähigkeit, enorme Datenmengen schnell zu verarbeiten. Daher müssen Unternehmen, die selbst mit GenAI arbeiten wollen, ihre Cloud-native Umgebung so erweitern, dass sie für einen KI-nativen Ansatz geeignet ist. Laut HPE trifft das auf die Greenlake-Plattform zu und erfüllt folgende Anforderungen:

  • Eine Data-first Pipeline um öffentliche und private Daten über verschiedene Umgebungen hinweg zu verwalten.
  • Ein hybrides Design um KI-Anwendungen von der Edge bis in die Cloud sicher auszuführen.
  • Supercomputing-DNA im kompletten Portfolio, um auch große Modelle schnell und nachhaltig zu trainieren.
  • Eine KI-Lifecycle-Management-Software für die Beschleunigung der verschiedenen KI-Workflows.
  • Ein offenes Ökosystem mit Wahlfreiheit und ohne Vendor-Lock-in.

Einen Teil dieser KI-nativen Infrastruktur von HPE, die in Kooperation mit Nvidia entsteht, hat HPE bereits auf der Supercomputer-Konferenz SC23 in Denver Mitte November angekündigt. Sie nutzt flüssigkeitsgekühlte HPE-Cray-Supercomputer mit den neuen Grace-Hopper-GH200-Superchips von Nvidia sowie Nvidia-Software für das Training sehr großer Modelle als erster Phase im KI-Lebenszyklus. Die GH200-Chips kombinieren Grace, eine ARM-CPU mit 72 Cores, und eine Hopper-H100-GPU auf einem Prozessor. Das Zielpublikum sind Großunternehmen und entsprechende Institutionen.

Bildergalerie
Bildergalerie mit 5 Bildern

In Barcelona hat HPE eine kleinere Enterprise-Lösung für GenAI angekündigt, die ebenfalls in Zusammenarbeit mit Nvidia entsteht. Sie ist dafür bestimmt, vortrainierte Modelle mit Firmendaten zu tunen und mittels Retrieval Augmented Generation zu verbessern. Dabei nutzt eine KI-Anwendung zusätzlich zu einem großen Sprachmodell Informationen aus anderen Datenquellen wie etwa internen Firmendaten, um die Qualität der Antwort zu verbessern und falsche Antworten auf Grund ungenügender Daten, so genannte Halluzinationen, zu vermeiden. Generell gebe es bei GenAI für Unternehmen zudem einen Trend zu kleineren und spezialisierten Modellen, so HPE.

Die vorgefertigte Rack-Scale-Architektur besteht aus Proliant-DL380a-Servern mit jeweils bis zu vier L40S-GPU-Karten von Nvidia. Die L40S ist eine PCIe-Karte mit Ada-Lovelace-Architektur und 48 GB GDDR6-ECC-Speicher. Die GPU bietet 18.176 Cuda-, 142 RT- und 568 Tensor-Cores. Ebenfalls von Nvidia stammt die Spectrum-X Netzwerkplattform, bestehend aus Bluefield-3-DPUs für die Server und 800-Gbit-Ethernet-Switches der SN5000-Serie.

Ergänzt wird die Hardware durch KI-Software von HPE und Nvidia. Von HPE stammen dabei das Machine Learning Development Environment sowie eine neue GPU-optimierte Version von Ezmeral für das Management von KI-Anwendungen in der hybriden Cloud. Nvidia steuert die AI-Enterprise-Software bei, mit MeMo als Cloud-nativem Framework für die Arbeit an KI-Modellen.

Die Enterprise-Computing-Lösung für GenAI soll im ersten Quartal 2024 verfügbar sein und zwar auch als Greenlake-Flex-Lösung, die HPE Greenlake for File Storage und Zerto Cyber Resilience Vault einschließt. Zerto gehört ebenfalls zu HPE.

Schneller und größer: HPE Greenlake for File Storage

Die All-Flash-Plattform für unstrukturierte Daten Greenlake for File Storage wird für die Anforderungen von KI-Workloads ausgebaut. In der ersten Hälfte 2024 sollen die Unterstützung von Nvidias Quantum-2-Infiniband-Netzwerk mit RDMA und GPUDirect den Datendurchsatz massiv erhöhen. Gleichzeitig ermöglicht der Einsatz von 30-TB-NVMe-SSDs eine nutzbare Gesamtkapazität auf 88 PB. Effektiv nutzbar durch Kompression und Deduplizierung sind laut dem Hersteller bis zu 250 PB.

KI-Software als Managed Service

Unternehmen, die keine eigene Hardware für das Training von KI- und ML-Modellen einsetzen wollen oder zusätzliche Kapazitäten benötigen, können die Machine Learning Development Environment Software als Managed Service auf AWS oder bei anderen Cloud-Anbietern buchen. Zudem bietet HPE Services ein Bündel aus Beratungsdiensten, Trainings für Angestellten sowie Lösungen für das Ausrollen von KI-Anwendungen an.

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:49827547)