Supercomputing-Trends verfestigen sich SC 24: Konvergenz zwischen HPC, Quantum und KI

Von Dr. Jakob Jung 4 min Lesedauer

Anbieter zum Thema

Die Supercomputing Konferenz „SC 24“, die heuer das zweite Mal und zwar vom 17. bis 22. November 2024 in Atlanta stattgefunden hat, hat eine Menge neuer Trends und Technologien aufgezeigt. Die Konvergenz von Quantentechnologien und Hochleistungsrechnern bietet einzigartige Möglichkeiten.

 „El Capitan“ ist derzeit der schnellste Supercomputer der Welt. In ihm steckt AMD-, HPE- und Red-Hat-Technik. (Bild:  HPE)
„El Capitan“ ist derzeit der schnellste Supercomputer der Welt. In ihm steckt AMD-, HPE- und Red-Hat-Technik.
(Bild: HPE)

Quantencomputing (QC) ist eine sich rasch entwickelnde Beschleunigertechnologie, und immer mehr Rechenzentren erwägen den Einsatz solcher Systeme als Teil ihrer langfristigen High Performance Computing (HPC) Strategie. Die Quanteninformatik ist ein vielversprechendes Paradigma zur Lösung komplexer Probleme und zur Beschleunigung des Fortschritts in vielen Bereichen des Hochleistungsrechnens. Die Konvergenz von Quantentechnologien und Hochleistungsrechnern bietet einzigartige Möglichkeiten für die Forschung und die Entwicklung von Algorithmen.

In einer Panel-Diskussion zeigten Martin Schulz, TU München und Laura Schulz, Leibniz Rechenzentrum, die enge Integration zwischen HPC und Quantum für hybride Anwendungen.(Bild:  Screenshot Jung)
In einer Panel-Diskussion zeigten Martin Schulz, TU München und Laura Schulz, Leibniz Rechenzentrum, die enge Integration zwischen HPC und Quantum für hybride Anwendungen.
(Bild: Screenshot Jung)

Während jedoch die potenzielle Rechenleistung von Quantencomputern für bestimmte Probleme allgemein bekannt ist, sind konkrete Anwendungsfälle, in denen HPC- und QC-Ressourcen gemeinsam genutzt werden, noch selten. In einer Panel-Diskussion zeigten Martin Schulz, TU München und Laura Schulz, Leibniz Rechenzentrum, dass ihr Ziel die enge Integration zwischen HPC und Quantum für hybride Anwendungen ist, im selben Netzwerk und Rechenzentrum, um Latenzen zu reduzieren und die Kommunikation zu optimieren.

HPC und KI

Ein weiteres Diskussionsthema waren die Auswirkungen der Demokratisierung und Verfeinerung von KI-Technologien. Sie sind in der gesamten Branche zu spüren, auch bei traditionellen HPC-Anwendungen, wo wir die Konvergenz von KI und HPC beobachten. Diese Konvergenz von KI und HPC hat einen positiven Innovationskreislauf geschaffen, bei dem KI die HPC-Innovation beschleunigt und umgekehrt.

KI-Technologien und spezialisierte KI-Infrastrukturen wie GPUs und Cloud-basierte Supercomputing-Dienste fördern innovative neue Wege zur Lösung traditioneller HPC-Probleme. Umgekehrt prägen HPC-Infrastruktur und Arbeitslasten wie Simulationen die KI-Infrastruktur und Technologie-Entwicklung.

Große Technologieunternehmen investieren bereits massiv in die domänenspezifische Kompilierung für KI, ein Trend, der durch die von zeigt „ChatGPT“ und seinen Derivaten ausgelöste LLM-Revolution noch beschleunigt wurde. Mit Python-basierten Frontends zur Produktivitätssteigerung und MLIR als robuster Basisinfrastruktur könnte es so aussehen, als hätte die KI die traditionelle HPC bei der domänenspezifischen Kompilierung überholt. Da jedoch jedes Unternehmen seine eigenen Kompilierungsstacks entwickelt und die KI-Beschleuniger immer vielfältiger werden, ist die Wiederverwendung spärlich und wir sind weit von einer allgemeinen Anwendung entfernt.

Serverless HPC

Die fortschreitende Konvergenz von High Performance Computing und Cloud Computing bietet der HPC die Möglichkeit, ihre Laufzeiten und Programmiermodelle zu verändern und zu verbessern. HPC-Systeme können ihre Effizienz und Zugänglichkeit erhöhen, indem sie elastische Cloud-Paradigmen adaptieren, wobei das Hauptbeispiel Serverless Computing ist.

Serverless abstrahiert das Ressourcen-Management und führt feinkörnige Zuweisungen ein, so dass Systembetreiber ihre Effizienz mit elastischen Containern (CaaS), Funktionen (FaaS) und Beschleunigung (XaaS) verbessern können. Die Einführung von serverlosen Technologien bringt jedoch Herausforderungen mit sich, die im HPC-Bereich noch nicht angemessen behandelt wurden: Sicherheit von Multi-Tenant-Implementierungen, Portabilität und Leistungsisolierung bei gemeinsam genutzten Ressourcen.

Produktneuheiten

Traditionell bringen zahlreiche Hersteller zur SC 24 auch eine Reihe innovativer Neuankündigungen. Hier eine Auswahl:

  • Hewlett Packard Enterprise (HPE) hat laut der neuen Top500-Liste den weltweit schnellsten Supercomputer, „El Capitan“, gebaut – er schafft eine Rechengeschwindigkeit von 1,742 ExaFlops und läuft beim Lawrence Livermore National Laboratory des US-Energieministeriums. Mit einer Leistung von 58,89 Gigaflops pro Watt gehört der komplett lüfterlose, direkt flüssigkeitsgekühlte El Capitan auch zu den Top 20 der Energie-effizientesten Systeme der Welt.

Auf der Kongressmesse „SC24“ hat Nvidia ein ganzes Bündel an Produktneuheiten vorgestellt. (Bild:  Nvidia)
Auf der Kongressmesse „SC24“ hat Nvidia ein ganzes Bündel an Produktneuheiten vorgestellt.
(Bild: Nvidia)

  • Nvidia hat die SC24 in Atlanta mit einer Welle von KI- und Supercomputing-Tools eröffnet, die Branchen wie Biopharma und Klimawissenschaft revolutionieren sollen. Jensen Huang, Gründer und CEO von Nvidia, sagt: „Supercomputer gehören zu den wichtigsten Instrumenten der Menschheit, die wissenschaftliche Durchbrüche vorantreiben und die Grenzen des Wissens erweitern“.
    Auf der SC24 hat Nvidia die „cuPyNumeric“-Bibliothek angekündigt, eine GPU-beschleunigte Implementierung von „NumPy“, die Anwendungen in den Bereichen Data Science, Maschinelles Lernen und numerische Berechnungen beschleunigen soll.
  • Der vom deutsch-französischen Team Partec-Eviden gelieferte Superrechner „Jupiter“, der erste Exascale-Supercomputer Europas, soll bahnbrechende Fortschritte bei der Nutzung Künstlicher Intelligenz (KI) ermöglichen und wissenschaftliche Simulationen auf ein neues Level heben. Jupiter wird von der europäischen Supercomputing-Initiative EuroHPC Joint Undertaking, kurz EuroHPC JU, beschafft und vom Jülich Supercomputing Centre (JSC) betrieben, einem von drei nationalen Supercomputing-Zentren innerhalb des Gauss Centre for Supercomputing (GCS).
    Das endgültige Jupiter-System wird mit annähernd 24.000 „Nvidia GH200 Grace Hopper Superchips“ ausgestattet sein, die speziell für rechenintensive Simulationen und das Training von KI-Modellen optimiert sind. Damit wird der Superrechner in der Lage sein, sogar mehr als 70 ExaFlop/s bei 8-Bit-Berechnungen mit geringerer Genauigkeit zu erreichen. Damit wird Jupiter zu einem der schnellsten KI-Systeme der Welt gehören.
  • Die „Dell AI Factory“ erhält zwei neue „Dell Poweredge“-Server für das „Dell Integrated Rack Scalable Systems“ (IRSS)-Programm. IRSS bietet jetzt verschiedene Prozessoroptionen und schlüsselfertige Dienstleistungen.
    Der Rechner „Poweredge XE7740“ ist mit zwei „Intel Xeon“-CPUs der 6. Generation ausgestattet und bietet Flexibilität mit bis zu 8 PCIe-Beschleunigern mit doppelter Breite oder 16 PCIe-Beschleunigern mit einfacher Breite. Der Server „Poweredge XE9685L“ ist mit zwei „AMD Epyc“-CPUs und bis zu 96 Nvidia-Grafikprozessoren pro Rack ausgestattet.

Artikelfiles und Artikellinks

(ID:50251724)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung