Aktueller Channel Fokus:

Drucker & MPS

Channel-Fokus: Server & Hyperkonvergenz

Leistung kann man nie genug haben

| Autor: Klaus Länger, Wilfried Platten

Vom Weg in die Hybrid-Cloud, den immer mehr Firmen beschreiten, profitiert vor allem das Geschäft mit hyperkonvergenten Systemen. Aber auch traditionelle Server werden zunehmend in software-definierte Infrastrukturen eingebunden.
Vom Weg in die Hybrid-Cloud, den immer mehr Firmen beschreiten, profitiert vor allem das Geschäft mit hyperkonvergenten Systemen. Aber auch traditionelle Server werden zunehmend in software-definierte Infrastrukturen eingebunden. (Bild: © vladimircaribb - stock.adobe.com)

Leistung? Genug! Die legendäre Antwort von Rolly-Royce auf die Frage nach der Power der Acht- und Zwölfzylinder trifft in der IT nur selten zu. Da gilt in der Regel eher das Metzger-Prinzip: Darf‘s ein bisschen mehr sein?

Die ständig wachsenden Anforderungen durch Videos und Analytics-Anwendungen oder die mittlerweile unvermeidlichen ­Security-Vorkehrungen treiben die Nachfrage von Abteilungen und Anwendern nach immer schnellerer Computing-Performance ständig nach oben – mit tendenziell steigenden Wachstumsraten. Da ist es mit einer Scheibe mehr nicht getan. Und die IT-Abteilungen können diesen Hunger nur mit neuen Servertechnologien und cleveren Skalierungskonzepten stillen. Trotzdem sind die weltweiten Serverumsätze von 2018 auf 2019 gesunken. Wie passt das zusammen?

Schon mit dem Aufkommen der Virtualisierung wurde den Server-Herstellern eine bestenfalls graue Zukunft vorausgesagt. Tatsächlich gingen durch die damit verbundene Auslastungsoptimierung der Geräte die Stückzahlen zurück. Dafür aber stieg dank der gewachsenen Anforderungen an die Hardware kompensatorisch der Preis pro Server.

Die Cloud wächst und Server stagnieren

Ähnliches wird jetzt auch durch die wachsende Akzeptanz von IaaS (Infrastructure as a Service) prognostiziert, denn Erstausrüstungs- und Nachholbedarf für unternehmenseigene Datacenter fallen damit partiell weg. „Ok, dann verkaufen wir die Server halt an die Provider“, so die Wunschvorstellung vieler Anbieter. Aber viele bauen ihre Server lieber selber – oder lassen sie bei Auftragsfertigern vom Band laufen. So einfach ist der Zielgruppenschwenk also nicht. Immerhin, bis 2020 sieht IDC für den westeuropäischen Server-Markt steigende Umsätze. Die Fantasie aber steckt im Iaas-Markt, der 2023 erstmals den Server-Markt im Gesamtvolumen übertrumpfen soll. Dieser wird laut Prognosen zumindest auf hohem Niveau von über zehn Milliarden Dollar „stagnieren“.

Hyperkonvergente Systeme dagegen verzeichnen einen regelrechten Boom. Lange genug hat es ja gedauert. Schon vor gut fünf Jahren wurden sie von der einschlägigen Hersteller-Riege als „The next big thing“ ausgerufen. Bis zu Akzeptanz und Durchsetzung in der Praxis hat es aber dann länger gedauert als erwartet – respektive erhofft. 2018 war es dann soweit, der Durchbruch geschafft. Gegenüber dem Vorjahr stiegen die Umsätze weltweit um über 50 Prozent auf 4,4 Milliarden US-Dollar. Und für 2019 werden auf diese satten Umsätze voraussichtlich nochmal knapp 45 Prozent draufgeschlagen. Eine echte Erfolgsgeschichte. Dagegen stagnieren die Referenz-Architekturen und die integrierten Infrastruktur-Systeme. Die Umsätze mit integrierten Stack-Systemen sind sogar rückläufig, sie spielen im Server-Markt jedoch nur eine marginale Rolle.

Sieht man sich Umsätze pro Anbieter/ Hersteller an, so weisen die IDC-Zahlen viele Verlierer und einen klaren Gewinner aus: Der chinesische Newcomer Inspur sorgt für reichlich Bewegung, jetzt auch auf dem deutschen Markt Angesichts der Inspur-Offensive dürften bei Konkurrenten die Alarmglocken schrillen. Supermicro beispielsweise hat prompt seinen europäischen Fertigungsstandort in den Niederlanden ausgebaut und hat ein neues Channel-Partnerprogramm mit erweiterten Service-Angeboten vorgestellt. Es wird spannend sein, zu beobachten, wie sich die Verhältnisse neu ordnen, und vor allem, ob sich Inspur auch auf dem deutschen Markt ähnlich erfolgreich etablieren kann.

HCI und die Hybrid Cloud

Der Boom hyperkonvergenter Systeme hängt auch damit zusammen, dass sie sich vergleichsweise einfach in die zunehmend beliebten Hybrid-Cloud- oder sogar in ­Hybrid-Multi-Cloud-Konzepte integrieren lassen. Da bei einer hyperkonvergenten ­Infrastruktur virtualisierte Compute-, Storage- und Netzwerkressourcen in einer Plattform vereint und gemeinsam verwaltet werden, ist es relativ einfach, einzelne Workloads vom eigenen Rechenzentrum zu unterschiedlichen Cloud-Providern zu verschieben und auch wieder zurückzu­holen. Aktuelle hyperkonvergente Systeme unterstützen zudem mehrere Hypervisors und virtuelle Umgebungen und inzwischen auch Docker-Container mit Kubernetes als Orchestrierungs-System.

Die wachsende Bedeutung von Container-Technologien illustrieren auch die Antworten, die wir von Systemhäusern auf folgende Frage erhalten haben: „Wie ausgeprägt ist bei Ihren Kunden der Trend zur nächsten Stufe im Software Defined Data Center, sprich: Werden klassische Virtualisierungslösungen durch Container-Technologien ersetzt, um so den Weg in die hybride Multi-Cloud einfacher zu machen?“

Ergänzendes zum Thema
 
Partnerstimmen: Bechtle
 
Partnerstimmen: Cancom
 
Partnerstimmen: Computacenter
 
Partnerstimmen: IT-Haus

Container können und werden klassische Virtualisierungslösungen zwar nicht ersetzen, eignen sich aber vor allem für Anwendungen, die portabel in hybriden Infrastrukturen zum Einsatz kommen.

Ein weiterer Vorteil hyperkonvergenter Infrastrukturen (HCI) liegt darin, dass sie fundamental Software-defined sind. Die Hardware-Komponenten liegen abstrahiert unter einer Software-Schicht, die ein einfaches Management aller Nodes ermöglicht. Weitere Merkmale sind eine weitgehende Automatisierung sowie APIs für DevOps. So lassen sie sich auch ohne große IT-Abteilung mit spezialisierten Mitarbeitern leicht aufsetzen und in Betrieb nehmen lassen. Das ist vor allem für den Einsatz in Zweigstellen und Edge-­Rechenzentren ein Vorteil. In Enterprise-Rechenzentren ermöglicht eine HCI relativ einfach den Aufbau hochverfügbarer Strukturen.

Das Problem der fehlenden Skalierbarkeit stellt sich bei HCI heute nicht mehr in dem Maße, wie in den Anfangsjahren der Technologie. Dabei kommt der Vorteil zum Tragen, dass bei hyperkonvergenten Systemen inzwischen meist gut erweiterbare Standardserver zum Einsatz kommen. So bieten etwa gängige Compute-Nodes heute teilweise die Option der Erweiterung durch GPU-Karten für KI-Workloads oder maschinelles Lernen. Mit der Implementierung einer Disaggregated Hyperconverged Infrastructure ist die Flexibilität noch höher. Die Einführung von NVMe over Fabrics verleiht ­dieser Entwicklung noch zusätzlichen Schub.

Grenzen für hyperkonvergente Systeme

Allerdings sind hyperkonvergente Sys­teme prinzipiell nur für virtualisierte Workloads brauchbar. In vielen Firmen existieren aber Anwendungen, die sich nur schlecht oder gar nicht virtualisiert betreiben lassen. Problematisch sind vor allem Echtzeit-Applikationen, die eine niedrige Latenz erfordern, etwa SAP ­Hana, Big-Data-Anwendungen oder Produktionssteuerungen. Wenn nun diese Anwendungen auf traditionellen Server-Infrastrukturen und hyperkonvergente Infrastrukturen sowie die Cloud parallel existieren, dann spricht man laut Gartner von einer bimodalen IT. Die hier vorhandenen unterschiedlichen Architekturen und Managementkonzepte treiben den Aufwand für die Administration und damit die Kosten in die Höhe.

Eine Lösung für dieses Dilemma verspricht die Composable Infrastructure (CI): Das sind Infrastruktursysteme mit einem hohen Abstraktionsgrad, die IT-Ressourcen wie Rechenleistung, Storage und Netzwerk aus einem dynamischen Pool nach Bedarf des Workloads aggregieren und nach Nutzungsende wieder in den Pool überführen. Dieser setzt sich aus unterschiedlichen Systemkomponenten zusammen, die durch ein schnelles, vermaschtes Netzwerk verbunden sind. Die heterogenen Komponenten im Rechenzentrum, zu denen neben Servern mit VMs und Containern auch Bare-Metal-Server zählen, liegen auch bei CI unterhalb einer einheitlichen Management-Schicht mit APIs und einem hohen Automatisierungsgrad.

Für die einzelnen Workloads werden Templates definiert, die eine schnelle Provisionierung der Ressourcen erlauben. Für den Aufbau einer hybriden Multi-Cloud soll sich CI ebenso gut eignen wie HCI. Die volle Leistungsfähigkeit kann eine Composable Infrastructure allerdings erst entfalten, wenn die einzelnen Komponenten im gesamten Rechenzentrum durch ein Netzwerk mit sehr niedriger Latenz und sehr hoher Bandbreite verbunden sind, etwa auf der Basis von Silicon Photonics. Hier sind entsprechende Lösungen derzeit allerdings noch tief im Entwicklungsstadium.

Trends bei Serverprozessoren

Bei aller Abstraktion bildet weiterhin das „Blech”, also der individuelle Server im Rack, die Basis im Rechenzentrum. Und hier tut sich bei den Serverprozessoren im Moment einiges. Zum ersten Mal seit Jahren bekommt Intel wieder nennenswerte Konkurrenz durch AMD. Nachdem die erste Generation von AMDs Epyc-Prozessoren noch auf verhaltene Resonanz gestoßen war, gibt es für die zweite Generation auf Basis der Zen-2-Microarchitektur eine ganze Reihe von Ankündigungen der führenden Server-Hersteller. Denn die Server-CPUs der Epyc-7002-Baureihe bieten bis zu 64 Cores, verfügen über acht Speicherkanäle und vor allem über 128 PCI-Express-4.0-Lanes. Die CPU ist in ­einer Chiplet-Bauweise mit einem günstigen 14-nm-I/O-Baustein als Zentrum und bis zu acht 7-nm-Compute-Chiplets mit jeweils acht Cores ausgeführt. Dieser ­Aufbau senkt die Kosten und erlaubt eine flexiblere Produktion als bei einem monolithischen Design.

Bei Intels aktuellem Cascade Lake ist derzeit mit 56 Cores das Ende der Fahnenstange erreicht. Der aus zwei 28-Core-Dies aufgebaute Xeon Platinum 9282 ist zudem auf speziellen Compute-Modules aufgelötet in Dual-CPU-Konfiguration erhältlich. Die aktuellen Xeon Modelle stellt Intel in einem 14-nm-Verfahren her. Laut einer kürzlich geleakten Roadmap sollen erst im zweiten Quartal 10-nm-Xeon-­Prozessoren von Intel kommen. Diese Ice-Lake-SP-Modelle sollen dann auch PCIe 4.0 unterstützen, aber nur über maximal 26 Kerne verfügen.

Allerdings hat Intel weiterhin den Vorteil eines deutlich größeren Software-Teams, das für eine optimale Unterstützung der eignen Prozessoren sorgt. Zudem bietet Cascade Lake mit Deep Learning Boost ­einen Satz zusätzlicher AVX-512-Befehle für HPC- und AI-Anwendungen sowie die Unterstützung von Optane DC Persistent Memory.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46204566 / Hardware)