Channel Fokus: Server & Hyperkonvergenz Das Datacenter blüht, wächst und gedeiht
Trotz des anhaltenden Cloud-Wachstums halten viele Unternehmen an ihren Rechenzentren fest. Derzeit legen sogar die Volumenmodelle der etablierten Hersteller zu. Gleichzeitig setzt sich der Trend zur hybriden Cloud- und As-a-Service-Konzepten fort.
Anbieter zum Thema

In den meisten Unternehmen bilden eigene Rechenzentren oder bei kleineren Firmen Serverräume immer noch das Rückgrat ihrer IT-Infrastruktur. Zwar wächst das Cloud-Business, vor allem in Form der großen Hyperscaler, immer noch rasant, aber dem hiesigen IT-Channel bleibt das traditionelle Server-Business ebenfalls erhalten. So setzt das Gros der Unternehmen eher auf die hybride Cloud, statt alle Anwendungen und Daten in die Public Cloud auszulagern. In unserer eigenen Panel-Umfrage zu diesem Channel Fokus stufen 45 Prozent aller befragten Systemhäuser das Geschäft mit Servern als sehr wichtig und weitere 35 Prozent als wichtig für ihr Business ein. Gleichzeitig stellen 65 Prozent der Systemhäuser fest, dass die Integration in eine Hybrid-Cloud-Infrastruktur für ihre Kunden einen hohen oder sehr hohen Stellenwert besitzt.
Das Festhalten an der eigenen Serverinfrastruktur hat unterschiedliche Gründe. Bei einem Teil der Kunden bestehen Bedenken hinsichtlich der Compliance bei Public-Cloud-Lösungen, ein anderer Teil setzt bei der Software auf Branchenlösungen, die sich nicht oder nur schlecht in die Cloud verlagern lassen. Und dann gibt es noch Anwendungen, die auf Gründen der Performance besser lokal betrieben werden. Dazu zählt auch die wachsende Zahl von Edge-Anwendungen, bei denen Daten auf Servern der Einstiegsklasse vorverarbeitet werden.
Das Datacenter wird Cloud-ähnlich
Im Enterprise-Sektor oder bei größeren Mittelständlern gleicht sich das eigene Datacenter der Cloud immer weiter an. Die Modularisierung und Verlagerung von Anwendungen in Container erlaubt es, die Applikationen schneller auszurollen. Zudem wird das Management von Hard- und Software möglichst weitgehend automatisiert. Damit soll auch die Trennung von Entwicklung und Operations aufgehoben werden, um zu einem agileren Betriebsmodell zu gelangen. Eine wichtige Übernahme aus der Cloud-Welt ist „Infrastructure as Code“ (IaC) als Weiterentwicklung des Konfigurationsmanagements von Servern. Zunehmend wichtig werden zudem Orchestrierungslösungen wie Kubernetes, die bereits von etlichen Serverherstellern in ihre eigenen Plattformen für das Management der Geräte eingebunden werden. Damit sollen verteilte Kubernetes-Cluster über die verschiedenen Umgebungen in der Hybrid Cloud hinweg gemeinsam verwaltet werden.
Hier sind hyperkonvergente Infrastrukturlösungen für viele Unternehmen die erste Wahl, da der Betrieb von DevOps-Ansätzen mit einer vorhandenen konventionellen Serverinfrastruktur mangels passender Schnittstellen für die Automatisierung oft nur schwer zu realisieren ist. Wichtige Anbieter von HCI-Softwarelösungen wie VMware oder Nutanix haben ihre Plattformen bereits entsprechend erweitert. Mit der Tanzu Application Plattform hat VMware die eigene Kubernetes-Lösung weiter ausgebaut, Nutanix arbeitet eng mit Red Hat für die Nutzung von OpenShift zusammen. Mit Azure Stack HCI bietet auch Microsoft eine HCI-Lösung für On Premises als Service an, die auf vielen Systemen eingesetzt werden kann und sich natürlich besonders gut für die Integration mit der Azure-Cloud eignet.
Einen Nachteil von HCI, die mangelnde horizontale Skalierung, soll die Composable Infrastructure (CI) beheben. Darunter versteht man Systeme mit hohem Abstraktionsgrad, die IT-Ressourcen wie Rechenleistung, Storage und Netzwerk aus einem dynamischen Pool nach Bedarf des Workloads aggregieren und nach Nutzungsende wieder in den Pool überführen.
Unten den von uns befragten Partnern sind immerhin 69 Prozent der Meinung, dass die CI das Zeug dazu hat, in der Zukunft die heute gebräuchlichen konvergenten oder hyperkonvergenten Systeme abzulösen.
Die Rückkehr der Koprozessoren
Zu diesem Trend passt auch die aktuelle Entwicklung, wieder Intelligenz in einzelne Komponenten auszulagern, um so den Hauptprozessor zu entlasten. Ein Beispiel dafür sind DPUs (Data Processing Units), die eine Weiterentwicklung der Smart NICs darstellen, die schon seit längerer Zeit vor allem in den Rechenzentren der Hyperscaler eingesetzt werden. Die DPUs sind noch schlauere Netzwerkkarten, auf denen neben dem FPGA noch eine CPU und teilweise sogar noch eine GPU sitzen. Wichtige Hersteller sind hier Nvidia mit Mellanox, Broadcom, Marvell, Xilinx, der Startup Fungible und neuerdings auch Intel. DPUs nehmen den Server-CPUs Aufgaben bei der Paketverarbeitung im Netzwerk ab, die diese bei 100 GBit und mit Technologien wie virtuellen Switches erheblich belasten können. Speziell in containerisierten Infrastrukturen mit einer großen Anzahl von Microservices ist das der Fall.
Damit werden diese Karten für Enterprise-Anwender interessant. Auch die immer schnelleren SSDs sollen in Zukunft mit integrierten FPGAs den Hauptprozessor bei Aufgaben wie der Datenanalyse oder der Suche in großen Datenbeständen entlasten. Zum Einsatz kommen derartige Techniken vor allem bei den großen Cloud Providern, da diese ihre Anwendungen entsprechend anpassen und optimieren können. Aber mit der Zeit werden sie auch durch Standardsoftware unterstützt werden und damit auch in kleinere Rechenzentren Einzug halten.
Das eigene Datacenter als Service
Anleihen aus der Cloud kommen nicht nur in Form von Technologien in die lokalen Rechenzentren, sondern auch bei den Geschäftsmodellen. Device-as-a-Service-Angebote wie HPE Greenlake, Dell Apex und neuerdings auch Fujitsu uScale führen hier Cloud-ähnliche Nutzungs- und Abrechnungsmodelle ein, die den Kunden größere Flexibilität und geringere Einmalinvestitionen bringen sollen. Allerdings ist speziell das Downscaling nicht so einfach, da hier die nicht mehr genutzten Hardware-Ressourcen im Rechenzentrum der individuellen Kunden stehen und nicht wie bei der Public Cloud für Workloads anderer Kunden genutzt werden können. Daher gibt es bei Device-as-a-Service-Angeboten immer einen monatlichen Sockelbetrag und Mindestlaufzeiten.
Dafür sind bei den Abo-Angeboten die Installation und Konfiguration nach der Bestellung sowie die Wartung und der Support während des Betriebs bereits enthalten. Über eine Management-Plattform bekommt die IT-Abteilung der Unternehmen oder ein Systemhaus, das die IT-Betreuung übernimmt, einen detaillierten Einblick in die genutzten Ressourcen und die daraus entstehenden Kosten. Zudem sollen cloudbasierte Self-Service-Plattformen die Nutzung von Anwendungen ähnlich gestalten wie in der Public Cloud. Die Kunden geben nur noch an, welche Art von Anwendungen sie fahren wollen, also beispielsweise Compute-Workloads, datenintensive Applikationen oder KI-Anwendungen, wie viele Instanzen sie benötigen und wie lange die Vertragslaufzeit sein soll. Davon abhängig wird die für sie optimale Hardware zusammengestellt und installiert, ohne dass die Kunden sich um die konkreten Systeme kümmern müssen.
Aktuelle und kommende Trends bei Serverprozessoren
Bei diesen tut sich im Moment einiges. AMD hat es in den vergangenen Monaten geschafft, den Gesamtumsatz zu verdoppeln. Inzwischen konnte der Hersteller auch den Absatz der Epyc-Prozessoren erheblich steigern. Das Segment der Enterprise-, Embedded- und Semi-Custom-Prozessoren, zu dem neben Epyc auch die APUs in Konsolen zählen, ist zuletzt um 69 Prozent gewachsen. Bei den Server-CPUs spielte vor allem die Nachfrage der Hyperscaler eine große Rolle, wo Intel im letzten Quartal mit einem Minus von 20 Prozent Federn lassen musste.
Dafür war der Prozessorhersteller im vergangenen Quartal mit den neuen Ice-Lake-Xeons bei Enterprise-Kunden und im öffentlichen Sektor erfolgreich. Sie sind die ersten 10-nm-Server-Prozessoren von Intel und reichen in der Leistung pro Core wieder einigermaßen an die aktuellen AMD-Epyc-Prozessoren der Milan-Serie heran. Allerdings hat AMD bei letzteren immer noch den Vorteil, Modelle mit bis zu 64 Cores anbieten zu können, während bei Ice Lake SP bereits mit 40 Kernen das Ende der Fahnenstange erreicht ist. Gegenüber den Vorgängern Cooper Lake und Cascade Lake mit bis zu 28 Cores pro Die ist das aber trotzdem ein großer Fortschritt.
Anfang 2022 soll mit Sapphire Rapids schon die nächste Xeon-Generation an den Start gehen und für Intel die Performance-Krone zurückerobern. Der ebenso wie Alder Lake im Intel-7-Prozess hergestellte Prozessor ist nicht mehr monolithisch aufgebaut, sondern besteht aus mehren Tiles. Insgesamt werden so vermutlich bis zu 60 Cores pro Prozessor möglich sein. Sie basieren auf der Golden-Cove-Architektur, die Intel ebenfalls für die Performance-Cores der Alder-Lake-Core-Prozessoren nutzt. Dazu kommen allerdings noch weitere leistungsfördernde Eigenschaften wie die Unterstützung von DDR5-Speicher mit vier Memory-Controllern und acht Speicherkanälen, die direkte Anbindung von HBM-Modulen sowie die Unterstützung von PCIe 5.0. Für eine bessere Skalierung in Multi-Socket-Systemen soll Ultra Path Interconnect (UPI) 2.0 sorgen, für die schnelle Anbindung von Beschleunigern die Unterstützung von Compute Express Link (CLX) 1.1.
AMD hat sich zu den kommenden Epyc-Modellen noch nicht konkret geäußert. Allerdings gibt es Hinweise, dass mit Milan-X vor dem Schritt zu Zen 4 noch eine Zwischenstation eingelegt wird. Der Einsatz von 3D-Cache soll hier Epyc-Prozessoren mit 768 statt bisher bis zu 256 MB Level-3-Cache ermöglichen. Dabei werden zusätzliche Speicherchips mit Hilfe einer gemeinsam mit TSMC entwickelten Stapeltechnologie direkt auf den CCDs (Compute Core Dies) aufgebracht. Später im Jahr soll dann der Zen-4-Prozessor Epyc Genoa mit DDR5 und AVX-512 folgen. Gerüchte sprechen hier von bis zu 96 Cores.
:quality(80)/images.vogel.de/vogelonline/bdb/1730800/1730814/original.jpg)
Channel Fokus: Server & Hyperkonvergenz
Wie agil ist ihr Rechenzentrum?
(ID:47534605)