Channel Fokus: Server & Hyperkonvergenz Das Datacenter blüht, wächst und gedeiht

Autor Klaus Länger

Trotz des anhaltenden Cloud-Wachstums halten viele Unternehmen an ihren Rechenzentren fest. Derzeit legen sogar die Volumenmodelle der etablierten Hersteller zu. Gleichzeitig setzt sich der Trend zur hybriden Cloud- und As-a-Service-Konzepten fort.

Anbieter zum Thema

Die lokalen Rechenzentren werden Cloud-ähnlicher bei den genutzten Technologien und Finanzierungsmodellen. Zudem sind sie zunehmend Teil eines Hybrid-Cloud-Konstrukts.
Die lokalen Rechenzentren werden Cloud-ähnlicher bei den genutzten Technologien und Finanzierungsmodellen. Zudem sind sie zunehmend Teil eines Hybrid-Cloud-Konstrukts.
(Bild: monsitj - stock.adobe.com)

In den meisten Unternehmen bilden eigene Rechenzentren oder bei kleineren Firmen Serverräume immer noch das Rückgrat ­ihrer IT-Infrastruktur. Zwar wächst das Cloud-Business, vor allem in Form der großen Hyperscaler, immer noch rasant, aber dem hiesigen IT-Channel bleibt das traditionelle Server-Business ebenfalls erhalten. So setzt das Gros der Unternehmen eher auf die hybride Cloud, statt alle Anwendungen und Daten in die Public Cloud auszulagern. In unserer eigenen Panel-Umfrage zu diesem Channel Fokus stufen 45 Prozent aller befragten Systemhäuser das ­Geschäft mit Servern als sehr wichtig und weitere 35 Prozent als wichtig für ihr Business ein. Gleichzeitig stellen 65 Prozent der Systemhäuser fest, dass die Integration in eine Hybrid-Cloud-Infrastruktur für ihre Kunden einen hohen oder sehr hohen Stellenwert besitzt.

Das Festhalten an der eigenen Serverinfrastruktur hat unterschiedliche Gründe. Bei einem Teil der Kunden bestehen Bedenken hinsichtlich der Compliance bei Public-Cloud-Lösungen, ein anderer Teil setzt bei der Software auf Branchenlösungen, die sich nicht oder nur schlecht in die Cloud verlagern lassen. Und dann gibt es noch Anwendungen, die auf Gründen der Performance besser lokal betrieben werden. Dazu zählt auch die wachsende Zahl von Edge-Anwendungen, bei denen Daten auf Servern der Einstiegsklasse vorverarbeitet werden.

Ergänzendes zum Thema
Wachstum bei den etablierten Herstellern von x86-Servern

Der weltweite Servermarkt hat laut dem IDC Worldwide Quarterly Server Tracker im zweiten Quartal 2021 um 2,5 Prozent nachgegeben, bewegt sich aber insgesamt mit einem Umsatz von 23,6 Milliarden Dollar immer noch auf einem ­hohen Niveau. Die Zahl der verkauften Systeme ist dabei sogar noch um 0,1 Prozent minimal ­gewachsen. Der Verlust geht komplett auf das Konto von Inspur, ODM-Herstellern und IBM. HPE, Dell und Lenovo, die drei etablierten großen ­Fabrikanten von x86-Servern, konnten dagegen zulegen. Inspur und die ODMs hatten in den vergangenen Jahren stark vom Ausbau der Rechenzentren der großen Cloud-Anbieter profitiert. Der geringere Umsatz rührt vom höheren Anteil günstigerer Single-Socket-Systeme her.

HPE, Dell und Lenovo sind die Gewinner im zweiten Quartal dieses Jahres.
HPE, Dell und Lenovo sind die Gewinner im zweiten Quartal dieses Jahres.
( Bild: IDC )

Das Datacenter wird Cloud-ähnlich

Im Enterprise-Sektor oder bei größeren Mittelständlern gleicht sich das eigene ­Datacenter der Cloud immer weiter an. Die Modularisierung und Verlagerung von ­Anwendungen in Container erlaubt es, die Applikationen schneller auszurollen. Zudem wird das Management von Hard- und Software möglichst weitgehend automatisiert. Damit soll auch die Trennung von Entwicklung und Operations aufgehoben werden, um zu einem agileren Betriebs­modell zu gelangen. Eine wichtige Übernahme aus der Cloud-Welt ist „Infrastructure as Code“ (IaC) als Weiterentwicklung des Konfigurationsmanagements von Servern. Zunehmend wichtig werden zudem Orchestrierungslösungen wie Kubernetes, die bereits von etlichen Serverherstellern in ihre eigenen Plattformen für das Management der Geräte eingebunden werden. Damit sollen verteilte Kubernetes-Cluster über die verschiedenen Umgebungen in der Hybrid Cloud hinweg gemeinsam verwaltet werden.

Hier sind hyperkonvergente Infrastrukturlösungen für viele Unternehmen die erste Wahl, da der Betrieb von DevOps-Ansätzen mit einer vorhandenen konventionellen Serverinfrastruktur mangels passender Schnittstellen für die Automatisierung oft nur schwer zu realisieren ist. Wichtige ­Anbieter von HCI-Softwarelösungen wie VMware oder Nutanix haben ihre Plattformen bereits entsprechend erweitert. Mit der Tanzu Application Plattform hat VMware die eigene Kubernetes-Lösung weiter ausgebaut, Nutanix arbeitet eng mit Red Hat für die Nutzung von OpenShift zusammen. Mit Azure Stack HCI bietet auch ­Microsoft eine HCI-Lösung für On Premises als Service an, die auf vielen Systemen eingesetzt werden kann und sich natürlich besonders gut für die Integration mit der Azure-Cloud eignet.

Einen Nachteil von HCI, die mangelnde ­horizontale Skalierung, soll die Composable Infrastructure (CI) beheben. Darunter versteht man Systeme mit hohem Abstraktionsgrad, die IT-Ressourcen wie Rechenleistung, Storage und Netzwerk aus einem dynamischen Pool nach Bedarf des Work­loads aggregieren und nach Nutzungsende wieder in den Pool überführen.

Unten den von uns befragten Partnern sind immerhin 69 Prozent der Meinung, dass die CI das Zeug dazu hat, in der Zukunft die heute gebräuchlichen konvergenten oder hyperkonvergenten Systeme abzu­lösen.

Im modernen Rechenzentrum ist die Serverkonsole nur noch für den Notfall da. Alle anderern administrativen Aufgabe sollen möglichst automatisiert ablaufen.
Im modernen Rechenzentrum ist die Serverkonsole nur noch für den Notfall da. Alle anderern administrativen Aufgabe sollen möglichst automatisiert ablaufen.
(Bild: Sashkin - stock.adobe.com)

Die Rückkehr der Koprozessoren

Zu diesem Trend passt auch die aktuelle Entwicklung, wieder Intelligenz in einzelne Komponenten auszulagern, um so den Hauptprozessor zu entlasten. Ein Beispiel dafür sind DPUs (Data Processing Units), die eine Weiterentwicklung der Smart NICs darstellen, die schon seit längerer Zeit vor allem in den Rechenzentren der Hyperscaler eingesetzt werden. Die DPUs sind noch schlauere Netzwerkkarten, auf denen neben dem FPGA noch eine CPU und teilweise sogar noch eine GPU sitzen. Wichtige Hersteller sind hier Nvidia mit Mellanox, Broadcom, Marvell, Xilinx, der Startup Fungible und neuerdings auch Intel. DPUs nehmen den Server-CPUs Aufgaben bei der Paketverarbeitung im Netzwerk ab, die diese bei 100 GBit und mit Technologien wie virtuellen Switches erheblich belasten können. Speziell in containerisierten Infrastrukturen mit einer großen Anzahl von Microservices ist das der Fall.

Damit werden diese Karten für Enterprise-Anwender interessant. Auch die immer schnelleren SSDs sollen in Zukunft mit integrierten FPGAs den Hauptprozessor bei Aufgaben wie der Datenanalyse oder der Suche in großen Datenbeständen entlasten. Zum Einsatz kommen derartige Techniken vor allem bei den großen Cloud ­Providern, da diese ihre Anwendungen entsprechend anpassen und optimieren können. Aber mit der Zeit werden sie auch durch Standardsoftware unterstützt werden und damit auch in kleinere Rechenzentren Einzug halten.

Ergänzendes zum Thema
Partnerstimme Concat: HCI gewinnt an Bedeutung

Hyperconvergente Lösungen und Datacenter als Service passen laut Concat auch für KMU, sofern die Rahmenbedingungen passen. Unsere Fragen beantworten Stefan Voigt, Account Manager, und Julian Anstätt, Senior Consultant As-a-Service bei Concat.

ITB: Inwieweit spielen hyperkonvergente Lösungen inzwischen auch bei Kunden aus dem KMU-Umfeld eine Rolle? Gibt es hier einen Trend weg von traditionellen Serverlösungen?

Voigt: Das hängt sehr vom Einzelfall ab. HCI gewinnt immer mehr an Bedeutung, passt aber nicht bei jedem Kunden. Beide Konzepte haben ihre Daseinsberechtigung. Die Vorteile von Hyperkonvergenz sind jedoch so überzeugend, dass es sich auch für kleine und mittlere Firmen lohnt, diese Technologie in Erwägung zu ziehen. Computing, Storage und Networking in einem System zu haben, vereinfacht und automatisiert Wartung und Management. Die integrierte Fehlertoleranz sorgt zudem für eine höhere Verfügbarkeit. Das Verhältnis von Computing- und Storage-Anforderungen muss aber passen!

ITB: Einige Hersteller propagieren As-a-Service-Konzepte inzwischen auch für die Rechenzentren der Kunden. Sehen Sie hier auch eine Nachfrage bei Kunden aus dem Mittelstand, beziehungsweise bieten Sie solche Lösungen für diesen Kundenkreis an?

Julian Anstätt, Senior Consultant As-a-Service bei Concat.
Julian Anstätt, Senior Consultant As-a-Service bei Concat.
( Bild: Concat )

Anstätt: Ja, die Nachfrage ist auf jeden Fall da, und sie steigt auch. Zwei Gründe lassen sich hier ausmachen: Mittelstandskunden haben oft einen hohen Kostendruck. Außerdem tun sie sich aufgrund der Digitalisierung schwer, das Wachstum ihrer IT auf fünf Jahre im Voraus genau zu prognostizieren. Deshalb ist der As-a-Service-Ansatz für KMU so interessant. Wir bieten bereits seit mehr als fünf Jahren solche Lösungen an. Lukrativ ist die On-Premises-Variante aber erst ab 300 IT-Seats, weil die Basiskosten sonst zu hoch sind. Je kleiner die IT des Kunden, desto höher die Kosten. Deshalb betreiben wir für kleine und mittlere Unternehmen eigene Infrastrukturen in deutschen Rechenzentren, damit wir ihnen passgenau IT-Kapazitäten zur Verfügung stellen können. Dabei verteilen sich die Basiskosten auf mehrere Mandanten, und das macht es für KMU erschwinglich.

Das eigene Datacenter als Service

Anleihen aus der Cloud kommen nicht nur in Form von Technologien in die lokalen Rechenzentren, sondern auch bei den ­Geschäftsmodellen. Device-as-a-Service-Angebote wie HPE Greenlake, Dell Apex und neuerdings auch Fujitsu uScale führen hier Cloud-ähnliche Nutzungs- und Abrechnungsmodelle ein, die den Kunden größere Flexibilität und geringere Einmalinvestitionen bringen sollen. Allerdings ist speziell das Downscaling nicht so einfach, da hier die nicht mehr genutzten Hardware-Ressourcen im Rechenzentrum der individuellen Kunden stehen und nicht wie bei der Public Cloud für Workloads anderer Kunden genutzt werden können. Daher gibt es bei Device-as-a-Service-Angeboten immer einen monatlichen Sockelbetrag und Mindestlaufzeiten.

Dafür sind bei den Abo-Angeboten die ­Installation und Konfiguration nach der Bestellung sowie die Wartung und der Support während des Betriebs bereits enthalten. Über eine Management-Plattform bekommt die IT-Abteilung der Unternehmen oder ein Systemhaus, das die IT-Betreuung übernimmt, einen detaillierten Einblick in die genutzten Ressourcen und die daraus entstehenden Kosten. Zudem sollen cloudbasierte Self-Service-Plattformen die Nutzung von Anwendungen ähnlich gestalten wie in der Public Cloud. Die Kunden geben nur noch an, welche Art von Anwendungen sie fahren wollen, also beispielsweise Compute-Workloads, datenintensive Applikationen oder KI-Anwendungen, wie viele ­Instanzen sie benötigen und wie lange die Vertragslaufzeit sein soll. Davon abhängig wird die für sie optimale Hardware zusammengestellt und installiert, ohne dass die Kunden sich um die konkreten Systeme kümmern müssen.

Ergänzendes zum Thema
Partnerstimme Profi AG: Die Cloud im eigenen Datacenter

Mit HCI können sich auch kleinere und mittlere Unternehmen die Cloud ins eigene Rechenzentrum holen. Und Capex wird dabei auch für den Mittelstand immer wichtiger, erklärt Stefan Langhirt im Interview. Er ist Bereichsleiter Business Operations bei der Profi AG.

ITB: Inwieweit spielen hyperkonvergente Lösungen inzwischen auch bei Kunden aus dem KMU-Umfeld eine Rolle? Gibt es hier einen Trend weg von traditionellen Serverlösungen?

Langhirt: Gerade KMUs stehen vor der Herausforderung, mit einem meist kleinen IT-Team immer komplexere Systeme mit unterschiedlichen Hardware-, Netz- und Virtualisierungskomponenten verwalten zu müssen. Zusätzlich steigen die Anforderungen der Fachbereiche hinsichtlich Skalierbarkeit und schneller Bereitstellung von CPU-Ressourcen und Speicherkapazitäten ständig. Da in einem HCI-System diese Komponenten in einem Software-definierten System zusammengefasst sind, lassen sie sich einfach und zentral managen, die IT gewinnt erheblich an Effektivität und Effizienz. Ein weiterer Vorteil ist, dass mit einer HCI-Lösung eine gute Basis geschaffen wird, die klassischen Server- und Storage-Infrastrukturen im Rechenzentrum Cloud-fähig zu machen. In einer agilen Welt kann die Transformation von Anwendungen und Prozessen nur dann schnell und erfolgreich umgesetzt werden, wenn die darunterliegende IT flexibel und automatisiert bereitgestellt werden kann. Mit hyperkonvergenten Systemen und der entsprechenden Middleware kann die IT-Abteilung relativ schnell und einfach eine Cloud-Infrastruktur im eigenen Rechenzentrum aufbauen und den Fachbereichen ähnliche SLAs wie Public Cloud Provider anbieten – was den nächsten Schritt, nämlich die Verlagerung von Workloads in die Public Cloud, natürlich wesentlich vereinfacht. Genau deswegen hat Nutanix schon vor einiger Zeit HCI von „Hyperconverged Infrastructure“ in „Hybrid Cloud Infrastructure“ umbenannt.

Stefan Langhirt, Bereichsleiter Business Operations bei der Profi AG
Stefan Langhirt, Bereichsleiter Business Operations bei der Profi AG
( Bild: BENJAMIN SCHENK / HIRCH )

ITB: Einige Hersteller propagieren As-a-Service-Konzepte inzwischen auch für die eigenen Rechenzentren der Kunden. Sehen Sie hier auch eine Nachfrage bei Kunden aus dem Mittelstand bzw. bieten Sie solche Lösungen für diesen Kundenkreis an?

Langhirt: Der Trend von Capex zu Opex ist auch bei vielen mittelständischen Kunden offensichtlich und auch bei der IT-Infrastruktur immer häufiger zu beobachten. Leider sind die vielen Modelle noch sehr individuell und schwer vergleichbar, daher gibt es noch einiges an Klärungsbedarf. Auch die zugrundeliegenden Kosten- und Preisstrukturen sind wenig transparent, insofern muss man den Business-Case sorgfältig evaluieren - auch IaaS Angebote der Hyperscaler können sinnvolle Alternativen darstellen. Wir beobachten diese Entwicklung jedenfalls sehr aufmerksam, um unsere Kunden auch in Zukunft optimal beraten zu können, welche Alternativen für sie der richtige Ansatz sind.

Aktuelle und kommende Trends bei Serverprozessoren

Bei diesen tut sich im Moment einiges. AMD hat es in den vergangenen Monaten geschafft, den Gesamtumsatz zu verdoppeln. Inzwischen konnte der Hersteller auch den Absatz der Epyc-Prozessoren ­erheblich steigern. Das Segment der Enterprise-, Embedded- und Semi-Custom-Prozessoren, zu dem neben Epyc auch die APUs in Konsolen zählen, ist zuletzt um 69 Prozent gewachsen. Bei den Server-CPUs spielte vor allem die Nachfrage der Hyperscaler eine große Rolle, wo Intel im letzten Quartal mit einem Minus von 20 Prozent Federn lassen musste.

Dafür war der Prozessorhersteller im vergangenen Quartal mit den neuen Ice-Lake-Xeons bei Enterprise-Kunden und im öffentlichen Sektor erfolgreich. Sie sind die ersten 10-nm-Server-Prozessoren von Intel und reichen in der Leistung pro Core wieder einigermaßen an die aktuellen AMD-Epyc-Prozessoren der Milan-Serie heran. ­Allerdings hat AMD bei letzteren immer noch den Vorteil, Modelle mit bis zu 64 Cores anbieten zu können, während bei Ice Lake SP bereits mit 40 Kernen das Ende der Fahnenstange erreicht ist. Gegenüber den Vorgängern Cooper Lake und Cascade ­Lake mit bis zu 28 Cores pro Die ist das aber trotzdem ein großer Fortschritt.

Sailesh Kottapalli, Chefarchitekt in der Datacenter Processor Architecture Group bei Intel, zeigt einen Sapphire-Rapids-Chip.
Sailesh Kottapalli, Chefarchitekt in der Datacenter Processor Architecture Group bei Intel, zeigt einen Sapphire-Rapids-Chip.
(Bild: Intel)

Anfang 2022 soll mit Sapphire Rapids schon die nächste Xeon-Generation an den Start gehen und für Intel die Performance-Krone zurückerobern. Der ebenso wie Alder Lake im Intel-7-Prozess hergestellte Prozessor ist nicht mehr monolithisch aufgebaut, sondern besteht aus mehren Tiles. Insgesamt werden so vermutlich bis zu 60 Cores pro Prozessor möglich sein. Sie basieren auf der Golden-Cove-Architektur, die Intel ebenfalls für die Performance-Cores der Alder-Lake-Core-Prozessoren nutzt. Dazu kommen allerdings noch weitere leistungsfördernde Eigenschaften wie die Unterstützung von DDR5-Speicher mit vier Memory-Controllern und acht Speicherkanälen, die direkte Anbindung von HBM-Modulen sowie die Unterstützung von PCIe 5.0. Für eine bessere Skalierung in Multi-Socket-Systemen soll Ultra Path Interconnect (UPI) 2.0 sorgen, für die schnelle Anbindung von Beschleunigern die Unterstützung von Compute Express Link (CLX) 1.1.

AMD hat sich zu den kommenden Epyc-Modellen noch nicht konkret geäußert. Allerdings gibt es Hinweise, dass mit Milan-X vor dem Schritt zu Zen 4 noch eine Zwischenstation eingelegt wird. Der Einsatz von 3D-Cache soll hier Epyc-Prozessoren mit 768 statt bisher bis zu 256 MB Level-3-Cache ermöglichen. Dabei werden zusätzliche Speicherchips mit Hilfe einer gemeinsam mit TSMC entwickelten Stapeltechnologie direkt auf den CCDs (Compute Core Dies) aufgebracht. Später im Jahr soll dann der Zen-4-Prozessor Epyc Genoa mit DDR5 und AVX-512 folgen. Gerüchte sprechen hier von bis zu 96 Cores.

(ID:47534605)