Suchen

Channel Fokus Datacenter & IT-Automation Die Cloudifizierung des Datacenters

Autor: Klaus Länger

Im diesem Jahr wurde erstmals mehr Geld für Cloud-Infrastruktur ausgegeben als für das klassische Datacenter, allerdings einschließlich der Private Cloud. Die Datacenter-Hersteller versuchen daher weiter, die Erfolgsrezepte der Cloud auf das Rechenzentrum zu übertragen.

Firmen zum Thema

Auch im Datacenter soll nach den Plänen der Hersteller letztlich alles zum Service werden.
Auch im Datacenter soll nach den Plänen der Hersteller letztlich alles zum Service werden.
(Bild: © Scanrail - stock.adobe.com)

Um satte 19,8 Prozent ist laut der Marktforscher von IDC der weltweite Servermarkt im zweiten Quartal 2020 gewachsen. Im EMEA-Raum ist von diesem Wachstum ­allerdings nichts angekommen. Hier gingen im gleichen Zeitraum die Verkäufe um 5,8 Prozent zurück. Ein wesentlicher Grund dafür ist sicher die Tatsache, dass die Covid-19-Pandemie und die damit verbundenen Probleme in vielen Branchen zum Aufschub geplanter ­Investitionen geführt haben. Das stellt beispielsweise auch Christian Klein, CEO von SAP fest, wenn er sagt: „Aufgrund der Corona-Krise befinden sich unsere Kunden an einem Wendepunkt. Für Unternehmen ist der Umstieg in die Cloud, verbunden mit einer echten Neuausrichtung ihres Geschäfts, unerlässlich geworden. Denn nur so können sie ­widerstandsfähiger werden und die Voraussetzungen dafür schaffen, dass sie gestärkt aus der Krise hervorgehen können.“ Viele Systemhäuser machen zwar aktuell noch viel Umsatz mit klassischer IT-Infrastruktur, was auch ­unsere Panel-Umfrage belegt, sehen aber auch, dass dieser Markt schrumpfen wird.

Ergänzendes zum Thema
Inspur und die ODMs als Gewinner

Das Wachstum im Servermarkt geht zu einem guten Teil auf das Konto der großen Hyperscaler.
Das Wachstum im Servermarkt geht zu einem guten Teil auf das Konto der großen Hyperscaler.
( Bild: Statista )

Mit 77 Prozent Zuwachs war der chinesische Hersteller Inspur der größte Gewinner in der IDC-Statistik der weltweiten Serververkäufe im zweiten Quartal 2020. Dahinter rangieren gleich mit einem Plus von 63 Prozent die direkt verkaufenden ODMs, die gleichzeitig mit 28,8 Prozent den insgesamt größten Marktanteil für sich verbuchen können. In beiden Fällen geht das Wachstum mit Sicherheit zu einem guten Teil auf das Konto der großen Cloud-Anbieter. Dafür sprechen auch die 25 Prozent Plus in den USA und die fast 40 Prozent Zuwachs in China. In diesem Markt ist Inspur auch stark gewachsen, da die Firma dort der Joint-Venture-Partner für IBM ist.

Gründe für die steigende Cloud-Nutzung

Viele Unternehmen, wie etwa auch die Deutsche Bahn,beschreiten den Weg in die Public Cloud nicht unbedingt, weil sie so Geld sparen, denn das ist längst nicht mehr so, sondern weil ihnen die Migration mehr Flexibilität bei der Anpassung der Server- und Storage-Ressourcen an ihre Workloads bringt. Dazu kommt, dass sie Anwendungen in der Cloud schneller ausrollen können, speziell wenn es sich dabei um containerisierte Applikationen handelt. CIOs bevorzugen heute eine Transformation zu einer dezentralisierten und datengetriebenen IT und einer agilen Entwicklung, die auch besser zum Arbeiten aus dem Homeoffice passt. In dem „Worldwide Quarterly Cloud IT Infrastructure Tracker“ vom September 2020 stellt IDC fest, dass Umsätze von IT-Infrastruktur-Produkten wie von Servern, Storagesystemen und Netzwerkgeräten, die in Public- oder der Private-Cloud-Umgebungen eingesetzt werden, im zweiten Quartal 2020 um 34,4 Prozent ­gewachsen sind, während gleichzeitig der Absatz von traditionellen Datacenter-Produkten um 8,7 Prozent zurückgegangen ist. Den Löwenanteil am Cloud-Geschäft macht dabei mit fast 48 Prozent Wachstum die Public Cloud aus.

Cloud-Rezepte für das lokale Rechenzentrum

Für viele Hersteller ist das keine besonders komfortable Situation, da hier ihre Margen geringer sind und die großen Hyperscaler zudem viel direkt bei taiwanischen oder chinesischen ODMs einkaufen und nicht bei den bekannten großen Markenherstellern. Diese reagieren wiederum damit, dass sie einerseits auf Hybrid-Cloud-Lösungen setzen und andererseits daran arbeiten, die Vorteile der Public Cloud ins lokale Rechenzentrum zu holen.

Mehr Flexibilität für die Kunden bringen Angebote, bei denen IT-Infrastruktur nicht mehr gekauft oder im Rahmen klassischer Leasingangebote erworben wird, sondern als Service bezogen wird. Die Kunden bezahlen hier, analog zur Public Cloud, nicht mehr für individuelle Hard- und Software, sondern primär für die genutzte Leistung und Speicherkapazität. Für die Kunden hat das den Vorteil, dass sie ohne hohe Anfangsinvestitionen auskommen und zudem mehr Flexibilität bei der Nutzung ­haben. Allerdings ist das Downscaling hier nicht so einfach, wie bei Public-Cloud-­Angeboten, da die Hardware ja hier im ­Rechenzentrum des individuellen Kunden steht und nicht gleich für Workloads anderer Kunden genutzt werden kann. Daher gibt es bei Device-as-a-Service-Angeboten fast immer einen gewissen monatlichen ­Sockelbetrag und Mindestlaufzeiten. Dafür ist bei den Abo-Angeboten die Installation und Konfiguration nach der Bestellung sowie die Wartung und der Support während des Betriebs bereits enthalten. Über eine Management-Plattform bekommt die IT-Abteilung der Unternehmen oder ein Systemhaus, das die IT-Betreuung übernimmt, einen detaillierten Einblick in die genutzten Ressourcen und die daraus entstehenden Kosten.

Letztlich ist das Ziel bei allen As-a-Service-Angeboten für das Datacenter, dass die Kunden nur noch angeben, welche Art von Anwendungen sie fahren wollen, also beispielsweise Compute-Workloads, daten­intensive Applikationen oder KI-Anwendungen, wie viele Instanzen sie benötigen und wie lange der Vertrag laufen soll. Davon abhängig wird die für sie optimale Hardware zusammengestellt und installiert, ohne dass die Kunden sich um die konkrete Hardware kümmern müssen.

Ergänzendes zum Thema
Multikulti im Datacenter

Jahrelang herrschte im Datacenter eine fast komplette Intel-Monokultur. AMD hatte mit Opteron nur einen verschwindend kleinen Marktanteil, und auch Power-Prozessoren und Sparc-CPUs besetzten kleine und sehr kleine Nischen. Das hat sich inzwischen geändert. AMD und der chinesische Joint-Venture-Partner Inspur konnten wieder mehr Power-Systeme absetzen. Vor allem aber hat es AMD mit den Epyc-Prozessoren der ersten und zweiten Zen-Generation geschafft, die Dominanz von Intel bei den x86-CPUs ein Stück weit aufzubrechen. Noch für dieses Jahr hat die AMD-Chefin Lisa Su den Launch der nächsten Epyc-Generation versprochen. Die unter dem Codenamen Milan entwickelten Prozessoren basieren auf der Zen-3-Mikroarchitektur mit einer höhere Leistung pro Takt.

Bis zu 64 Cores in acht Chiplets: AMDs Zen-2-Epyc mit dem Codenamen Rome.
Bis zu 64 Cores in acht Chiplets: AMDs Zen-2-Epyc mit dem Codenamen Rome.
( Bild: AMD )

Zudem bekommt Intel zunehmend Konkurrenz durch ARM-Prozessoren wie etwa den von der AWS-Tochter Annapurna Labs entwickelten Gravitron2, den Ampere Altra mit 80 Cores oder den Fujitsu A64FX. Letzterer wird in dem Supercomputer Fugaku eingesetzt, der derzeit die Top-500-Liste der schnellsten Rechner anführt. Spannend wird auch, was der wohl zukünftige ARM-Eigentümer Nvidia für das Datacenter plant. Derzeit liegt hier der Fokus noch auf GPUs und auf Smart-NICs, die immerhin schon ARM-SoCs nutzen.

Intel will die Schar der Verfolger mit den Xeon-Scalable-Prozessoren der dritten Generation auf Abstand halten, die ebenfalls noch dieses Jahr auf den Markt kommen soll. Er gehört zur Ice-Lake-Generation und wird damit endlich in einem 10-Nanometer-Verfahren hergestellt. Bei der maximalen Anzahl der Prozessorkerne wird er zwar immer noch nicht mit den 64 Cores der aktuellen und nächsten Epyc-Generation aufwarten können, verfügt aber über zusätzliche KI- und Security-Funktionen wie etwa eine kryptographische Beschleunigung.

Datacenter als Service

Die Daten bleiben bei den Datacenter-as-a-Service-Modellen in den Händen und unter Kontrolle der Unternehmen, die sich damit allerdings auch selbst um die Sicherheit auf der Anwendungsebene kümmern müssen. Einige Hersteller integrieren auch gleich Schnittstellen zur Public Cloud mit in ihre Management-Plattformen und erleichtern so den Weg in die hybride Cloud.

Vorreiter ist hier HPE mit Greenlake und der Software Greenlake Central. Dell Technologies mit dem Projekt Apex und Fujitsu mit dem Service Hub schlagen hier einen ähnlichen Weg ein. Lenovo konzentriert sich mit Truscale dagegen auf das lokale Rechenzentrum und überlässt die Hybrid-Cloud-Integration den Partnern. Die spielen bei allen As-a-Service-Angeboten der Hersteller eine zentrale Rolle bei der Beratung, beim Verkauf und auch beim Betrieb. Distribution und Systemhäuser haben hier den Vorteil laufender monatlicher Einnahmen und zusätzlich die Möglichkeit, für die Kunden ergänzende Services zu entwickeln und zu verkaufen. Damit wandeln sich die Systemhäuser auch beim On-Premises-Geschäft vom Reseller zum Managed Service Provider. Auf diesem Weg müssen sie sowohl von Herstellern als auch Distributoren unterstützt werden, beispielsweise durch passende Trainings.

Der Hybrid Cloud verschließen sich natürlich die großen Hyperscaler keineswegs, sondern stellen eigene Angebote oder ­Lösungen mit Partnern bereit, um hier einen möglichst nahtlosen Übergang zwischen dem lokalen Rechenzentrum und der Public Cloud zu gewährleisten. Zudem haben AWS und Microsoft Azure eigene On-Premises-Lösungen entwickelt, die allerdings über die jeweilige Cloud-Infrastruktur verwaltet werden. AWS bietet hier mit Outposts eine Komplettlösung mit eigener Hardware an. Microsoft Azure arbeitet dagegen bei Azure Stack Hub und dem neuen Service Azure Stack Hub HCI mit diversen Serverherstellern zusammen und beschränkt sich auf Software und Services.

Automation und Container in der hybriden Cloud

Auf der Architekturebene halten ebenfalls zunehmend Konzepte aus der Cloud Einzug in die lokalen Rechenzentren der ­Unternehmen. Dabei geht es vor allem darum, Anwendungen in Containern schneller ausrollen zu können und das Management von Hard- und Software möglichst weitgehend zu automatisieren. Somit soll die Trennung von Entwicklung und Operations aufgehoben werden. Dabei spielt „Infrastructure as Code“ (IaC) eine große Rolle bei der Automatisierung und der Umsetzung von DevOps-Konzepten.

Ein wichtiges Werkzeug sind zudem Orchestrierungslösungen wie Kubernetes, die bereits von einigen Hardwareherstellern in ihre eigenen Mangementplattformen eingebunden werden. Damit sollen verteilte Kubernetes-Cluster über die verschiedenen Umgebungen in der Hybrid Cloud hinweg gemeinsam verwaltet werden. Zudem wird versucht, mit geeigneten Tools die komplexe Verwaltung der Cluster zu vereinfachen. Auch das Konzept des Serverless Computing wird mit dem Datacenter als Service in den Rechenzentren Einzug halten.

(ID:46913008)

Über den Autor

 Klaus Länger

Klaus Länger

Redakteur