Aktueller Channel Fokus:

Storage und Datamanagement

Intel Xeon Scalable Prozessoren

Intels Edelmetall für Server

| Autor: Klaus Länger

Intel Xeon Scalable Prozessoren: Unter diesem etwas sperrigen Namen schickt Intel die Xeon-Modelle mit Skylake-SP-Architektur an den Start. Zur besseren Einordnung sind sie in die Klassen Platinum,Gold, Silber und Bronze eingeteilt.
Intel Xeon Scalable Prozessoren: Unter diesem etwas sperrigen Namen schickt Intel die Xeon-Modelle mit Skylake-SP-Architektur an den Start. Zur besseren Einordnung sind sie in die Klassen Platinum,Gold, Silber und Bronze eingeteilt. (Bild: Intel)

Bis zu 28 Kerne, AVX 512 und Mesh-Architektur statt Ringbus. Das sind einige der Neuerungen von Intels neuen Xeon-Prozessoren mit Skylake-SP-Architektur. Intel hat auch die Nomenklatur geändert: Statt E3, E5 und E7 gibt es nun Bronze, Silber, Gold und Platin.

Intel hat die Ablösung für seine bisherigen Xeon-Prozessoren auf Broadwell fertig. Die unter dem Namen Skylake-SP entwickelten CPUs tragen offiziell die Bezeichnung „Intel Xeon Scalable Prozessoren“, was wohl darauf hinweisen soll, dass alle neu präsentierten Xeon-Modelle auf den selben Sockel P3 mit 3647 Pins passen. Intel gliedert die neuen Xeons in die Klassen Bronze, Silber, Gold und Platinum. Die Bronze- und die Silber-Modell sind nur auf Dual-Socket-Mainboards lauffähig, die Gold-Modelle auch in Quad-Socket-Systemen und die Platinum-Varianten schließlich auch auf Systemen mit acht Prozessorsockeln. Der Unterschied zwischen Bronze und Silber liegt darin dass den Bronze-Modellen Hyperthreading und Turbo-Boost-2 fehlen.

Im Gegensatz zu den jüngst vorgestellten Core-X-Prozessoren basieren alle neuen Xeon-Modelle auf der selben Skylake-SP-Architektur. Hergestellt werden die CPUs in Intels weiterentwickeltem 14-Nanometer-Prozess. Gegenüber den Xeons der direkten Vorgängergeneration sollen die Skylake-SP-Prozessoren einen durchschnittlichen Leistungszuwachs um den Faktor 1,65 liefern. Im Vergleich zu einem vier Jahre alten Xeon-System auf Sandy-Bridge-Basis soll ein neuer Xeon-Server der selben Klasse sogar die vierfache Leistung liefern. Um das zu erreichen, hat Intel bei Skylake-SP auch einigen Aufwand betrieben.

Netz statt Ring: Die Mikroarchitektur

Bei Skylake-SP bekommt man nun bis zu 28 Cores in den Platinum-Spitzenmodellen. Bei Broadwell-SP war noch bei 24 Cores das Ende der Fahnenstange erreicht. Da das mit Nehalem-EX eingeführte Ringbus-Konzept schon hier an seine Grenzen stieß – die CPU koppelte zwei Ringe mit jeweils 12 Cores zusammen – nutzt Intel nun für die Verbindung der Cores mit den beiden Speichercontrollern, den PCI-Express-Controllern und den UPI-Links eine Mesh-Struktur. Sie ist prinzipiell auch für mehr als 28 Cores geeignet, wie bereits Intels aktueller HPC-Prozessor Xeon Phi zeigt: Bei Knights Landing sind 72 Cores über ein Mesh verbunden, während AMDs Epyc mit 32 Cores aufwartet. Sie sind allerdings in vier Einheiten mit je acht Prozessorkernen aufgeteilt.

Geändert hat Intel auch die Cache-Architektur. Bei den Skylake-SP-Xeons ist der Level-2-Cache pro Kern nun statt 256 KB ein MB groß. Die zusätzlichen 768 KB hat Intel quasi an den ursprünglichen Skylake-Core angeflanscht. Der gemeinsam genutzte Level-3-Cache ist dafür pro Core bei den meisten Modellen nur noch 1,37 MB groß. Einige Modelle mit einer geringeren Anzahl von Kernen verfügen aber auch über deutlich größere L3-Caches mit Größen von bis zu 4,125 MB pro Core.

Bei Broadwell lag die minimale Größe bei 2,5 MB. Er ist dafür nun aber bei Skylake-SP exclusive. Von der Änderung der Cache-Architektur mit dem größeren schnellen L2-Cache sollen laut Intel vor allem typische Datacenter-Anwendungen profitieren, etwa Workloads mit vielen Threads. Auch die Performance oder die Zahl virtueller Maschinen, die auf dem Server laufen können, sollen steigen.

Daneben hat Intel gegenüber Broadwell noch einige Optimierungen an der Mikroarchitektur vorgenommen, die so etwa zehn Prozent mehr Integer-Befehle pro Takt verarbeiten kann. Einen deutlichen Geschwindigkeitsschub soll AVX-512 bringen. Für Anwendungen, die Intels neue AVX-512-Instruktionen verwenden, verspricht der CPU-Hersteller eine 60 Prozent höhere Performance als sie mit den bisherigen 256-Bit-AVX-Befehlen möglich war. AVX-512 ist einer der Punkte, bei dem es Unterschiede zwischen den verschiedenen Xeon-Klassen gibt: Die Bronze-, Silber- und Gold-Modelle der Serie 5100 verfügen nur über eine Fused-Multiply-Add-Einheit (FMA) pro Kern, bei den Gold-6100- und den Platinum-Modellen ist eine weitere FMA-Unit an den Core angeflanscht. Allerdings werden die Kerne bei einigen besonders aufwändigen AVX-512-Instruktionen in einen noch niedrigeren Takt geschaltet, als bisher.

Speicheranbindung und UPI statt QPI

Die beiden DDR4-Speichercontroller der Skylake-SP-Prozessoren verfügen nun über jeweils drei Speicherkanäle, die bei Platinum und den Gold-6100-Modellen auch DDR4-2.666-Speicher unterstützen. Gold-5100- und Silber-Prozessoren sind hier auf DDR4-2.400 limitiert, die Bronze-Prozessoren auf DDR4-2.133. Unterstützt werden zwei DIMMs pro Kanal. AMDs Epyc verfügt über insgesamt acht Speicherkanäle und maximal zwei TB RAM und ist hier also weiterhin im Vorteil.

Die maximale Größe des Speichers bei den neuen Xeon-Prozessoren hängt vom konkreten Prozessormodell ab: Bei Platinum und Gold gibt es spezielle Modelle, die bis zu 1,5 TB RAM unterstützen, die Regel sind 768 GB pro Sockel.

Punkten kann Intel dagegen bei der Anzahl der Prozessoren pro Mainboard: Während AMD maximal zwei CPUs unterstützt, sind mit den Platinum-Xeons Systeme mit bis zu acht Prozessoren möglich. Für die Verbindung zwischen den Prozessoren verwendet Intel mit Ultra Path Interconnect (UPI) eine neue Technik als Ablösung für Quick Path Interconnect (QPI). UPI-Links sollen laut Intel mit weniger Energie auskommen und auch eine höhere Übertragungsleistung liefern. Xeon Bronze, Silber und Gold-5100 verfügen über zwei UPI-Links, Gold-6100 und Platinum über drei UPI-Links. Mit drei Links lassen sich auch schnellere Quad-CPU-Verbindungen mit Ring und Crossbar realisieren. Die Geschwindigkeit der UPI-Links ist bei Xeon Bronze und Silber auf 9,6 GT/s beschränkt, Xeon Gold und Platinum können 10,4 GT/s übertragen.

Der PCI-Express-Controller ist bei Skylake-SP nicht mehr an einer Stelle konzentriert, sondern auf drei mit dem Mesh verbundene Einheiten mit jeweils 16 PCI-Express-3.0-Lanes aufgeteilt. Damit ist ein Flaschenhals im System beseitigt. Alle neuen Xeon-Prozessoren verfügen über 48 Lanes. Eine der drei PCI-E-Einheiten ist zudem noch für die Verbindung über vier DMI3-Lanes zum Chipsatz zuständig.

Chipsatz schnellem Netzwerk und Kryptografie-Beschleunigung

Der zweite Bestandteil von Intels Purley-Plattform ist neben dem Skylake-SP-Prozessor der Chipsatz, den Intel auf den Codenamen Lewisburg getauft hat. Von ihm gibt es sechs verschiedene Modellvarianten mit unterschiedlichem Funktionsumfang. Das Basismodell ist der C621, der neben der Grundausstattung mit 20 PCIe-3.0-Lanes und 24 High-Speed-I/O-Lanes (HSIO) über vier GBit-Ethernet-Ports verfügt. Die (HSIO)-Ports können vom Mainboard-Hersteller sowohl für SATA- als auch für USB-3.0-Ports verwendet werden. PCEe-SSDs und Intels eigene Optane-Beschleuniger werden direkt über PCIe am Prozessor angebunden. Mit Volume Management Device ist nun ohne Third-Party-Controller ein Hot-Swap von NVMe-SSDs möglich.

Bei den höherrangigen Chipsatz-Modellen kommen dann noch zwei oder vier 10-GbE-Ports und ab dem C625 Intels QuickAssist-Technologie dazu. Mit ihr können kryptografische Workloads beschleunigt und komprimiert werden. Der Chiphersteller nennt als Anwendungsbereiche neben der Verschlüsselung von Daten auch VPN, sicheres Routing oder Storage-Anwendungen.

Zusätzliche Sicherheit für die Xeon-Server selbst sollen die Intel Memory Protection Extensions, ein erweiterter Boot Guard und BIOS Guard 2.0 bringen. Die Xeon-Spitzenmodelle der Gold-6100- und Platinum-Klasse bieten zudem Intels Run-Sure-Technology mit zusätzlichen RAS-Features

Speziell für HPC-Anwendungen bietet Intel bei Gold- und Platinum-Prozessoren spezielle F-Varianten mit integriertem Omni-Path Architecture Host Fabric Interface an. Diese 100-GBit-Hochgeschwindigkeitsverbindung mit speziellen Kabeln und Switches dient zum Aufbau massiver Cluster mit niedriger Latenz.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44784936 / Hardware)