Intel Developer Forum 2014 (1. Teil) Intel will das Datacenter neu erfinden

Redakteur: Klaus Länger

Auf der Entwicklerkonferenz in San Francisco (wo sonst?) stellte Intel seine Ideen, Visionen und Komponenten für das Rechenzentrum der Zukunft vor.

Anbieter zum Thema

Diane Bryant sieht in Big Data einen riesigen Zukunftsmarkt. Deshalb arbeitet Intel auch mit Cloudera zusammen, um Hadoop optimal an Intel-Prozessoren anzupassen.
Diane Bryant sieht in Big Data einen riesigen Zukunftsmarkt. Deshalb arbeitet Intel auch mit Cloudera zusammen, um Hadoop optimal an Intel-Prozessoren anzupassen.
(Bild: Vogel-IT)

Heutige Datacenter-Lösungen sind nach der Meinung von Intel für digitale Dienstleistungen nicht gut aufgestellt. Der Prozessor-Gigant will das ändern: Das Datacenter der Zukunft soll sich an tatsächliche Workloads anpassen, Intel liefert dafür neue Xeon-Prozessoren, die sich an die Bedürfnisse der Kunden anpassen lassen, setzt auf Silicon-Photonics und auf eine software-definierte Infrastruktur.

SoCs für Großkunden

Mannshohe Serverschränke auf der Bühne suchte man bei der Mega-Session mit Diane Bryant, Senior Vice President bei Intel, vergebens. Bei dem einzigen Serverprozessor, den man live zu sehen bekam, passt das komplette Mainboard in eine Hand: Der Xeon D auf Broadwell-Basis ist ein System-on-a-Chip (SoC) mit 15 Watt Leistungsaufnahme. Er soll Anfang 2015 kommen. Die bisherigen sparsamen Server-SoCs von Intel bauen auf dem Atom-Prozessor auf. Großkunden bietet Intel nun sogar die Möglichkeit von maßgeschneiderten SoCs, etwa auf Xeon-D-Basis, die neben den üblichen Prozessorbestandteilen auch andere Module von Intel oder sogar durch den Kunden bereitgestellte Elemente enthalten können. Die Prozessoren sind trotzdem sockelkompatibel zu herkömmlichen Xeon-CPUs. So wird etwa F5 Networks Xeon-CPUs mit einem eigenen FPGA für Workload-Optimierungen einsetzten.

Software wird wichtiger

Software-definierte Infrastukturen sind ein wesentliches Element der neuen Intel-Architektur nicht nur für das Netzwerk, sondern auch für Storage. Sie sollen das ineffiziente Overprovisoning durch eine intelligente Deduplikation und Kompression überflüssig machen, natürlich mit Hilfe von Intel-Prozessoren. Für die Verbindung der einzelnen Server-Komponenten dienen nicht mehr Kupfer, sondern Lichtleiter, für die Intel die nötigen Transmitterchips zur Verfügung stellt. Statt Kabellängen von drei Metern können hier Signale über 300 Meter bei voller Bandbreite übertragen werden. Fujitsu zeigte im IDF-Showcase einen Prototypen,bei dem IO und Storage räumlich getrennt durch Lichtleiter verbunden sind. So lassen sich etwa Storage Units ohne teure Fibre-Channel-Technik repliziert in unterschiedlichen Gebäude unterbringen. Intel hat ein Referenzmodell für die Rack-Scale-Architecture entwickelt, der auch im Showcase zu sehen war. Seine Management-Software soll die Leistung der Hardware intelligent an die Workloads anpassen und ist über APIs auch für Entwickler eigener Lösungen zugänglich.

Analysen mit Hadoop

Immer mehr Serverleistung wird laut Intel auch in Big Data und Big Data Analytics, also in Datenanalysen fließen. Ein wesentliches Element ist dabei das Open-Source-Framework Apache Hadoop. Intel arbeitet hier eng mit Cloudera zusammen, um deren Hadoop-Implementierung für Xeon-Prozessoren zu optimieren und hat die Entwicklung einer eigenen Hadoop-Software dafür beendet.

(ID:42944715)