Microsoft Azure als Vorreiter

Warum FPGAs für das Netzwerk wichtig sind

| Autor / Redakteur: Patrick Hubbard / Andreas Donner

FPGAs sind noch lange keine toten Käfer – bei Azure zieht man die betagte Technik sogar CPUs, GPUs und ASICs vor!
FPGAs sind noch lange keine toten Käfer – bei Azure zieht man die betagte Technik sogar CPUs, GPUs und ASICs vor! (Bild: Pixabay - webandi (gemeinfrei))

FPGAs sollen die Performance und Effizienz von Azure erhöhen. Diese Innovation beim Cloud-Networking wird zahlreiche weitreichende Auswirkungen haben und wir sollten uns schon jetzt damit beschäftigen, wie sich diese Technologien – mit Microsofts FPGAs als Beispiel – in Netzwerkumgebungen niederschlagen werden.

Vor kurzem kündigte Microsoft die neueste Version von Project Catapult an – den jahrzehntealten Field Programmable Gate Arrays (FPGAs), die zuletzt mit Bing für Interesse sorgten. FPGAs werden nun wieder als Möglichkeit in den Vordergrund gerückt, um die Geschwindigkeit und Effizienz von Azure bei gleichzeitiger Senkung der Kosten zu erhöhen.

Die Akronyme entschlüsseln

Angesichts der vielen zur Auswahl stehenden benutzerdefinierten Servertechnologien ist es wichtig zu analysieren, warum Microsoft die Richtung hin zu FPGAs versus Hauptprozessor (CPU), Grafikprozessor (GPU) oder anwendungsspezifischer integrierter Schaltung (ASIC) einschlägt.

Die CPU ist ein vielseitig einsetzbarer Prozessor mit einem umfassenden veröffentlichten Befehlssatz und auch wenn er nicht durch allzu hohe Geschwindigkeit besticht, leistet er alles von der IP-Adressauflösung bis hin zur analogen Dekodierung und der Darstellung von Grafiken. Aus diesem Grund sind sie in nahezu jedem Gerätetyp allgegenwärtig, von Telefonen über Computer bis hin zu eingebetteten Systemen.

Eine GPU hingegen verfügt über Hunderte oder gar Tausende von Kernen, die jeweils nur eine Handvoll Aufgaben erledigen, aber dies dank anwendungsoptimiertem Design, Programmierung und Parallelität mit hoher Geschwindigkeit (man denke an Bitcoin- und NSA-Datencenter).

Bei ASICs – dem Netzwerk-Äquivalent einer GPU – handelt es sich schließlich um einen benutzerdefinierten Chip, der Netzwerkdatenverkehr ohne aufwendige Rückmeldungen weiterleiten kann. Er überträgt Pakete schnell und effizient, wird aber bei Nicht-Routineaufgaben deutlich langsamer. Jeder dieser Chips erfordert ein benutzerdefiniertes Entwicklungselement mit Kompromissen bei Geschwindigkeit und Effizienz.

Ein verteiltes Netzwerk reprogrammierbarer Chips

Microsoft gelang es, mit Bing gegenüber Google aufzuholen, indem Möglichkeiten der Verarbeitung neuronaler Netze und des maschinellen Lernens untersucht wurden: Man wusste, dass Bing über die Leistung dedizierter Prozessorchips verfügen und sich auch im Laufe der Zeit anpassen können musste. So entschied sich Microsoft für eine althergebrachte Technologie: FPGAs. Diese wurden in den Bing-Servern anstelle spezialisierter Compute-Knoten eingesetzt. Microsoft verteilte die programmierbaren Chips in jedem seiner Server, um aufgabenspezifische Rechenleistung zu lokalisieren, die für bestimmte Workloads deutlich effizienter war als die eigentlichen Server.

Möglicherweise wird das Vermächtnis von Bing nicht darin bestehen, der Suchmaschine Google ernsthaft Konkurrenz zu machen, sondern in der Entwicklung des verteilten FPGA-Netzwerks „Project Catapult“, der jetzt auch Azure zugrundeliegenden Architektur. Anstelle der Entwicklung benutzerdefinierter Chips erschuf Microsoft mit seinem FPGA-basierten Netzwerk ein verteiltes Netzwerk wiederprogrammierbarer Chips für maschinelles Lernen und weitere Funktionen, darunter Software-Defined Networking (SDN) und Routing als Teil einer nutzbringenden Standardinfrastruktur, die ein Alleinstellungsmerkmal von Azure darstellt.

Neben den jüngsten Ankündigungen zu FPGAs senkte Azure gleichzeitig seine Preise und hob den Kampf um Preis und Effizienz zwischen den Cloud-Riesen Azure und Amazon Web Services (AWS) damit auf eine neue Stufe. Und dieser Wettlauf macht das Cloud Computing zunehmend interessant und attraktiv für Kunden.

Die Realität der IT-Experten: Hyperkonvergenz und DevOps in der Welt der hybriden IT

Die Hyperkonvergenz ist der Punkt, an dem all dies für den IT-Experten relevant wird. Azure Stack ist beispielsweise die Microsoft-Version der Hyperkonvergenz für Unternehmen und macht es möglich, Azure im eigenen Rechenzentrum einzusetzen. Die Grenzen zwischen Unternehmen und Cloud-Technologien verwischen zunehmend, was Azure für Unternehmen immer attraktiver macht. Mit Azure Stack funktioniert alles so wie in der Cloud, befindet sich jedoch vor Ort. Microsoft bringt hoch konvergierte Funktionen nebeneinander in ein Rack homogener Systeme, die über ein gemeinsames Toolset verwaltet und überwacht werden können und Administratoren letztendlich den Übergang von Infrastructure as a Service (IaaS) zu Platform as a Service (PaaS) ermöglichen.

Wenn im Rechenzentrum Azure eingesetzt wird, werden immer mehr IT-Experten lokale Workloads nach Azure Stack verschieben: So können sie die Unternehmensinfrastruktur praktisch verwalten und schließlich mit einem Tastendruck ganze Infrastrukturelemente nach Azure verschieben. Das ist hybride IT.

Dies führt zu einem weiteren Ansatz der hybriden IT und einer zweifachen Ausweitung der DevOps-Funktion einerseits auf Cloud-Netzwerktechnologien in der Anwendung auf Unternehmensumgebungen und andererseits auf die natürliche Übernahme von DevOps als notwendige Funktion für jeden, der Anwendungen über APIs und nicht GUIs verwaltet.

Best Practices

Die Innovationen im Bereich Cloud Networking führt zu Hyperkonvergenz und einer zunehmenden Vermischung von herkömmlichen Technologien und Cloud-Technologien im Unternehmen. IT-Experten müssen dementsprechend mit Best Practices ausgestattet sein, um mit der sich ändernden Umgebung Schritt zu halten. Dabei sollten sie folgende Best Practices besonders in Betracht ziehen:

  • Überwachungskenntnisse erweitern: Heutzutage betrifft eine effektive Netzwerküberwachung alle Elemente von Komponenten des Anwendungsstapels (Datenbanken, Server, Speicher, Router und Switches) bis hin zu internen Netzwerkfirewalls, Internetpfaden und den internen Netzwerken von Software-as-a-Service-Anbietern (SaaS). Für eine detaillierte Fehlerbehebung ist es zwar wichtig, Informationen über die Komponenten der Anwendungsbereitstellung zu erhalten, doch aus Sicht der Überwachung ist es wichtiger als je zuvor, das Benutzererlebnis über alle Elemente der Lieferkette hinweg zu überwachen – einschließlich des Internets und der Netzwerke von Dienstanbietern.
  • Die Feinheiten virtueller privater Cloud-Netzwerke (VPC) kennenlernen: Dies beinhaltet die Verwaltung von Sicherheitsrichtlinien, die Zuweisung von Richtliniengruppen und die Prüfung von Sicherheitsrichtlinien. Kurz gesagt: Es reicht nicht mehr, wenn IT-Experten nur wissen, wie man interne Netzwerke sichert. Sie müssen diesen Prozess auch in ihrer VPC replizieren können.
  • Verstehen, wie große Datenmengen übertragen werden: Bei der Durchführung von Sicherungen in lokalen Umgebungen besteht die einzige Sorge in der Frage, ob Offline-Analyseprozesse gleichzeitig mit einer Sicherung ausgeführt werden und ob sie getrennt werden sollten, um eine Speicherüberlastung zu vermeiden. In Cloud-Umgebungen ist dies jedoch sehr viel komplexer: Man muss wissen, wohin Sicherungen erfolgen und an welcher Stelle welche Prozesse ausgeführt werden. IT-Experten sollten die ständige Weiterentwicklung des Netzwerkdatenverkehrs und von LAN-, WAN- und VPC-Netzwerken im Blick behalten.
  • Lebenslanges Lernen: Ohne regelmäßige Weiterbildung ist es kaum möglich, mit all diesen technologischen Entwicklungen Schritt zu halten. Und IT-Experten sollten nicht damit warten! Eine Innovation folgt der nächsten und es ist wichtig, seine Kompetenzen auf dem aktuellen Stand zu halten, um die DevOps-Mentalität zu übernehmen.
  • Dienste regelmäßig neu auswerten: Die Technologie entwickelt sich in rasantem Tempo und die von Cloud-Anbietern bereitgestellten Dienste weisen große Unterschiede auf. Anbieter fügen ständig Funktionen hinzu, um mit der Konkurrenz Schritt zu halten, wie beispielsweise bei FPGAs, AWS und Azure Blockchain-Diensten. Unternehmen werden von IT-Experten erwarten, dass sie über Fachwissen zu diesen Diensten verfügen, ebenso wie zu Unternehmenstechnologien.

Patrick Hubbard.
Patrick Hubbard. (Bild: SolarWinds)

Fazit

Es ist nicht immer einfach, mit allen Änderungen im Bereich der Cloud-Netzwerke Schritt zu halten, und zu verstehen, was sie für IT-Experten in hybriden Umgebungen bedeuten. Wenn man jedoch die praktischen Aspekte dieser Technologien und ihrer voraussichtlichen Bedeutung für IT-Experten überblickt, kann man besonnen in die Zukunft der Branche blicken und allen Neuerungen mit Zuversicht begegnen.

Über den Autor

Patrick Hubbard ist Head Geek Senior Marketing Manager bei SolarWinds.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44584668 / Hardware)