Channel Fokus:

Gaming

Dezentral oder zentral – Was ist das bessere Konzept?

Zentrales Dienste-Hosting vs. Edge Computing

| Autor / Redakteur: Destiny Bertucci / Andreas Donner

Sowohl das zentrale Hosting von Diensten als auch das Edge Computing haben Vorteile – am besten ist eine Kombination aus beidem.
Sowohl das zentrale Hosting von Diensten als auch das Edge Computing haben Vorteile – am besten ist eine Kombination aus beidem. (Bild: © beebright - stock.adobe.com)

Das Aufkommen von Edge Computing sorgt in Rechenzentren erneut für einen Umbruch. Zentralisierte Rechenzentren sind durch traditionelle Projekte der Dienstleister zwar weiterhin im Trend, mit Edge Computing entwickeln sich RZ-Dienste aber auch dezentral. Eine Konsequenz aus der sich stark wandelnden Datennutzung von Anwendern und Endgeräten.

Im letzten Jahr kam es bei einem Thermostatanbieter im Bereich des Internets der Dinge (Internet of Things, IoT) zu einem Systemausfall. Da für die Funktion der Thermostate eine Kommunikation mit dem zentralen Dienst erforderlich war, wurden diese während des Ausfalls heruntergefahren. Derartige Situationen erhöhen die Nachfrage nach Edge Computing, womit sich solche Ausfälle weitgehend verhindern lassen. Sowohl die Steuer-Logik als auch Rechenkapazitäten werden beim Edge Computing so nah wie möglich am Endgerät vorgehalten und liegen damit weit entfernt von einem einzelnen Ausfallpunkt.

Sicherheitsbedenken bei zentralen Lösungen

Bei Distributed-Denial-of-Service-Angriffen (DDoS) werden mehrere Geräte verwendet, um einen einzelnen Dienst, eine Anwendung, ein Netzwerk oder einen Server mit scheinbar harmlosem Paketdatenverkehr zu überfluten. Davon betroffen sind potenziell alle Geräte, die mit dem Internet verbunden sind.

Auch Angreifer nutzen mittlerweile die Vorteile verteilter Systeme. Wenn mehrere Geräte einen einzelnen Standort angreifen, kann das zu einem massiven Ausfall führen. Da die Infrastruktur versucht, den gesamten schädlichen Datenverkehr herauszufiltern, ist sie oft nicht in der Lage, ihre Dienste für tatsächliche Kunden aufrechtzuerhalten – genau wie bei den Thermostaten, die abgeschaltet wurden, als das Rechenzentrum einem massiven DDoS-Angriff erlag.

Der Single Point of Failure ist also der Hauptgrund für den Umstieg auf dezentrale Systeme und für die steigende Popularität des Edge Computing: Denn durch die Verteilung der Lasten erhöht sich die Anzahl der Fehlerpunkte für Geräte.

Noch ein Beispiel gefällig? Würden sich Passagiere in einem selbstfahrenden Auto wünschen, dass alle Abläufe über ein zentrales Rechenzentrum gesteuert werden? Natürlich nicht. Man würde sich wohl eher vergewissern wollen, dass die Steuerung im Auto leicht zugänglich ist, um im schlimmsten Fall die eigene Sicherheit zu gewährleisten.

Smart Devices

Smarte Geräte sind mittlerweile kleine Edge-Computer. Sie sind bedienerfreundlich und bieten dem Benutzer eine schnellere Reaktionszeit. Für die im Gerät verwendeten und bearbeiteten Anwendungsdaten ist aber dennoch eine Verbindung zu einem zentralen Standort erforderlich. Schließlich muss das Gerät auf diese Weise auch mit Updates versorgt werden. Und natürlich benötigen auch die Milliarden von immer intelligenteren IoT-Geräten in den Infrastrukturen der Dienstleister eine Verbindung zu einem zentralen Standort, um täglich ihre Daten hochzuladen und um Updates abzurufen.

Sicherheitsbedenken bei dezentralen Lösungen

Zentrale Rechenzentren können einem wie ein Alptraum vorkommen, wenn man an einen Angriff über eine einzige Schwachstelle denkt. Ganz so einfach darf man sich die Sache jedoch nicht machen. Auch dezentrale Rechenzentren bringen Nachteile mit sich, da hier auch die Probleme auf mehrere Anlagen verteilt werden. Das verursacht einen höheren Zeitaufwand, höhere Kosten und das Sicherheitsrisiko steigt.

Die perfekte Lösung gibt es nicht. Oder vielleicht doch? Durch die Nutzung mehrerer geografisch verteilter Rechenzentren entsteht zwar ein höherer Verwaltungsaufwand, aber dadurch verteilt sich auch das Risiko. Natürlich sollte man unbedingt sicherstellen, dass die Systeme aufeinander abgestimmt sind und alle dasselbe Sicherheitsniveau einhalten. Durch diese Vorkehrungen erzielt man zudem eine schnellere Reaktionszeit, erlangt eine bessere Kenntnis der Umgebung und sorgt zudem für schnellere Aktualisierungen und Wiederherstellungen.

Das Wort „Compliance“ fällt bei solchen Themen regelmäßig. Die Compliance ist für die Standardisierung des Sicherheitsniveaus sowie der Infrastruktur zwingend erforderlich, u.a. für das Netzwerk, die Anwendungen und die Server. Dabei sollte die Compliance das Rückgrat des Unternehmens bilden. Für die Verteilung der Rechenzentren sollte man unbedingt über eine entsprechende Planungsgrundlage verfügen. Diese dient der Überprüfung aller Geräte innerhalb der IT-Organisation und sorgt zwischen den Standorten für Sicherheit und Kontinuität.

Sicherheitstipp

Im Lauf der Jahre kam es immer wieder vor, dass die Testkomponente übersehen wird. Daher ist folgender Punkt sehr wichtig: Jeder Sicherheits- und Wiederherstellungsplan muss getestet werden, wenn er etwas taugen soll. Es passiert häufiger als man denkt, dass ein Wiederherstellungsplan im Notfall fehlschlägt. Wenn man dann um die Unterlagen zu den zuvor durchgeführten Tests bittet, gibt es keine. Für gewöhnlich bekommt man dann eine nette E-Mail mit dem Text: „Wir hatten nicht genügend Zeit und mussten mit der Produktion beginnen. Leider konnten wir daher keinen kompletten Wiederherstellungstest durchführen.“

Die Überprüfung der Vorgehensweisen im Notfall und deren Aktualität sind bei der IT-Verwaltung allgemein und insbesondere in Rechenzentren enorm wichtig. Das sollte im Gespräch mit allen Teammitgliedern immer wieder erwähnt werden. So wird garantiert, dass die Wiederherstellungspläne entsprechend Unterstützung finden. Anhand von Sicherheitsfunktionen können Angriffe zwar blockiert und verhindert werden, aber ohne einen Wiederherstellungsplan kann man weder das Sicherheitsniveau noch eine Laufzeitmatrix in der Infrastruktur erstellen.

Destiny Bertucci.
Destiny Bertucci. (Bild: SolarWinds)

Fazit

Es ist wichtig, gemeinsam die beste Lösung für den individuellen Business Case zu erörtern. In puncto Sicherheit gelangen viele IT-Experten eventuell eher zu einer Hybridlösung. Durch simple Teamgespräche kann man Effizienz und Stichhaltigkeit des Sicherheitsniveaus im Rechenzentrum prüfen. Sicherheitsbedenken sollten daher regelmäßig angesprochen werden. Auf diese Weise steht die Sicherheit beim Denken und vor allem beim Handeln des Teams immer im Vordergrund.

Über die Autorin

Destiny Bertucci ist Head Geek bei SolarWinds.

Kommentare werden geladen....

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45381262 / Hardware)