Channel Fokus: Backup & Disaster Recovery Vorbereitet auf das Katastrophenszenario
Zugegeben: Die Bedrohung durch eine Alien-Invasion klingt reißerisch und scheint wenig wahrscheinlich. Im grauen Alltag geht es eher um Ransomware-Angriffe, die aber mindestens genauso dazu imstande sind, für einen hohen Puls bei den IT-Verantwortlichen zu sorgen.
Anbieter zum Thema

Das Prinzip Hoffnung stellt keine Backup-Strategie dar. Das 3-2-1-Prinzip (drei Kopien auf zwei Arten von Speichermedien, davon eine räumlich getrennt) hingegen schon. Hinzu kommt eine zeitliche Komponente, um im Notfall auf frühere Stände ohne mitabgespeichertes Ransomware-Problem zurückgreifen zu können. Archivierung steht auf einem ganz anderen Blatt geschrieben und wird getrieben von unterschiedlichen Aufbewahrungspflichten für verschiedene Arten von Daten, denn im Datenschutzrecht geht eine Aufbewahrungspflicht auch mit einer Löschpflicht nach deren Ablauf einher. Disaster Recovery hängt eng mit diesen Themenkomplexen zusammen und zielt darauf ab, dass nicht nur Daten wiederhergestellt werden, sondern im Katastrophenszenario auch möglichst schnell die Produktivsysteme, die damit arbeiten. In kaum einem anderen Bereich in der IT können so teure Fehler gemacht werden, wie beim „Backup & Disaster Recovery“. Positiv formuliert: Hier wird Knowhow stets gut bezahlt, und für ausgereifte Lösungen ist immer Geld im Budget.
Megatrend: verteilte Daten
Die Markttrends in diesem Umfeld hat Santhosh Rao, Senior Research Director bei Gartner, für IT-BUSINESS herausgearbeitet: So geht der Analyst davon aus, dass Unternehmen zunehmend zu einem hybriden IT-Modell übergehen. Workloads sind folgerichtig über das Datacenter, die Public Cloud und die Edge verteilt, was dazu führt, dass der Schutz der Workloads unabhängig vom Standort entscheidend ist. „Backup-Anbieter adressieren dies, indem sie Management-Plattformen offerieren, die entweder im Hauptrechenzentrum oder in der Public Cloud über gehostetes Backup as a Service bereitgestellt werden“, so Rao.
Die Ransomware-Problematik
Die Zunahme von Ransomware-Angriffen habe dazu geführt, dass die meisten Anbieter inzwischen die Erstellung unveränderlicher Zweitkopien von Backups durch WORM-fähigen (Write Once, Read Many) Speicher unterstützen.
Im Gegensatz dazu zielen beispielsweise IBM und Rubrik darauf ab, das primäre Backup-Repository durch die Unterstützung unveränderlicher Snapshots widerstandsfähiger zu machen, erläutert der Senior Research Director.
Um Ransomware-Angriffe zu erkennen, werden große Änderungen an Dateisystemdaten verfolgt. Die meisten Anbieter zielen zudem darauf ab, den Wiederherstellungsprozess durch die Erstellung einer isolierten Testumgebung zu vereinfachen und eine saubere Kopie des Backups zur Wiederherstellung bestimmter Dateien bereitzustellen. „Solche Bemühungen sind aber überwiegend noch in Arbeit“, skizziert Rau den technologischen Status.
Notfallplan für den Fall der Fälle
Neben der Automatisierung sowie den Herausforderungen beim Datenmanagement in und mit der Public Cloud, sind für Christian Geilen, Manager Channels bei Rubrik in der DACH-Region, „gerade die zahlreichen Ransomware-Attacken der vergangenen Monate Hauptgrund dafür, diesen Aspekt der Unternehmens-IT neu zu bewerten“. Denn wurden die Backups durch eine Ransomware-Attacke verschlüsselt, kann es ganz schnell sehr kritisch werden. „Jedes Unternehmen braucht einen Notfallplan für dieses Szenario, und die Backup-Infrastruktur spielt dabei die entscheidende Rolle“, so Geilen. Häufig folge nach einer Lage-Analyse im Unternehmen die Erkenntnis, „dass die Modernisierungs- und Automatisierungswelle, die viele IT-Abteilungen erfasst hat, nicht im Bereich Backup & Recovery angekommen ist“, berichtet der Rubrik-Manager. Es herrsche jedoch eine zunehmende Investitionsbereitschaft, woraus sich spannende Betätigungsfelder für IT-Dienstleister ergeben.

IT-Dienstleister sind gefragt
Das Tagesgeschäft rund um die Ransomware-Problematik kennt Albin Brandl, Chef bei Brandl Systemhaus in Straubing: „Einigen unserer Kunden war nicht klar, dass eine reine Spiegelung des Systems keine adäquate Backup-Strategie darstellt. Nehmen Sie beispielsweise ein Ransomware-Szenario“, so der Firmengründer. Bei einem gespiegelten System habe man das Problem quasi doppelt beziehungsweise mehrfach. Vielmehr ist es nötig, Backups, beispielsweise Tages-, Wochen- und Monatsbackups, zu erstellen, um auf frühere Stände der Daten ohne das Ransomware-Problem zurückgreifen zu können.
In der Praxis gibt es allerdings mitunter Probleme bei vielen zu sichernden Dateien, das Backup in einer Nacht durchlaufen zu lassen. „Das hängt mit den Durchsatzraten zusammen, die mit der steigenden Anzahl an einzelnen Dateien schnell in die Knie gehen“, berichtet Systemhaus-Chef Brandl.
EfficientNodes
Software-Defined Archive für Partner der ersten Stunde
Absicherungen für Cloud-Anwendungen
Bei Gartner will man beobachtet haben, dass im Segment Infrastruktur damit begonnen wurde, SaaS-Anwendungen wie Microsoft Office 365, Google G Suite und Salesforce in die Backup-Strategie einzubeziehen. „Viele Anbieter stellen nun ein Office-365-Backup über Partner bereit oder entwickeln diese Funktionen intern. Die Sicherung von G Suite und Salesforce ist weitgehend noch in der Entwicklung“, so Rao zum Stand der Dinge.

Die meisten Anbieter, die im aktuellen Magic Quadrant für Backup- und Recovery-Lösungen für Rechenzentren von Gartner aufgeführt sind, unterstützen das Tiering von Backup-Daten in die Public Cloud, was der 3-2-1-Backup-Regel entgegenkommt und die Kosten für den Backup-Speicher reduziert. „Die am häufigsten unterstützten Cloud-Speicherziele sind Amazon Simple Storage Service (Amazon S3) und Azure Blob Storage“ berichtet der Gartner-Analyst. Die Backup-Daten sind in den meisten Fällen selbstbeschreibend. Wenn diese Daten und der Katalog vor Ort verloren gehen, kann also eine Instanz der Backup-Software neu installiert werden, und die Daten können in einem zweiten Schritt wiederhergestellt werden. „Einige Anbieter integrieren auch die Lebenszyklus-Richtlinien von Cloud-Anbietern, zum Beispiel die Datenmigration von AWS S3 zu Glacier oder Azure Blob zu Azure Archive Blob Storage“, berichtet Rao.
Datenhaltung: Endgeräte versus Cloud
Eine beschleunigte Verlagerung von Daten in die Cloud ist das Szenario, auf das sich Reseller vorbereiten sollten, ist Sergei Serdyuk, VP für Product Management bei Nakivo, überzeugt. Tendenziell wird ein immer kleinerer Teil der anfallenden Daten auf Endgeräten, Anwendungen und Verzeichnissen gespeichert sein. Der Rest wandert demnach in die Cloud.
Laut dem „Cloud Monitor 2021“ von Bitkom und KPMG lehnen nur noch drei Prozent der hiesigen Firmen die Cloud-Nutzung komplett ab. Der Rest setzt bereits auf eine Cloud-Infrastruktur oder plant, auf eine solche zu wechseln. „Daher empfehlen wir Resellern, ihr Angebot zu straffen und sich auf Datensicherungslösungen zu konzentrieren, die Cloud-Technologien integrieren und SaaS-Backup unterstützen“, so Serdyuk.
Hardware-Trends
Hyperconverged Infrastructure (HCI) und einfach zu bedienende Appliances sind für Tim Henneveld, Vorstandsvorsitzender der Tim AG, ein zentraler Einflussfaktor, wenn man die Hardware-Seite betrachtet: „Dabei sind die Anbindung an bestehende On-Premises und an Multi-Cloud Umgebungen sowie die Berücksichtigung sich ändernder Workloads ebenso wichtig wie der Schutz der Backupdaten vor Cyberattacken und Ransomware“, so Henneveld.
Bereitstellungsmodelle ändern sich
Das Gegensatzpaar „Cloud statt On Premises“ drückt sich auf Seite der Bereitstellungsmodelle für Backup- und Desaster-Recovery-Lösungen in „Abo statt Kauf“ aus. Unternehmen, die in die Public Cloud migrieren, finden im abonnementbasierten Modell einen einfacheren Weg, um Backup-Lösungen zu beschaffen. Zwar ist diese Herangehensweise im Vergleich zur unbefristeten Lizenzierung nicht unbedingt günstiger, aber sie ist berechenbarer und einfacher zu verwalten, heißt es aus dem Hause Gartner.
„Virtualisierung und Container“ bilden als teilweise gegenläufige Technologie-Ansätze ebenfalls verschiedene Wege ab, auf die sich Anbieter von Backup und Disaster-Recovery-Lösungen einstellen müssen. So unterstützen die meisten Anbieter die sofortige Wiederherstellung von virtuellen Maschinen, indem sie die gesicherte virtuelle Maschine über das Network File System direkt auf den Produktions-Host aufsetzen. „Virtuelle Maschinen können damit sofort verfügbar sein, während der eigentliche Wiederherstellungsprozess im Hintergrund eingeleitet werden kann“, erläutert hierzu der Gartner-Researcher Rao. So oder so ähnlich bieten Anbieter wie Actifio, Cohesity und Rubrik eine sofortige Wiederherstellung von Datenbanken wie Microsoft SQL und Oracle.
Container-Technologie
Was die Container angeht: Sie zählen ebenfalls zu den großen IT-Trends dieser Monate und Jahre, was daher auch am Thema Backup nicht spurlos vorbei geht. So hatten einige Anbieter angekündigt, Container-Backups zu unterstützen, indem sie diese Funktionen entweder durch Übernahmen oder native Integration in ihre bestehenden Plattformen integrieren. Gartner-Kundenbefragungen zeigen jedoch trotz des Container-Hypes ein eher geringes Interesse an Container-Backups. „Trotzdem gehen wir davon aus, dass deren Akzeptanz in den nächsten zwei Jahren steigen wird, da mehr Container mit persistentem Speicher zur Unterstützung von Produktions-Workloads eingesetzt werden“, blickt Rao voraus.
MSPs sind auf dem Vormarsch
Das Channel-Business tendiert indes hin zum Managed Service Provider. Um Sicherungskopien geht es hier nur selten, und wenn, sind diese eher Mittel zum Zweck, beziehungsweise ein kleines Zahnrädchen in einem komplexen System, das der schnellen Wiederherstellung des Geschäftsbetriebs dient. An MSPs gehen diese Kundenanforderungen nicht vorbei. Dann ist von Disaster Recovery as a Service (DRaaS) die Rede, mitunter auch von Recovery as a Service (RaaS). Auch Business Continuity as a Service (BCaaS) rückt in das MSP-Tagesgeschäft.
(ID:47392446)