Official Blog
Was ist ein gutes Backup? 4 Eigenschaften, die ein gutes Backup mitbringen muss
Stefan Hedwig
28. Juni 2022

Was ist ein gutes Backup? 4 Eigenschaften, die ein gutes Backup mitbringen muss

Die wichtigste Maßnahme zur Absicherung gegen Ransomware-Angriffe besteht in funktionierenden Backups.” (Bund für Informationstechnik) Und Backups schützen nicht nur vor Ransomware und anderer Malware, sondern auch vor Datenverlust und Ausfällen durch versehentliches oder auch böswilliges Löschen, Hardware-Defekten oder anderen Katastrophen wie Brand und Überschwemmung. Aber was macht ein funktionierendes, also ein gutes Backup aus?

Backup ist nicht gleich Backup. Viele Nutzer wiegen sich immer noch zu oft in falscher Sicherheit. Backups sind zwar kein Hexenwerk, trotzdem gibt es ein paar Punkte, die man beachten muss, damit Einsparpotenziale erkannt werden und auch aus einer Datensicherung ein gutes Backup wird.

Ein gutes Backup sollte grundsätzlich 4 Eigenschaften mitbringen. Es sollte:

1. zuverlässig,

2. flexibel,

3. wartungsarm,

4. langfristig sein.

1. Ein gutes Backup ist zuverlässig

1.1. RPO und RTO 

Hinsichtlich der Eigenschaft „Zuverlässigkeit“ sind zwei Fragen entscheidend:

  1. Wie hoch darf der maximal hinnehmbare Datenverlust sein? Sprich wie hoch darf das RPO (Recovery Point Objective) sein?

  2. Wie lange darf der Produktivitätsausfall andauern? Sprich wie hoch darf das RTO (Recovery Time Objective) sein?

Je höher der Datenverlust ist und je länger der Produktivitätsausfall dauert, sprich je höher das RPO und RTO sind, desto teurer wird es für Unternehmen. Das Ziel ist es also, ein Backup mit möglichst minimalen Kennzahlen zu wählen.

Jedoch wird insbesondere die 2. Frage – das RTO – oft unterschätzt. So testen einige Unternehmen immer noch nicht die Wiederherstellung von Dateien. Das ist aber essenziell, um zum einen im Fall eines Desasters vorbereitet reagieren zu können und zum anderen, um zu erfahren, ob die Wiederherstellung Minuten, Stunden oder sogar Tage dauert und wie lang dementsprechend die Produktivität ausfällt bzw. stark eingeschränkt sein wird.

1.2. Zuverlässiges Backup mit der 3-2-1 Regel?

Die volle Zuverlässigkeit erreicht eine Backup-Lösung nur, wenn sie in einer ganzheitlichen Strategie richtig eingesetzt wird. Um das zu erreichen, hilft die 3-2-1 Backup-Regel. Diese kurze Faustformel besagt, dass mindestens drei (3) Backup-Kopien erstellt werden sollen, wobei diese Kopien auf mindestens zwei (2) verschiedenen Datenträgern gespeichert werden sollten, von denen sich mindestens einer (1) an einem separaten Standort befinden soll.

Bei der 3-2-1 Regel geht es jedoch primär darum, das RPO einzuhalten, sprich den Datenverlust im Katastrophenfall zu minimieren. Bezüglich des RTOs, also der Zeit zurück zur Produktivität, hilft die 3-2-1 Regel hingegen nicht. Deshalb werden zusätzlich zu dieser Faustformel auch noch zuverlässige Wiederherstellungsoptionen benötigt, wobei unterschiedliche Ausfallszenarien unterschiedliche Optionen brauchen. 

1.3. 3 Wiederherstellungsoptionen für ein zuverlässiges Backup

Angenommen einem Außendienstmitarbeiter geht auf dem Weg zum Kunden der Laptop verloren. Auf diesem hatte er natürlich die wichtige Präsentation für den Termin gespeichert. Jetzt sind dem Mitarbeiter die Einstellungen des Laptops zunächst egal. Zuerst geht es ihm darum, die PPT-Datei schnellstmöglich zurückzubekommen. Hier ist also die 1. Wiederherstellungsoption für einzelne Dateien von Nöten, um diese aus einem Portal zurückgewinnen zu können. Die Präsentation könnte damit dann auf einem beliebigen Laptop z. B. beim Kunden wiederhergestellt werden und der Termin ist trotz des Hardwareausfalls gerettet.

Sobald der Außendienstmitarbeiter zurück im Büro ist, hat der Admin allerdings wenig Lust, den neuen Laptop für den Kollegen manuell wieder neu zu konfigurieren. Hier wird ein Boot-Medium benötigt, das im Vorhinein erstellt wurde und das es ermöglicht, die neue Hardware mit der alten, gewohnten Software zu bespielen. Das ist dann die 2. Wiederherstellungsoption mit Boot-Medien. Damit sparen der Administrator sowie der Außendienstmitarbeiter viel Zeit, Arbeit und Nerven.

In einem 2. Bespiel ist das Ausgangsgerät nicht der Laptop des Außendienstmitarbeiters, sondern der E-Mail-Server einer Universität. Bei einem solchen Ausfallszenario wäre es enorm hilfreich, wenn der E-Mail-Server schnellstmöglich virtuell auf anderer Hardware (als der ursprünglichen) hochgefahren werden könnte und zum Laufen gebracht werden würde. Diese 3. Wiederherstellungsmethode ist die “Physical to Virtual”-Wiederherstellung (P2V-Boot).

Diese drei Wiederherstellungsmethoden sorgen jeweils in Kombination mit der 3-2-1 Backup-Regel dafür, dass ein Backup zuverlässig ist und sowohl das RPO als auch das passende RTO gewährleisten kann.

2. Ein gutes Backup ist flexibel

Ein gutes Backup sollte nicht nur zuverlässig, sondern auch flexibel sein und das sowohl hinsichtlich der vorhandenen Backup-Ziele und -Quellen, sowie der aktuellen und zukünftigen Anwendungsgrößen.

Vor allem bei einer Neuanschaffung muss es möglich sein, die neue Backup-Lösung einfach in die bereits bestehenden Backup-Ziele und -Quellen zu integrieren. Heutzutage bestehen IT-Umgebungen meist aus drei Teilen: der externen Cloud, der internen IT (auf der produktiv gearbeitet wird) und dem Backup-Server bzw. dem eigenen Rechenzentrum bei größeren Unternehmen. In alle drei bereits bestehenden Teile muss sich eine neue Backup-Lösung flexibel eingliedern lassen.

Mit einer Flexibilität in Bezug auf die Backup-Ziele und -Quellen ist es aber noch nicht getan. Auch die Anwendungsgröße, sprich die flexible Skalierbarkeit ist relevant. Wenn sich ein Admin erst einmal an eine bestimmte Lösung gewöhnt hat, damit vertraut ist und auch bereits Probleme lösen kann, dann macht es keinen Sinn in jeder Wachstumsphase eines aufstrebenden Unternehmens zu einer neuen Lösung zu greifen. Die gewählte Backup-Lösung sollte sich hingegen an wachsende IT-Infrastruktur und Datenmengen flexibel anpassen lassen.

3. Ein gutes Backup ist wartungsarm

Wenn keine eigene Hardware gewartet werden muss, spart das Zeit und Arbeit. Das ist ein oft genannter Vorteil von Cloud-Backup-Lösungen. Aber auch ein lokales, privates on-premise Backup im eigenen Büro kann sehr wartungsarm sein.

Die erste, unverzichtbare Erleichterung erlangen Admins durch sogenannte Masseninstallation („Mass Deployment“). Diese ist oft mit on-premise Lösungen möglich. Generell sollten nicht mehr als fünf Schritte nötig sein, um hunderte oder sogar tausende Rechner zu sichern. Der Aufwand sollte dabei unabhängig von der genauen Geräteanzahl sein.

Die Masseninstallation war auch ein wichtiger Grund, warum sich Shiseido Taiwan, ein globaler Marktführer im Kosmetikbereich, der bereits seit 148 Jahren im Geschäft ist, für die lokale Backup-Lösung von Synology entschied. In dem Unternehmen werden mehr als 500 PCs und 55 VMs betrieben und es finden täglich Datenänderungen von bis zu 600GB statt. 2017 kam es dort zu einem Ransomware-Angriff. Um sich vor diesem und weiteren Gefahren zukünftig zu schützen, wurde in drei Schritten und wenigen Minuten eine Masseninstallation in folgenden Schritten durchgeführt:

  1. Konfiguration der MSI-Datei
  2. Ausspielung der die MSI-Datei großflächig über die Domäne auf alle zu sichernden Geräte 
  3. Neustart aller zu sichernden Geräte 

Die benötigte Zeit für das Backup und der verwendete Speicherplatz wurden jeweils um circa 50% reduziert.

Da die gesamte Backup-Lösung – inkl. Software, Hardware, Support – aus einer Hand kommt, sinkt zudem der Wartungsaufwand. Damit sparen Admins im Notfall wertvolle Zeit, da sie nicht an unterschiedlichen Türen klopfen müssen und ggf. Zeit verlieren, weil sie die Problemquelle und damit den Ansprechpartner nicht eindeutig identifizieren können.

4. Ein gutes Backup ist langfristig

Das langfristige Ziel aller Unternehmen, wenn es um das Thema Backup geht, ist – neben Sicherheit – Effizienz. Es gilt also langfristig Zeit, Speicherplatz und Bandbreite zu sparen, um letztendlich Geld und emotionales Kapital (Nerven) der Mitarbeiter und Entscheider zu sparen. Lizenzkosten widersprechen diesem Ziel.

4.1. Langfristig effizient ohne Lizenzkosten

Lizenzkosten sind sowohl privat als auch im Unternehmensbereich schwer überblickbar und können schnell zu einer der größten Kostenstellen in der IT werden.

Wie stattdessen durch die Wahl der passenden Backup-Lösung signifikant Geld gespart werden kann, zeigt die Corin Group in Australien. Sie produziert Gelenkimplantate und Hörhilfen und nutzt mit über 2.400 Mitarbeitern Microsoft 365.

Doch Datenverluste in Public Clouds sind wahrscheinlicher als häufig vermutet. Die Hauptursachen sind dabei das versehentliches Überschreiben sowie das böswillige Löschen durch Mitarbeiter ebenso wie das böswillige Löschen durch Hacker. Um diese Risiken zu minimieren, sollten also die täglich anfallenden Daten noch einmal lokal im eigenen Büro gesichert werden. Die Corin Group entscheid sich dabei für die Hardware und die integrierte lizenzfreie Backup-Software von Synology. Mit der neuen Infrastruktur (siehe Abbildung unten) sparen sie heute rund 4.000€ pro Monat an Lizenzgebühren.

Backup-Setup bei der Corin Group. Backup für Microsoft 365 und VMs mit Synology Hardware und Backup-Software

Das Unternehmen tätigte nur eine einmalige Hardware-Anschaffung, da bei der Backup-Lösung von Synology keine Lizenzgebühren für die Software anfallen. Komplizierte, unüberschaubare Abonnements gehörten damit der Vergangenheit an. Das ermöglicht nicht nur höhere Gewinne, sondern auch eine grundsätzlich gesteigerte Unabhängigkeit vom Microsoft-Riesen. Ein Backup zu viel ist immer besser als eines zu wenig.

4.2. Speicherplatz und Bandbreite langfristig einsparen

Beim Thema Langfristigkeit gilt es aber nicht nur Lizenzen einzusparen. Auch jeder belegte Megabyte an Speicherplatz und Bandbreite ist bare Münze wert. Dementsprechend sind automatische Aussortierungsmechanismen, wie Deduplizierung, Changed Block Tracking (CBT) und Snapshots, nötig.

Deduplizierung

Ein gutes Backup sollte Speicherblöcke deduplizieren – sowohl plattform- als auch geräteübergreifend. Das heißt, egal wo die Daten herkommen oder wie viele Systeme gesichert werden, Dopplungen dürfen nicht vermehrt vorkommen. Wenn die Deduplizierung auf Blockebene stattfindet, ist die Ersparnis am größten. Zum Beispiel würden bei 300 gesicherten, ähnlichen Windows-Rechnern nur ein einziges mal die Microsoft Treiberdateien abgespeichert werden. Wenn die Deduplizierung dann noch inline stattfindet, also bereits während des Schreibprozesses und damit vor der eigentlichen Speicherung, ist die Lösung vollkommen. Anwender können den freien Speicherplatz dann anders nutzen und eine langfristige Effizienz ist gegeben. 

Changed Block Tracking (CBT)

Neben der Deduplizierung ist das Changed Block Tracking (CBT) eine weitere Methode zur Speicherplatzoptimierung. CBT bedeutet, dass nach dem ersten Voll-Backup nur noch Änderungen übertragen werden. Im Optimalfall nutzt der Backup-Agent hierfür die Client-Hardware (bei Windows also den Volume Shadow Copy Service VSS von Microsoft), um die Frage “Was hat sich bei mir überhaupt geändert?” selbst zu beantworten. Durch letztere Funktion brauchen mehr gesicherte Geräte nicht mehr Performance beim Backup-Ziel, da die Geräte sich quasi selbst auf eigene Änderungen überprüfen. Dadurch können Nutzer hunderte PCs bereits auf wirklich kleine Synology NAS-Systeme für circa 500€ sichern.

Snapshot

Die Snapshot-Technologie ist der schnellste Weg, um den früheren Zustand bzw. alte Versionen einer Datei wiederherzustellen. Ein Snapshot ist eine Momentaufnahme einer Datei. Es wird also nicht die Datei selbst gesichert, sondern nur eine Art Bauanleitung, die die Struktur der Dateiänderung beschreibt. Somit ist eine Wiederherstellung einer Vorgängerversion in 3 Sekunden möglich und auch die restliche Performance des Netzwerks wird im Falle einer Wiederherstellung nur minimal beeinträchtigt. Das spart wiederum Speicherplatz und Netzwerkbandbreite.

4.3. Mehr Effizienz durch langfristige Geschäftsbeziehungen

Langfristige Geschäftsbeziehungen sind immer gut. Deshalb bietet Synology seinen Partnern Schulungen, Projektschutz, stark rabattierte Hardware, persönliche Ansprechpartner und viele weitere Vorteile an. Die meisten Neukunden sind zudem immer noch von der umfangreichen Software überrascht, welche so viel mehr Möglichkeiten als Backups bietet und den ROI der IT-Investition weiter maximiert.

Fazit: Beispiel für ein gutes Backup anhand der UNESCO

Backup-Setup bei UNESCO mit Synology RackStation, DiskStation und Software Active Backup for BusinessDie UNESCO stand vor einiger Zeit vor der Herausforderung, 70 Standorte mithilfe eines einheitlichen Backup-Konzeptes zu standardisieren. Die Organisation suchte eine bezahlbare Backup-Lösung, die an jedem Standort lokal umgesetzt werden kann. Die Sicherung sollte möglichst unabhängig von der Hauptzentrale erfolgen, da sich die Zweigstellen teils mit sehr problematischen Bandbreiten konfrontiert sahen. Die UNESCO entschied sich schließlich, alle 70 Standorte mit jeweils zwei Hyper-V-Clustern, einer Synology RackStation und einer Synology DiskStation auszustatten und die auf den NAS-Servern integrierte Backup-Software von Synology “Active Backup for Business” für die Datensicherung zu nutzen (siehe Abbildung oben).

Die Backup-Lösung bei der UNESCO erfüllt damit alle 4 Eigenschaften, die ein gutes Backup und damit ein ganzheitliche Datensicherungskonzept ausmachen:

1. Zuverlässig

Dadurch, dass an jedem der 70 Standorte lokale Backups vorhanden sind, ist die Backup-Häufigkeit höher (RPO). Zudem reduziert sich die Zeit für die Wiederherstellung im Problemfall (RTO), da die Daten nicht mühsam und zeitintensiv über das Internet aus der Hauptzentrale zurückgewonnen werden müssen.

Die 3-2-1 Backup-Regel ist durch den Einsatz mehrerer Kopien, Geräte und Versionen gegeben. So sichert jede Zweigstelle drei (3) Kopien auf mindestens zwei (2) unterschiedliche Datenträger (RackStation und DiskStation), wobei sich die DiskStation jeweils in einem separaten Brandabschnitt befindet, der die Daten im Fall eines Brandes, Wasserschadens oder Einbruches in der Haupteinheit schützt.

Außerdem ermöglicht die Synology Backup-Lösung die zuverlässige Wiederherstellung für einzelne Dateien, mit Boot-Medien sowie die P2V-Wiederherstellung.

2. Flexibel

Die Organisation konnte die Synology Backup-Lösung mühelos mit dem vorhandenen Hyper-V-Cluster vereinen. Auch kann die UNESCO die vorhandenen Windows Server sowie Windows PCs mit Synology sichern.

Der Speicherplatz der neuen Lösung ist zudem stark skalierbar. Auch ist die UNESCO jetzt unabhängig von öffentlichen Clouds und damit auch von möglichen Lizenzkostensteigerungen und Gesetzesänderungen im internationalen Datenverkehr/Datenschutz.

3. Wartungsarm

Die Backup-Aufgaben laufen voll automatisiert. Damit ist der Verwaltungsaufwand generell sehr gering. Durch die intuitive Benutzeroberfläche sind die Backups bei Bedarf auch von ungeschultem Personal administrierbar. Da Synology sowohl Hardware als auch Software zur Verfügung stellt, müssen die IT-Verantwortlichen im Notfall auch nur einen Hersteller kontaktieren. Das kann bei Problemen viel Zeit und viele Nerven sparen.

4. Langfristig

Bei der Lösung von Synology fallen keine Lizenzgebühren an. Die Hardware bedarf ausschließlich einer einmaligen Investition. Des Weiteren spart die UNESCO Speicherplatz und Bandbreite, da die Synology Backup-Lösung auch fortschrittliche Technologien wie Deduplizierung, Changed Block Tracking (CBT) und Snapshot zur Verfügung stellt. Damit ist das Backup langfristig effizient und erfüllt auch die letzte der 4 Eigenschaften für ein gutes Backup.

Weiterführende Links

Backup von A bis Z: Tipps, Erfahrungen und Austausch mit Experten. Jetzt Video ansehen.

Lesen Sie den Kundenbericht der UNESCO hier.

Lesen Sie, wie Sie VMs ausfallsicher speichern hier.

Erfahren Sie mehr über die Backup-Lösung von Synology hier.

Laden Sie sich den kostenlosen Backup-Leitfaden hier herunter.

Sie suchen nach eine passenden Backup-Lösung für Ihr Unternehmen? Lassen Sie sich hier kostenlos und unverbindlich von unseren Experten beraten.