Der Traum vom Offsite-Backup

Digitale Daten sind ein wesentlicher Bestandteil unseres Lebens. Besonders, wenn es um persönliche Daten geht, an denen Erinnerungen hängen. Ein Backup wird immer dann wichtig, wenn man vor dem Verlust steht und merkt, dass man kein Backup hat. Diese Situation wünscht man keinem aber trotzdem werden sie viele schon erlebt haben.

Bis jetzt habe ich noch keine wirklich große Datenkatastrophe erlebt und dabei soll es auch bleiben. Damit ich noch besseren Schutz vor einem eventuellen Datenverlust habe, ist in mir die Idee des Offsite-Backups herangewachsen.

Aktuelle Backup-Strategie

Die aktuelle Datenhaltung- bzw. Backup-Strategie sieht wie folgt aus. Auf einem NAS von Synology liegt ein Großteil meiner Daten. Von Synology gibt es unterschiedliche Modelle. Ich habe mich damals für ein System (Synology 213+) entschieden, dass zwei Festplatten fasst. Diese beiden Platten laufen im RAID 1. Bedeutet, dass alle Daten doppelt vorliegen. Wenn mal eine Festplatte ausfallen sollte, dann hoffe ich, dass sie auf der anderen Platte noch vorhanden sind. Auch hier wieder: Hoffentlich passiert das nicht.

Aber es ist auch bekannt, dass Festplatten irgendwann den Geist aufgeben. Alles nur eine Frage der Zeit.

Alles was ich an Daten nicht unbedingt griffbereit haben muss, liegt wie schon gesagt auf dem NAS. Natürlich gibt es auch immer wieder Daten, die regelmäßig gebraucht werden. Die Daten auf dem Macbook wollen natürlich auch regelmäßig gesichert werden. Der passende Ort ist auch wieder das NAS.

Eigentlich ist das unter Mac OS X sehr einfach ein Backup zu erstellen und auch Synology stellt die entsprechende Funktion bereit. Bei mir hat Time Machine einfach keine Lust mehr zu laufen, egal was ich mache. Die Fehler wechseln sich immer wieder ab, wenn ich es mal versuche.

Eine Alternative musste her, da ich nicht ohne Backup meines MacBooks dastehen will. Eine Möglichkeit wäre, dass ich eine externe Festplatte ans MacBook hänge und Time Machine dort das Backup speichern lasse. Denn interessanter Weise funktioniert das Backup, wenn es nicht über das Netzwerk geht. Aber ist alles unschön, weil es immer mit zusätzlicher Arbeit verbunden ist. Wird das Backup über das Netzwerk gemacht, dann passiert das sofort, sobald sich das MacBook in diesem Netzwerk befindet. Es muss nicht erst eine Festplatte angeschlossen werden.

Für das Backup über das Netzwerk kommt bei mir Carbon Copy Cloner zum Einsatz. Mit diesem Tool läuft das Backup wunderbar über das Netzwerk.

Des Weiteren lässt sich mit Carbon Copy Cloner ein vollständiges Image des MacBooks erstellen. Bedeutet, dass ich bei einem Ausfall der internen Festplatte über die externe Festplatte booten kann. Dieses Backup wird ein Mal in der Woche erstellt.

Bevor ich ein NAS hatte, habe ich meine Backups auf eine Western Digital My Book Studio 2 Edition 2TB HDD Festplatte gemacht. Das gute Stück beinhaltet auch zwei separate Platten, die ich auch im RAID 1 betrieben habe, um eine Redundanz der Daten zu haben. Die externe Festplatte hat mit der Anschaffung des NAS vorerst ausgedient.

Sie wurde dann als Backup-Festplatte der Synology wiederbelebt. Jedoch musste ich die Redundanz durch RAID 1 aufgeben und zu einem RAID 0[1] wechseln, da sonst nicht alle Daten auf die externe Festplatte gepasst hätten.

Bis jetzt fahre ich mit diesem System recht gut und muss nur sehr selten drauf zurückgreifen, um Daten wiederherzustellen.

Und jetzt kommen wir zu dem Teil, der optimiert werden will. Denn jedes Backup-System kann noch besser gemacht werden.

Der lange Weg zum Offsite-Backup

In den letzen Wochen kam der kleine paranoide Mann in mir durch. Was macht man, wenn die Bude brennt, unter Wasser steht oder sonst was. Ja ich weiß, die Situationen sind ein bisschen unwahrscheinlicher als ein Festplatten-Tot aber nicht auszuschließen.

Eigentlich will ich durch so Situation, die hoffentlich nie passieren, nicht meine ganzen Daten verlieren, die für mich wichtig sind. Die Lösung für dieses Problem nennt sich Offsite-Backup. Heißt, dass ich meine Daten nicht nur zu Hause auf dem NAS habe, sondern alle Daten noch mal außerhalb an einem anderen Ort sichere.

Dafür gibt es jetzt natürlich unterschiedliche Wege. Es gibt einige Dienste in diesem großen Internet, die genau diese Problematik erkannt haben und Speicher auf ihren Servern anbieten. Problem an der Geschichte ist wieder Sicherheit und der Preis.

Ich muss aber auch gleich ehrlich sagen, dass ich keinem Anbieter genügend Vertrauen entgegen bringe, auch wenn es eine gute Verschlüsselung gibt, meine Daten dort zu sichern.

Mir bietet sich die Möglichkeit, ein kleines Backup-System in die Wohnung meiner Freundin zu stellen. Aber die Daten wollen auch erst mal auf einem sicheren Weg über das Internet dahin und auch dort ordentlich verschlüsselt gespeichert werden.

Für diesen Plan habe ich ein paar Möglichkeiten ausprobiert, die leider oft einen Haken haben. Ausgangsidee ist immer wieder ein Raspberry Pi, der in der Wohnung meiner Freundin am Netz hängen soll. Die oben erwähnte externe Festplatte von Western Digital soll an den Raspberry Pi angeschlossen werden.

Es wird jetzt ein bisschen technischer, aber ich werde nur grob auf die eingesetzen Programme und Konfigurationen eingehen. Und weiter geht’s. ?

rsync-Server und Backup über die grafische Oberfläche von Synology

Von dem Backup auf die externe Festplatte weiß ich schon, dass Synology einige Möglichkeiten bietet, um ein Backup zu erstellen. Das Backup kann auch auf eine andere Synology gehen oder auf einen rsync-Server. Eine zweite Synology habe ich nicht also habe ich mir den rsync-Server mal genauer angeschaut. Mit der entsprechenden Anleitung und ein paar Veränderungen meiner Seits[2] hat das dann auch alles gut geklappt, und ich konnte ein Backup erstellt. Vorher muss natürlich noch die Festplatte unter Linux gemountet[3] werden und sichergestellt werden, dass Lese- und Schreibrechte passen, aber das würde jetzt zu genau ins Detail gehen. Ihr merkt schon, man muss Lust auf Linux haben. Mit Klick Klick ist da jetzt vorbei.

Der Raspberry Pi sollte sich dann via OpenVPN[4] beim NAS einloggen und somit würden sich beide Geräte im “gleichen” Netzwerk befinden.

Haken an der Geschichte ist, dass die Daten unverschlüsselt abgespeichert werden. Wenn ich das Thema Offsite-Backup angehe, dann soll es auch vernünftig sein und das schließt für mich ein, dass die Daten verschlüsselt gesichert werden.

Einziger Vorteil, wenn nicht verschlüsselt wird, ist, dass es alles in einer akzeptablen Zeit abläuft.

Diese Methode gehört aber zu den einfachsten. Es muss aber auch die Lust vorhanden sein ein bisschen unter Linux zu basteln und den Raspberry Pi einzurichten.

Duplicity und Duply auf der Synology

Damit die Daten verschlüsselt gesichert werden, muss man leider die grafische Oberfläche von Synology verlassen und sich auf die Kommandozeilen-Ebene begeben.

Fast jedes Linux bringt auch einen Paketmananger mit, um Software auf dem System zu installieren. Synology verwendet aber ein sehr stark angepasstes Linux. Einen Paketmananger gibt es nicht und muss nachinstalliert werden. Aber genau da gehen meine Bedenken bei dieser Methode los. Es wird die offizielle Ebene von Synology verlassen und man fängt an sich Software zu installieren, die aus irgendwelchen Quellen stammt. Des Weiteren ist die Paketverwaltung, die man sich installieren kann, nicht mehr die neuste und wird nicht mehr weiter entwickelt.

Für Linux gibt es ein gutes und umfangreiches Backup-Tool namens Duplicity. Um die Bedienung ein bisschen zu vereinfachen, kann das Programm Duply verwendet werden. Beides lässt sich unter Synology installieren, aber naja. Sicher fühle ich mich damit auf gar keinen Fall, da die Programme eben nicht offiziell unterstützt werden und somit auch die Updates fehlen. Wer weiß welche Sicherheitslücken ich damit auf meinem System installiere.

Duplicity erstellt ein inkrementelles Backup, heißt, dass nur neue Daten gesichert werden.

Auf eine entsprechende Anleitung bin ich bei meiner Recherche gestoßen.

Natürlich habe ich diese Möglichkeit ausprobiert, bin aber dann zu dem Schluss gekommen, dass ich das Betriebsystem von meinem NAS neu installieren werde, damit keine veraltete Software auf den System liegt. Zum Glück ist das relativ schnell gemacht und es gehen keine Daten dabei verloren.

Bei diesem Versuch hat sich noch ein ganz anderer Haken aufgetan. Für 7GB habe ich 1,5 Stunden benötigt. Die Daten wurden auf eine externe Platte geschrieben. Das ist leider der Preis, den man zahlen muss, wenn man ein verschlüsseltes Backup haben möchte.

Duplicity und Duply auf dem Banana Pi, der die Daten vom NAS liest

Da für mich klar war, dass ich keine Backup-Software auf dem NAS installiert haben möchte, musste eine Alternative her. Der nächste Gedanke ist, dass ich mit einem weiteren Einplatinencomputer die Daten vom NAS via SHH/SCP lese, verschlüssel und auf den Raspberry Pi schiebe.

Das nächste Problem liegt aber wieder in dem Programm Duplicity. Das ist so ausgelegt, dass die Quelle auf dem selben System sein muss und das Ziel dann irgendwas anderes sein kann. Für das Zielsystem gibt es eine große Auswahl an Protokollen.

Aber natürlich gibt es auch dafür wieder eine Lösung. Das NAS lässt sich über SSH mounten. Es verhält sich dann so als wäre es ein Teil des Systems, auf dem Duplicity läuft. Programm dafür heißt sshfs. Nach vielen Versuchen habe ich dann auch festgestellt, dass der Benutzer root von der Synology nicht das Protokoll SCP nutzen kann. Wird aber benötigt, um es mit sshfs zu mounten.

Für diese Aufgabe habe ich mir schon ein Banana Pi bestellt, der eigentlich diese Aufgaben übernehmen soll. Von der Leistung ist der mit meinem Synology 213+ gleichzusetzen. Hat nur ein bisschen mehr Arbeitsspeicher.

Ich habe mich gegen einen Raspberry Pi 2 entschieden, weil er mir aktuell noch zu teuer ist und keinen 1Gbit-Ethernet-Anschluss besitzt. Ich möchte natürlich sicherstellen, dass beim Lesen der Daten keine Engpässe auftreten. Des Weiteren besitzt der Banana Pi einen SATA-Schluss, damit habe ich ein bisschen mehr Spielraum für zukünftige Spielereien[5].

Das ist der letzte Stand wie ich gerne mein Offsite-Backup umsetzen möchte. Der Banana Pi liest die Daten vom NAS, verschlüsselt sie und schickt sie über ein VPN zum Raspberry Pi.

Was mich von der Umsetzung abhält, ist der Faktor Zeit. Ich habe aktuell 1,5 TB Daten auf dem NAS liegen. Es wird verdammt lange dauern bis alles verschlüsselt ist.

Crashplan

Auf Twitter habe ich auch immer mal wieder in die Runde gefragt und dabei ist sehr oft das Programm Crashplan erwähnt worden. Bei einigen Synology-Systemen kann das Programm auch installiert werden, aber bei meiner gibt es da irgendwie Probleme. Ich habe mich aber auch nicht weiter darum gekümmert, weil es beim Raspberry Pi noch schlimmer aussieht.

Und das End’ vom Lied …

… ist, dass ich ein Konzept habe, dass auch funktionieren würden, jedoch benötigt dies verdammt viel Zeit. Und wenn ich dann mal wirklich Daten wiederherstellen will, braucht dies auch wieder sehr viel Zeit.

Ich hätte sehr gerne ein Offsite-Backup, jedoch ist dies mal nicht eben zusammen geklickt. Wenn man mit einem Raspberry Pi und einem Banana Pi arbeiten will, muss man sich außerdem mit Linux beschäftigen.

Das Offsite-Backup bleibt vorerst ein Traum, denn ich mag dann doch nicht so viel Zeit reinstecken. Leider wird es immer ein bisschen schwieriger, wenn man seine Daten auch sicher speichern will.

Und soweit zum Thema Offsite-Backup, das mich in den letzten Wochen stark beschäftigt hat. Wenn du jetzt die ultimative Lösung hast, um ein verschlüsseltes Offsite-Backup von einer Synology zu erstellen, dann ab damit in die Kommentare. Da darfst natürlich auch anderes Feedback zu dem Thema da lassen.


  1. Beide Festplatten werden zur einer logischen Festplatte geschaltet. Der Speicher verdoppet sich damit.  ↩
  2. In der rsyncd.conf muss uid und gid gleich dem Benutzer und der Gruppe sein, der angelegt wurde.  ↩
  3. Unter Linux kann man eine Festplatte nicht direkt nuten, wenn man sie angeschlossen hat. Vor der Nutzung muss sie erst in das System eingehängt werden. Nach dem Eingängen (Mounten) verhält sich die Festplatte wie ein normaler Ordner.  ↩
  4. Mit einem VPN lassen sich zwei entfernte Netzwerke über das Internet virtuell zusammen schaltet. Fühlt sich dann an als wären alle Geräte aus beiden Netzwerken in einem Netzwerk.  ↩
  5. SD-Karten sind nicht wirklich super dafür geeignet, um darauf ein Betriebssystem laufen zu lassen. Mit dem SATA-Anschluss kann ich eine Festplatte anschließen und dort das Betriebsystem laufen lassen.  ↩