FreeFileSync

Da ich ja nicht nur regelmäßig meine Daten mit einen NAS synchronisiere, sondern ebenso mit mehreren gewöhnlichen externen Datenträgern sowie ein paar Rechnern, brauche ich ein Tool zu Synchronisierung. Derzeit nutze ich aus Windows heraus immer noch SyncToy, unter Linux kann ich natürlich rsync verwenden, aber ich denke, dass ich übergreifend wohl in Zukunft FreeFileSync einsetze. „FreeFileSync“ weiterlesen

Großes Reinemachen der Datenträger

Diese Woche habe ich eine Remote-Schulung zu C# gehalten. Am Ende so einer Schulung gebe ich immer die von mir erstellten Quelltexte an meine Schulungsteilnehmer weiter. Da ich im Fall von so einer C#-Schulung natürlich mit Visual Studio arbeite, sind in meinen Projekten aber immer die ganzen *.dll, *.exe, *.obj und andere Dateien abgelegt, die beim Compilieren und Ausführen der Schulungsprojekte entstehen. Solche kompilierten Sachen sind für die Weitergabe an meine Teilnehmer natürlich unnötig und sogar kontraproduktiv, weil damit die weiterzugebenden Daten ziemlich umfangreich werden und – beim Verschicken über das Internet – die Firewall der Firmen, wo meine Teilnehmer arbeiten, diese Dateien meist grundsätzlich blockiert. Also stelle ich fast immer eine ZIP-Datei zusammen, die nur die eigentlichen Quelltexte und meist auch die Projekt- und IDE-Einstellungen enthält, wenn das – wie im Fall von Visual Studio – relevante Informationen sind.

Nun bin ich insbesondere bei meinem MateBook mit seiner extrem sparsamen 256 GByte-SSD schon seit Monaten am Limit und habe sogar diverse Verzeichnisse und Programme schon gelöscht oder auf eine externe SSD verschoben, die ich eigentlich gerne dabei bzw. auf der internen SSD des Notebooks gespeichert hätte.

Ich habe keine Ahnung, warum mir nie aufgefallen ist, dass ich vollkommen unnötig bei meinen ganzen Quelltexten der Bücher, Videotraining bei LinkedIn Learning, Schulungen und Kursen oft ebenfalls die ganzen *.dll, *.exe, *.obj und andere binäre Dateien sowie auch PlugIns und ähnliche Projektergänzungen und sogar alte Software, die ich in den Maßnahmen gebraucht hatte, mit gespeichert habe. Oder aufgefallen war mir das wohl schon – ich habe mich einfach nicht drum gekümmert.

Denn sinnvoll ist es schon, zu jeder Maßnahme (gleich ob Schulung, Buch, Videotraining, Kurs oder Projekt) die wirklich relevanten Dinge zu behalten. Ich speichere deshalb nach jeder Maßnahme auch die Projektdateien hinsichtlich der Programmierung. Die Einsendeaufgaben, die ich etwa bei der ILS erhalte, behalte ich ebenso auf Dauer. Und ich lege davon dann im Rahmen meiner üblichen Datensicherung auch zig Kopien an. Aber da ich vor dem Speichern als auch den Datensicherungen auf meinen vielen redundanten Medien in Bodenheim, Eppstein, der Cloud und im Banksafe eben fast nie aufgeräumt hatte, sind auf den Datenträgern mittlerweile so viele GByte an unnützem und zudem mehrfach redundantem Zeug entstanden, dass einfach mal ein großes Reinemachen notwendig war.

Diese unglaublich vielen Dateien machen ja auch eine Datensicherung wahnsinnig zeitintensiv, da das ganze überflüssige Zeug eine Synchronisation zeitlich förmlich explodieren lässt. Das habe ich gerade wieder bemerkt als ich meine externe Festplatte, die ich in Eppstein deponiert habe und so etwa einmal im Monat synchronisiere, auf Stand bringen wollte. Mein Datensicherungsprogramm SyncToy ist nur mit Fehlern durchgelaufen und die folgende direkte Kopieraktion von meinem NAS auf die Festplatte hat etwa 18 Stunden gebraucht.

Das hat mir gelangt und ich beseitige gerade über alle Datenträger hinweg die unnötigen binären Dateien. Im Wesentlichen befinden die sich bei Visual Studio-Projekten in den Verzeichnissen Debug und Release und bei Eclipse  & Co ist das .metadata-Verzeichnis oft auch riesig und kann jederzeit bei Bedarf reproduziert werden.

Also weg mit dem Zeug und noch den Installationsdateien einiger alter Software und ähnlichen Dingen. Ich denke, dass ich so pro Rechner bzw. Datensicherungsmedium vielleicht 10 – 40 GByte Platz gewinne. Kann auch deutlich mehr sein, aber die vielleicht 200 – 400 GByte, die ich damit over-all frei mache, sind gar nicht der Punkt.

Die Sache wird übersichtlicher und eben bei der Synchronisation während Datensicherungen deutlich schneller und auch stabiler. Der Upload auf Cloud-Datenspeicher geht natürlich ebenso viel schneller (gerade der) und eine komprimierte Datensicherung (auch Anlegen und Entpacken eines Archivs geht natürlich viel fixer) sollte vielleicht sogar wieder auf einen USB-Stick für den Banksafe passen.

Nur jetzt muss erstmal der bereinigte Stand synchronisiert werden und da greift nochmal das zeitlich aufwändige Problem, dass so viel Zeug an den verschiedensten Stellen auf  NAS & Co gelöscht werden muss. Aber wenn die große Putzaktion durch ist, sollte ich auf Dauer viel Zeit gewinnen.

 

Der letzte Nagel hat gehalten

Die externe Festplatte in meinem Eppsteiner Büro hatte tatsächlich noch alle Daten, die auf sämtlichen anderen Systemen weg waren. Das waren wie schon gepostet zwar nur archivierte Einsendeaufgaben und Fachfragen, die ich vermutlich nie wieder ansehen muss. Aber dennoch bin ich froh, dass die letzte Mauer in meinem Datensicherungskonzept gehalten hat. Man sieht mal wieder, dass ein eingefrorener, sicherer Stand unabdingbar ist. Jetzt muss ich meinen Denkfehler in den Syncronisierungsskripten der anderen Systeme noch finden und die Gesichte ist ohne Verluste von der Bühne.

Denkfehler in meiner Backup-Strategie

Durch den Corona-Lockdown muss ich jede Chance nutzen, um an die frische Luft zu kommen. Sonst komme ich ja gar nicht mehr aus dem Haus und ohne Frischluft bekomme ich Kopfschmerzen. Dann stehen entweder Joggen oder Radfahren an. Eben gab es wieder so eine Chance und ich bin trotz Nässe und Matsch – wenigstens sah es aber durch ein bisschen Schnee ganz nett aus – kurz mit dem Rad um die Ecken gedüst. Denn die Zeit war plötzlich da. Mein Arbeitsplan für heute morgen war hinfällig, denn ich habe irgendwo einen massiven Fehler in meiner Backupstrategie.

Zum zweiten Mal in den letzten Wochen waren Daten weg von den Kursen, die ich bei der ILS betreue. Nicht dramatisch, denn das waren nur erledigte Korrekturen und Fachfragen sowie PDFs, die ich mir jederzeit wieder laden kann. Aber dennoch archiviere ich die Sachen zur Sicherheit gerne. Und bei  5 von 8 Verzeichnissen waren auf einmal alle Daten weg, die nicht von dem Jahr 2021 waren. Natürlich habe ich meine Backups, die ich mit Synctoy synchronisiere, sofort durchsucht. Aber alle 4 Backups hier vor Ort waren synchron. Auch auf den NAS. So, wie es eigentlich sein soll, aber jetzt das Problem ist. Und in der Cloud habe ich die Dinge auch nicht gesichert, denn die sind wie gesagt nicht ganz so wichtig und der Speicherplatz in der Cloud mit anderen Daten zu.

Ich muss irgendeine Einstellung in Synctoy verdreht haben und das dringend finden. Wenn das bei wichtigen Daten passiert, sind alle Backups für die Tonne.  Nun habe ich auf einer externen Festplatte einen alten Stand von Anfang 2020 gefunden und den kopiere ich gerade zurück. Was meine externe Festplatte, das NAS und mein Notebook blockiert und zu eingangs besagter Freizeit und der kleinen Radtour heute morgen geführt hat. Denn da müssen mehrere Gigabyte mit verdammt vielen kleinen Dateien hin- und hergeschoben werden und das dauert ein paar Stunden. Die Dateien aus dem Jahr 2020 sollte ich auch wiederfinden, denn ich habe dieses Jahr meine externe Datensicherung in Eppstein schon aktualisiert und da sollten die dann noch fehlenden Dateien drauf sein – wenn die Festplatte nicht gecrashed ist. Aber das war verdammt knapp und ich muss dringend mehr Sorgfalt walten lassen. Gerade beim Löschen, denn ich schaffe immer wieder Platz, um nicht zu viele Dateileichen mitzuschleppen – was das Problem vermutlich ist.  Ein falsches Sicherheitsgefühl kann da gewaltig in die Hose gehen.

Feines Tool zum Reinigen des PCs

Ich reinige immer wieder meine Rechner. Nicht zuletzt auch deshalb, weil gerade mein Matebook leider eine ziemlich kleine Festplatte hat und ich es immer am Rande der Datenkapazität betreibe. Aber auch aus Gründen der Privatsphäre und Performance meiner Rechner versuche ich immer wieder, die Systeme zu optimieren.

Mal mit mehr, mal mit weniger Erfolg bis hin zu gelegentlichen negativen Ergebnissen. Frei nach dem Motto:

Ein System wird solange optimiert, bis es nicht mehr läuft.

Aber da ich grundsätzlich mit einem mehrfachen, verteilten Backup-System arbeite (4 tagessynchrone und dazu 2 zumindest wochensynchrone Datensicherungen, eine räumlich externe, mindestens monatssynchrone Datensicherung sowie zwei Sicherungen der wichtigsten Daten in zwei verschiedenen Cloudsystemen und zudem ein jährliches Backup der absoluten Grunddaten auf einem USB-Stick im Safe einer Bank) und drei einsatzfähige Rechner mit weitgehend identischer Software und Konfiguration verfügbar habe, kann ich im Crash-Fall eines Rechners weiter arbeiten und eigentlich immer meine Systeme wiederherstellen.

Auch wenn ich die PCs schon 2x – 3x komplett neu aufsetzen musste. Das ist dann zwar Arbeit, aber ich lerne auch immer dabei wichtige Dinge für meinen täglichen Broterwerb.

Von daher bin ich immer wieder munter am Optimieren meiner Rechner und mit PrivaZer habe ich vor einigen Wochen ein kostenloses PC-Cleaner- & Privatsphäre-Tool entdeckt, welches einmal unerwünschte Spuren reinigt und zum andern viel Platz auf dem PC schafft sowie gleichzeitig die Performance optimiert. Das Tool überzeugt mich im Moment von all diesen Optimierungstools, die ich bisher ausprobiert habe, am Meisten. Das ist nur eine Momentaufnahme, aber erst einmal setze ich es bis auf Weiteres für meine regelmässigen Putzmassnahmen mit ein.

Windows-10-Update hat funktioniert

Das Update hat funktioniert. Außer den üblichen Fehlern mit gelöschten Zertifikaten und Ändreungen von Einstellungen etc. scheint nix schiefgelaufen zu sein.

Vielleicht hat das Update die Windows-Installation sogar in Teilen repariert, in denen sie nach dem Crash von neulich (an dem ich aber im Grunde alleine die Schuld trage) nicht ganz sauber mehr läuft. Ich würde das System so einschätzen, dass ich es nach dem Crash wieder zu 95% so eingerichten konnte, wie es vorher war. Vielleicht hat das Update noch ein oder zwei Prozent nachgeschoben und ein oder zwei Prozent der Veränderung waren vielleicht sogar positiv. Ich werde den neuen Stand jetzt eine Weile in der Praxis testen und dann vermutlich ein vollständiges Image ziehen. Denn wie ich aus dem Crash neulich gelernt habe – Datenwiederherstellungspunkte sind eine suboptimale Notlösung mit viel zu hohem Risiko, dass diese Notlösung versagt. In Kombination mit den üblichen Datensicherungen mehrfach am Tag und auf mindestens 5 verschiedene Datenträger und Rechnersysteme verteilt sollte das Konzept dann weitgehend sicher sein.

Was mir noch aufgefallen ist – das Update ging für Windows-Verhältnisse flott. Statt der ganzen Nacht war es in unter 4 Stunden durch. Immer noch zig Klassen schlechter als das Verfahren bei Linux, aber nicht mehr die Katastrophe von früher.