Timeshift

Oha. Eben habe ich mir doch glatt mein Mint Linux zerschossen und musste es mittels Timeshift wiederbeleben. Also nicht Linux selbst, sondern im Grunde nur Python. Aber das hat apt und apt-get samt der kompletten Anwendungsverwaltung ins Grab gezogen. Nix ging mehr mit Aktualisieren, Bereinigen oder Neuinstallieren. Das zerbröselte Python hat jedesmal zum Abbruch der Aktionen geführt. Richtig brutal. Dabei wollte ich bloß das kleine Problem beseitigen, dass bei meiner Installation von Python unter meinem Mint Linux 22 pip nicht installiert ist. „Timeshift“ weiterlesen

Kein Backup, kein Mitleid

Der Nerd-Spruch ist alt und wohl auch ziemlich arrogant, beinhaltet aber pure Wahrheit hinsichtlich der Bedeutung von Backups. Einerseits regelmäßig und in kurzen Intervallen, andererseits räumlich oder zumindest physisch getrennt. Ein Backup auf der zweiten Festplatte im gleichen Rechner ist nutzlos, wenn dieser gestohlen oder sonst schwer geschädigt wird.

Backup in der Cloud ist eine Lösung, wenn man den Anbietern wirklich vertraut (was ich nicht mache) und mit den langen Up- und Download-Zeiten leben kann. Backup auf einem anderen Kontinent ist aber zumindest schon mal eine meist ausreichende räumliche Trennung, ein Backup auf einem anderen Himmelskörper aber noch besser. „Kein Backup, kein Mitleid“ weiterlesen

FreeFileSync

Da ich ja nicht nur regelmäßig meine Daten mit einen NAS synchronisiere, sondern ebenso mit mehreren gewöhnlichen externen Datenträgern sowie ein paar Rechnern, brauche ich ein Tool zu Synchronisierung. Derzeit nutze ich aus Windows heraus immer noch SyncToy, unter Linux kann ich natürlich rsync verwenden, aber ich denke, dass ich übergreifend wohl in Zukunft FreeFileSync einsetze. „FreeFileSync“ weiterlesen

Ihr zuständiges FBI empfiehlt lokales NAS statt Cloud

Durch IT-Medien geistert die Meldung, dass das FBI „zutiefst besorgt“ über Apples neue Verschlüsselung ist. Denn mit der Einführung von Apples Advanced Data Protection könne man nicht mehr alle iPhones ungehindert ausspionieren. Deshalb will das FBI diese Ende-zu-Ende-Verschlüsselung für die Backups und andere Daten in der iCloud verbieten lassen. Was mich widerum zu der Frage führt, warum denn Hinz und Kunz und FBI ungefilterten Zugang zu allen iCloud-Konten haben dürfen? Und sollte das in USA legal sein – sind sich alle Apple- bzw. iCloud-Nutzer dieser Aufhebung jeder Privatshäre bzw. der Abschaffung von (virtuellem/geistigen) Eigentum im Klaren? Und was ist mit Nutzern außerhalb des Rechtssystems der USA (soll es ein paar wenige auch geben)? „Ihr zuständiges FBI empfiehlt lokales NAS statt Cloud“ weiterlesen

Liegengebliebene Tasks

Nachdem ich mit einer Remote-UML-Einzelschulung am Montag und Dienstag eine brutal lange Schulungsphase erst einmal abgeschlossen bzw. unterbrochen habe, kann ich mich jetzt endlich ein paar Tage liegengebliebenen Aufgaben widmen. Ich kann mich nicht mehr entsinnen, wann ich das letzte Mal so viele Schulungen so lange Zeit mehr oder weniger am Stück gehalten habe. Die letzten Jahre definitiv nicht mehr. Im Grunde ging diese Phase am 1. Oktober los und wurde zwar von einer Videosession für LiL und auch hin und wieder von einigen Tagen ohne Schulung unterbrochen. Aber an denen musste ich ja meine andere Arbeit samt den dauerhaften ILS-Korrekturen und Vorbereitungen der Schulungs-Sesions erledigen. Wenn man die letzten 3 Monate betrachtet, war meine Schulungsaktivität also prozentual höher als zig Jahre zuvor.
Was ich auch merke, denn ich habe die letzten Tage schon abgebaut. Ich bin mit der falschen Brille zum Radfahren gegangen, habe Stufen auf der Treppe übersehen, hatte Rücken vom vielen Sitzen, war gereizt etc. Die freien Tage über das Jahresende kommen dieses Mal wirklich dringend.
Ein Teil meiner liegengebliebenen Aufgaben dreht sich auch um die Synchronisation, Bereinigung und Neuinstallation meiner Rechner bzw. Datensicherungen. Das ist zwar auch Arbeit, aber macht mir Spaß und ist – für mich zumindest – eine entspannte bzw. sogar entspannende Tätigkeit.
Da ich gestern „geboostert“ wurde, hänge ich heute mit leichten Impfreaktionen sowieso etwas in den Seilen – zu der angesprochenen Erschöpfung durch die letzten Monate – und habe mal im Hintergrund meine Datensicherungen bereinigt bzw. mehrere externe Festplatten bereinigt und aufeinander abgestimmt. Bei der Datensicherung bin ich grundsätzlich „übervorsichtig“ und speichere im Grunde „ALLES“ redundant sowie zeitlich in ziemlich kurzen Abständen. Aber damit wird die Datenmenge auch gewaltig groß und nicht mehr wirklich überschaubar. Eine Bereinigung hatte wirklich Sinn gemacht.
Dazu habe ich mit meinem Matebook ein wirklich super schnelles, leistungsfähiges, transportables und hochwertiges Notebook. Aber als ich es Anfang 2019 gekauft hatte, gab es das Gerät zu einem adäquaten Preis nur mit einer Mini-SSD. Demensprechend bin ich dort leider immer am Limit der 256 GByte und muss regelmäßig das Teil säubern. Damit das aber nicht zu extrem wird, arbeite ich mit externen Festplatten – auch weil ich oft zwischen meiner Workstation und dem Notebook wechsele. Workstation in Bodenheim, das Matebook in Eppstein oder bei externen Einsätzen jeder Art. Die Daten will ich nicht ständig in die Cloud verschieben müssen – zumal ich der Verwendung einer Cloud sowieso in vielen Bereichen kritisch gegenüberstehe.
Nur habe ich mittlerweile zwei externe USB-Festplatten im Einsatz – eine große HD und eine kleine SSD mit 1 TByte. Zuerst war die HD (USB-2) da, aber der Performancegewinn mit der externen SSD (USB-3 bzw. Firewire) ist so groß (gemessen – Zugriffszeiten fast identisch wie bei der internen SSD), dass ich immer mehr Daten (Programme sowieso) auf diese verlagere. Damit schlägt die fehlende Kapazität meiner internen SSD nicht mehr so zu. Nur große Daten wie Videos für LiL und eines der Backups der NAS bleiben auf jeden Fall auf der externen HD. Aber …
Ich habe in der letzten UML-Schulung gemerkt, dass sich über die letzten Monate die Daten ziemlich unstrukturiert auf die externe HD und die externe SSD verteilt haben und ich auch da komplett die Übersicht verloren habe. Suchtools sei Dank habe ich zwar immer gefunden, was ich gebraucht habe. Aber die Abstimmung bzw. Neustrukturierung der beiden externen Datenträger aufeinander war mal dringend gegeben.
Eine weitere Aufgabe, die ich mir für die Jahresendtage aufgeschrieben habe, war die Reaktivierung meines uralten HP EliteBook. Das hatte ich mal als Gebrauchtgerät gekauft und es muss m.E. mindestens 12 – 15 Jahre alt sein. Vermutlich noch älter. Ich brauche es nicht wirklich und die Reaktivierung kann man fast als „Hobby“ abtun. Aber es läuft in der Tat mit Windows 10 und ich habe darauf auch lizenziertes MS-Office installiert. Die Lizenzen will ich eigentlich nicht verlieren und deshalb habe ich die Lizenzen versucht auszulesen, um sie ggfls. auf einem anderen Gerät noch zu nutzen. Das war leider nur teils erfolgreich und deshalb habe ich versucht, das EliteBook mit allen denkbaren Tools zu bereinigen, zu entschlacken und zu beschleunigen. Denn der Start von Windows als auch vor allen Dingen Programmen ist dermaßen langsam – eigentlich kann man damit nicht arbeiten. Wenn nur nicht die Lizenzen wären, die ich zum Teil einfach nicht mehr rausbekomme bzw. deren Keys ich nicht mehr finde. Als Resultat meiner Optimierung läuft das EliteBook jetzt wirklich etwas besser, aber es ist absolut an der Grenze der Verwendbarkeit. Ich bin noch am Überlegen, ob die Lizenzen es wert sind oder ich nicht lieber ein Linux darauf installieren, dass mit der uralten Hardware besser zurecht kommen wird. Wie gesagt – ich brauche das EliteBook nicht wirklich und auch die Neuinstallation mit Linux wäre unter „Hobby“ bzw. ggf.. Wissenserweiterung (wobei da nichts Neues auftreten sollte) zu verbuchen.

Der letzte Nagel hat gehalten

Die externe Festplatte in meinem Eppsteiner Büro hatte tatsächlich noch alle Daten, die auf sämtlichen anderen Systemen weg waren. Das waren wie schon gepostet zwar nur archivierte Einsendeaufgaben und Fachfragen, die ich vermutlich nie wieder ansehen muss. Aber dennoch bin ich froh, dass die letzte Mauer in meinem Datensicherungskonzept gehalten hat. Man sieht mal wieder, dass ein eingefrorener, sicherer Stand unabdingbar ist. Jetzt muss ich meinen Denkfehler in den Syncronisierungsskripten der anderen Systeme noch finden und die Gesichte ist ohne Verluste von der Bühne.

Denkfehler in meiner Backup-Strategie

Durch den Corona-Lockdown muss ich jede Chance nutzen, um an die frische Luft zu kommen. Sonst komme ich ja gar nicht mehr aus dem Haus und ohne Frischluft bekomme ich Kopfschmerzen. Dann stehen entweder Joggen oder Radfahren an. Eben gab es wieder so eine Chance und ich bin trotz Nässe und Matsch – wenigstens sah es aber durch ein bisschen Schnee ganz nett aus – kurz mit dem Rad um die Ecken gedüst. Denn die Zeit war plötzlich da. Mein Arbeitsplan für heute morgen war hinfällig, denn ich habe irgendwo einen massiven Fehler in meiner Backupstrategie.

Zum zweiten Mal in den letzten Wochen waren Daten weg von den Kursen, die ich bei der ILS betreue. Nicht dramatisch, denn das waren nur erledigte Korrekturen und Fachfragen sowie PDFs, die ich mir jederzeit wieder laden kann. Aber dennoch archiviere ich die Sachen zur Sicherheit gerne. Und bei  5 von 8 Verzeichnissen waren auf einmal alle Daten weg, die nicht von dem Jahr 2021 waren. Natürlich habe ich meine Backups, die ich mit Synctoy synchronisiere, sofort durchsucht. Aber alle 4 Backups hier vor Ort waren synchron. Auch auf den NAS. So, wie es eigentlich sein soll, aber jetzt das Problem ist. Und in der Cloud habe ich die Dinge auch nicht gesichert, denn die sind wie gesagt nicht ganz so wichtig und der Speicherplatz in der Cloud mit anderen Daten zu.

Ich muss irgendeine Einstellung in Synctoy verdreht haben und das dringend finden. Wenn das bei wichtigen Daten passiert, sind alle Backups für die Tonne.  Nun habe ich auf einer externen Festplatte einen alten Stand von Anfang 2020 gefunden und den kopiere ich gerade zurück. Was meine externe Festplatte, das NAS und mein Notebook blockiert und zu eingangs besagter Freizeit und der kleinen Radtour heute morgen geführt hat. Denn da müssen mehrere Gigabyte mit verdammt vielen kleinen Dateien hin- und hergeschoben werden und das dauert ein paar Stunden. Die Dateien aus dem Jahr 2020 sollte ich auch wiederfinden, denn ich habe dieses Jahr meine externe Datensicherung in Eppstein schon aktualisiert und da sollten die dann noch fehlenden Dateien drauf sein – wenn die Festplatte nicht gecrashed ist. Aber das war verdammt knapp und ich muss dringend mehr Sorgfalt walten lassen. Gerade beim Löschen, denn ich schaffe immer wieder Platz, um nicht zu viele Dateileichen mitzuschleppen – was das Problem vermutlich ist.  Ein falsches Sicherheitsgefühl kann da gewaltig in die Hose gehen.

Backup in der Cloud

Das Thema „Cloud“ ist ja mittlerweile kalter Kaffee. Aber ich wollte da bisher trotzdem noch nicht so richtig ran. Oder anders ausgedrückt – ich will meine Daten lokal bzw. auf dem eigenen NAS haben und nicht „irgendwo“ in einer Wolke. Denn wenn ich mal wieder offline bin (was leider regelmäßig vorkommt), sind Daten in der Cloud keine Daten. Nicht umsonst spricht man bei entsprechend geformten Wolken von Luftschlössern.

Gerade die aktuelle Lage macht den Zugriff auf Cloud-Dienste noch ungleich unzuverlässiger, da das Internet durch die vielen Homeoffice-Arbeitsplätze und virtuellen Veranstaltungen in Schulen und Unis komplett am Anschlag fährt und eben oft zusammenbricht. Deutschland lebt halt in der digitalen Steinzeit.

Aber für Backups sehe ich Cloud-Speicher schon als attraktiv (und natürlich den Datenaustausch – keine Frage), denn da kommt es nicht darauf an, ob die Daten in Time bereitstehen oder der Upload zu einem bestimmten Zeitpunkt durchgeht. Neben meinen lokalen Backups auf mehreren externen Festplatten (lokal verteilt) und dem NAS sind mehrere Cloud-Drives als (natürlich verschlüsselte) Backups der eigentlichen Backups unzweifelhaft sinnvoll. Wenn nur die Zugriffszeiten praktikabel wären. Ich habe hier einen hoch komprimierten Extrakt meiner wichtigsten Daten in der Größenrodung von ca 3 GByte (nur die allerwichtigsten Sachen) bis hin zu etwa 20 GByte, wenn so alles halbwegs Wichtige in Archive komprimiert wird. Bilder und Videos etc. außen vor.

Nun hatte ich schon mehrmals eine mittlere Variante von etwa 6 – 7 GByte zusammengestellt und zum Hochladen in mehrere Cloud-Interfaces gezogen. Vorgesten war dabei die geschätzte Upload-Zeit in Google Drive von Bodenheim aus 48 (!) Stunden (!). So ist das einfach nicht zu nutzen. Dann kam mir aber die Idee, die Daten per Festplatte mit in mein Büro in Eppstein zu nehmen und es von da zu versuchen. In Bodenheim habe ich ja auch nur DSL16 mit 1 MBit/s Upload, in Eppstein DSL100. Und nach einigen Messungen Upload-Speed bis zu 40 MBit/s. Beide Anschlüsse schwanken natürlich gewaltig in der verfügbaren Bandbreite, aber ich habe heute die Daten, für die ab Bodenheim 48 Stunden Upload-Zeit geschätzt war, in Eppstein in gut 30 Minuten (!) hochgeladen.

Auch wenn mein Anschluss in Eppstein ziemlich instabil läuft (heute schon wieder temporär offline – was wie gesagt das Problem ist, wenn man Daten in der Cloud in Time braucht oder auch Onlineschulungen halten will) – ab Bodenheim brauche ich es gar nicht zu versuchen mit der Cloud zu arbeiten. Hoffentlich klappt hier der Umstieg auf Glasfaser in 2 Monaten – dann sollte es auch von hier aus halbwegs gehen mit moderner, digitaler Arbeit.

Feines Tool zum Reinigen des PCs

Ich reinige immer wieder meine Rechner. Nicht zuletzt auch deshalb, weil gerade mein Matebook leider eine ziemlich kleine Festplatte hat und ich es immer am Rande der Datenkapazität betreibe. Aber auch aus Gründen der Privatsphäre und Performance meiner Rechner versuche ich immer wieder, die Systeme zu optimieren.

Mal mit mehr, mal mit weniger Erfolg bis hin zu gelegentlichen negativen Ergebnissen. Frei nach dem Motto:

Ein System wird solange optimiert, bis es nicht mehr läuft.

Aber da ich grundsätzlich mit einem mehrfachen, verteilten Backup-System arbeite (4 tagessynchrone und dazu 2 zumindest wochensynchrone Datensicherungen, eine räumlich externe, mindestens monatssynchrone Datensicherung sowie zwei Sicherungen der wichtigsten Daten in zwei verschiedenen Cloudsystemen und zudem ein jährliches Backup der absoluten Grunddaten auf einem USB-Stick im Safe einer Bank) und drei einsatzfähige Rechner mit weitgehend identischer Software und Konfiguration verfügbar habe, kann ich im Crash-Fall eines Rechners weiter arbeiten und eigentlich immer meine Systeme wiederherstellen.

Auch wenn ich die PCs schon 2x – 3x komplett neu aufsetzen musste. Das ist dann zwar Arbeit, aber ich lerne auch immer dabei wichtige Dinge für meinen täglichen Broterwerb.

Von daher bin ich immer wieder munter am Optimieren meiner Rechner und mit PrivaZer habe ich vor einigen Wochen ein kostenloses PC-Cleaner- & Privatsphäre-Tool entdeckt, welches einmal unerwünschte Spuren reinigt und zum andern viel Platz auf dem PC schafft sowie gleichzeitig die Performance optimiert. Das Tool überzeugt mich im Moment von all diesen Optimierungstools, die ich bisher ausprobiert habe, am Meisten. Das ist nur eine Momentaufnahme, aber erst einmal setze ich es bis auf Weiteres für meine regelmässigen Putzmassnahmen mit ein.