Da ich ja nicht nur regelmäßig meine Daten mit einen NAS synchronisiere, sondern ebenso mit mehreren gewöhnlichen externen Datenträgern sowie ein paar Rechnern, brauche ich ein Tool zu Synchronisierung. Derzeit nutze ich aus Windows heraus immer noch SyncToy, unter Linux kann ich natürlich rsync verwenden, aber ich denke, dass ich übergreifend wohl in Zukunft FreeFileSync einsetze. „FreeFileSync“ weiterlesen
Schlagwort: NAS
Ihr zuständiges FBI empfiehlt lokales NAS statt Cloud
Durch IT-Medien geistert die Meldung, dass das FBI „zutiefst besorgt“ über Apples neue Verschlüsselung ist. Denn mit der Einführung von Apples Advanced Data Protection könne man nicht mehr alle iPhones ungehindert ausspionieren. Deshalb will das FBI diese Ende-zu-Ende-Verschlüsselung für die Backups und andere Daten in der iCloud verbieten lassen. Was mich widerum zu der Frage führt, warum denn Hinz und Kunz und FBI ungefilterten Zugang zu allen iCloud-Konten haben dürfen? Und sollte das in USA legal sein – sind sich alle Apple- bzw. iCloud-Nutzer dieser Aufhebung jeder Privatshäre bzw. der Abschaffung von (virtuellem/geistigen) Eigentum im Klaren? Und was ist mit Nutzern außerhalb des Rechtssystems der USA (soll es ein paar wenige auch geben)? „Ihr zuständiges FBI empfiehlt lokales NAS statt Cloud“ weiterlesen
Thunderbird und das Zertifikat :-(
Diese Woche war ich zum Aufnehmen eines Videotrainings für LinkedIn Learning sowie der Erledigung einer weiteren Zusatzaufgabe hauptsächlich in meinem Büro in Eppstein. Da arbeite ich mit meinem Mate-Notebook. Ab Mittwoch konnte ich von da aber keine Mails mehr mit meinem Standard-Email-Account verschicken. Empfang ging und auch das Versenden meiner anderen Accounts beim GMX ging problemlos. Seltsamerweise ging das Versenden über meinen Standard-Email-Account per SmartPhone weiter ohne Probleme. Also habe ich ein Problem auf dem Matebook angenommen und mich erst einmal nicht weiter darum gekümmert. Aber zurück in Bodenheim konnte ich auch an der Workstation keine Emails mit dem Standard-Email-Account versenden. Was mich dazu gebracht hat, mir die Fehlermeldung anzusehen.
Ich habe nun einen eigenen V-Server und den zertifiziere ich mit Let’s Encryp. Thunderbird hat nun gemeldet, dass das Zertifikat meines Servers aber nicht ok wäre. Von einen Tag auf den anderen. Mein Zertifikat wird automatisiert in regelmäßigen Abständen erneuert und mittlerweile wird Let’s Encryp auch recht gut akzeptiert. Die plötzliche Meldung von Thunderbird war daher für mich unverständlich, auch wenn in der Tat der eingetragene Server im Zertifikat durch meinen V-Server wohl etwas kritisch sein kann. Aber man kann da ja Sicherheitsausnahmen in Thunderbird einrichten. Und genau das habe ich gemacht.
Wirkungslos. Beim Versenden per SMTP immer wieder die Fehlermeldung.
Also alle Einstellungen in Thunderbird von links auf rechts gedreht und wieder zurück. Verschlüsselungsverfahren, Ports, etc. in allen denkbaren Varianten ausprobiert.
Wirkungslos.
Dann auf dem Server explizit alle Zertifikatseinstellungen untersucht und aktualisiert bis hin zum Neustart des Servers.
Wirkungslos. Weiter die Fehlermeldung in Thunderbird und kein Versenden möglich.
Dann mich erinnert, dass das Versenden mit dem SmartPhone doch ging. Weiterhin keine Probleme. Und dann erinnert, dass ich auf meinem alten Terra-Notebook noch eine ältere Version von Thunderbird installiert hatte. Ausprobiert. Versenden problemlos möglich. Alle Einstellungen verglichen (inklusive Zertifikate). Identisch. Älterer Thunderbird – keine Probleme. Neuerer Thunderbird – ignoriert Sicherheitsausnahme und kein Versenden möglich. Angeblich könnte der Fehler in Thunderbird auch von Antivirenprogrammen kommen. Deaktiviert.
Wirkungslos.
Aus Verzweiflung andere E-Mail-Clients wie eM, Pegasus und sogar Outlook (was ich eigentlich unter keinen Umständen nutzen will) ausprobiert. Maximal ein Hinweis auf das Zertifikat und ob ich trotzdem den Server nutzen will? Danach Versenden problemlos möglich.
Nun nutze ich eine portable Version von Thunderbird und auf den NAS habe ich davon eine lauffähige Kopie, die ich aber schon seit vielen Monaten nicht mehr gestartet hatte. Mit all den gleichen Einstellungen, wie auf dem Notebook und der Workstation. Ausprobiert – Warnung hinsichtlich des Zertifikats. Sicherheitsausnahme eingerichtet. Versenden danach problemlos. Laden der Emails ebenso.
Alle Einstellungen verglichen – identisch.
Thunderbird – was machst Du?
Ich arbeite jetzt mit der Version vom NAS weiter, denn da ist vermutlich ein Update von Thunderbird unterblieben, das diesen ganzen Müll bewirkt, und vermeide eine Aktualisierung dieser Version. Außerdem behalte ich für alle Fälle noch Pegasus – auch wenn das Programm optisch schon antik daherkommt. Zudem hoffe ich, dass die Version von Thunderbird, die im Moment das Problem hat, durch ein kommendes Update vielleicht wieder korrigiert wird. Aber Spass machen diese elenden Probleme wirklich nicht und obwohl ich Thunderbird seit vielen Jahren die Treue halte – ich bin massiv am Überlegen, ob ich nicht auf ein anderes Email-Programm umsteige. Und wie ernst es mir ist, sollte man daran erkennen, dass ich sogar Outlook in Erwägung ziehe.
Großes Reinemachen der Datenträger
Diese Woche habe ich eine Remote-Schulung zu C# gehalten. Am Ende so einer Schulung gebe ich immer die von mir erstellten Quelltexte an meine Schulungsteilnehmer weiter. Da ich im Fall von so einer C#-Schulung natürlich mit Visual Studio arbeite, sind in meinen Projekten aber immer die ganzen *.dll, *.exe, *.obj und andere Dateien abgelegt, die beim Compilieren und Ausführen der Schulungsprojekte entstehen. Solche kompilierten Sachen sind für die Weitergabe an meine Teilnehmer natürlich unnötig und sogar kontraproduktiv, weil damit die weiterzugebenden Daten ziemlich umfangreich werden und – beim Verschicken über das Internet – die Firewall der Firmen, wo meine Teilnehmer arbeiten, diese Dateien meist grundsätzlich blockiert. Also stelle ich fast immer eine ZIP-Datei zusammen, die nur die eigentlichen Quelltexte und meist auch die Projekt- und IDE-Einstellungen enthält, wenn das – wie im Fall von Visual Studio – relevante Informationen sind.
Nun bin ich insbesondere bei meinem MateBook mit seiner extrem sparsamen 256 GByte-SSD schon seit Monaten am Limit und habe sogar diverse Verzeichnisse und Programme schon gelöscht oder auf eine externe SSD verschoben, die ich eigentlich gerne dabei bzw. auf der internen SSD des Notebooks gespeichert hätte.
Ich habe keine Ahnung, warum mir nie aufgefallen ist, dass ich vollkommen unnötig bei meinen ganzen Quelltexten der Bücher, Videotraining bei LinkedIn Learning, Schulungen und Kursen oft ebenfalls die ganzen *.dll, *.exe, *.obj und andere binäre Dateien sowie auch PlugIns und ähnliche Projektergänzungen und sogar alte Software, die ich in den Maßnahmen gebraucht hatte, mit gespeichert habe. Oder aufgefallen war mir das wohl schon – ich habe mich einfach nicht drum gekümmert.
Denn sinnvoll ist es schon, zu jeder Maßnahme (gleich ob Schulung, Buch, Videotraining, Kurs oder Projekt) die wirklich relevanten Dinge zu behalten. Ich speichere deshalb nach jeder Maßnahme auch die Projektdateien hinsichtlich der Programmierung. Die Einsendeaufgaben, die ich etwa bei der ILS erhalte, behalte ich ebenso auf Dauer. Und ich lege davon dann im Rahmen meiner üblichen Datensicherung auch zig Kopien an. Aber da ich vor dem Speichern als auch den Datensicherungen auf meinen vielen redundanten Medien in Bodenheim, Eppstein, der Cloud und im Banksafe eben fast nie aufgeräumt hatte, sind auf den Datenträgern mittlerweile so viele GByte an unnützem und zudem mehrfach redundantem Zeug entstanden, dass einfach mal ein großes Reinemachen notwendig war.
Diese unglaublich vielen Dateien machen ja auch eine Datensicherung wahnsinnig zeitintensiv, da das ganze überflüssige Zeug eine Synchronisation zeitlich förmlich explodieren lässt. Das habe ich gerade wieder bemerkt als ich meine externe Festplatte, die ich in Eppstein deponiert habe und so etwa einmal im Monat synchronisiere, auf Stand bringen wollte. Mein Datensicherungsprogramm SyncToy ist nur mit Fehlern durchgelaufen und die folgende direkte Kopieraktion von meinem NAS auf die Festplatte hat etwa 18 Stunden gebraucht.
Das hat mir gelangt und ich beseitige gerade über alle Datenträger hinweg die unnötigen binären Dateien. Im Wesentlichen befinden die sich bei Visual Studio-Projekten in den Verzeichnissen Debug und Release und bei Eclipse & Co ist das .metadata-Verzeichnis oft auch riesig und kann jederzeit bei Bedarf reproduziert werden.
Also weg mit dem Zeug und noch den Installationsdateien einiger alter Software und ähnlichen Dingen. Ich denke, dass ich so pro Rechner bzw. Datensicherungsmedium vielleicht 10 – 40 GByte Platz gewinne. Kann auch deutlich mehr sein, aber die vielleicht 200 – 400 GByte, die ich damit over-all frei mache, sind gar nicht der Punkt.
Die Sache wird übersichtlicher und eben bei der Synchronisation während Datensicherungen deutlich schneller und auch stabiler. Der Upload auf Cloud-Datenspeicher geht natürlich ebenso viel schneller (gerade der) und eine komprimierte Datensicherung (auch Anlegen und Entpacken eines Archivs geht natürlich viel fixer) sollte vielleicht sogar wieder auf einen USB-Stick für den Banksafe passen.
Nur jetzt muss erstmal der bereinigte Stand synchronisiert werden und da greift nochmal das zeitlich aufwändige Problem, dass so viel Zeug an den verschiedensten Stellen auf NAS & Co gelöscht werden muss. Aber wenn die große Putzaktion durch ist, sollte ich auf Dauer viel Zeit gewinnen.
Liegengebliebene Tasks
Nachdem ich mit einer Remote-UML-Einzelschulung am Montag und Dienstag eine brutal lange Schulungsphase erst einmal abgeschlossen bzw. unterbrochen habe, kann ich mich jetzt endlich ein paar Tage liegengebliebenen Aufgaben widmen. Ich kann mich nicht mehr entsinnen, wann ich das letzte Mal so viele Schulungen so lange Zeit mehr oder weniger am Stück gehalten habe. Die letzten Jahre definitiv nicht mehr. Im Grunde ging diese Phase am 1. Oktober los und wurde zwar von einer Videosession für LiL und auch hin und wieder von einigen Tagen ohne Schulung unterbrochen. Aber an denen musste ich ja meine andere Arbeit samt den dauerhaften ILS-Korrekturen und Vorbereitungen der Schulungs-Sesions erledigen. Wenn man die letzten 3 Monate betrachtet, war meine Schulungsaktivität also prozentual höher als zig Jahre zuvor.
Was ich auch merke, denn ich habe die letzten Tage schon abgebaut. Ich bin mit der falschen Brille zum Radfahren gegangen, habe Stufen auf der Treppe übersehen, hatte Rücken vom vielen Sitzen, war gereizt etc. Die freien Tage über das Jahresende kommen dieses Mal wirklich dringend.
Ein Teil meiner liegengebliebenen Aufgaben dreht sich auch um die Synchronisation, Bereinigung und Neuinstallation meiner Rechner bzw. Datensicherungen. Das ist zwar auch Arbeit, aber macht mir Spaß und ist – für mich zumindest – eine entspannte bzw. sogar entspannende Tätigkeit.
Da ich gestern „geboostert“ wurde, hänge ich heute mit leichten Impfreaktionen sowieso etwas in den Seilen – zu der angesprochenen Erschöpfung durch die letzten Monate – und habe mal im Hintergrund meine Datensicherungen bereinigt bzw. mehrere externe Festplatten bereinigt und aufeinander abgestimmt. Bei der Datensicherung bin ich grundsätzlich „übervorsichtig“ und speichere im Grunde „ALLES“ redundant sowie zeitlich in ziemlich kurzen Abständen. Aber damit wird die Datenmenge auch gewaltig groß und nicht mehr wirklich überschaubar. Eine Bereinigung hatte wirklich Sinn gemacht.
Dazu habe ich mit meinem Matebook ein wirklich super schnelles, leistungsfähiges, transportables und hochwertiges Notebook. Aber als ich es Anfang 2019 gekauft hatte, gab es das Gerät zu einem adäquaten Preis nur mit einer Mini-SSD. Demensprechend bin ich dort leider immer am Limit der 256 GByte und muss regelmäßig das Teil säubern. Damit das aber nicht zu extrem wird, arbeite ich mit externen Festplatten – auch weil ich oft zwischen meiner Workstation und dem Notebook wechsele. Workstation in Bodenheim, das Matebook in Eppstein oder bei externen Einsätzen jeder Art. Die Daten will ich nicht ständig in die Cloud verschieben müssen – zumal ich der Verwendung einer Cloud sowieso in vielen Bereichen kritisch gegenüberstehe.
Nur habe ich mittlerweile zwei externe USB-Festplatten im Einsatz – eine große HD und eine kleine SSD mit 1 TByte. Zuerst war die HD (USB-2) da, aber der Performancegewinn mit der externen SSD (USB-3 bzw. Firewire) ist so groß (gemessen – Zugriffszeiten fast identisch wie bei der internen SSD), dass ich immer mehr Daten (Programme sowieso) auf diese verlagere. Damit schlägt die fehlende Kapazität meiner internen SSD nicht mehr so zu. Nur große Daten wie Videos für LiL und eines der Backups der NAS bleiben auf jeden Fall auf der externen HD. Aber …
Ich habe in der letzten UML-Schulung gemerkt, dass sich über die letzten Monate die Daten ziemlich unstrukturiert auf die externe HD und die externe SSD verteilt haben und ich auch da komplett die Übersicht verloren habe. Suchtools sei Dank habe ich zwar immer gefunden, was ich gebraucht habe. Aber die Abstimmung bzw. Neustrukturierung der beiden externen Datenträger aufeinander war mal dringend gegeben.
Eine weitere Aufgabe, die ich mir für die Jahresendtage aufgeschrieben habe, war die Reaktivierung meines uralten HP EliteBook. Das hatte ich mal als Gebrauchtgerät gekauft und es muss m.E. mindestens 12 – 15 Jahre alt sein. Vermutlich noch älter. Ich brauche es nicht wirklich und die Reaktivierung kann man fast als „Hobby“ abtun. Aber es läuft in der Tat mit Windows 10 und ich habe darauf auch lizenziertes MS-Office installiert. Die Lizenzen will ich eigentlich nicht verlieren und deshalb habe ich die Lizenzen versucht auszulesen, um sie ggfls. auf einem anderen Gerät noch zu nutzen. Das war leider nur teils erfolgreich und deshalb habe ich versucht, das EliteBook mit allen denkbaren Tools zu bereinigen, zu entschlacken und zu beschleunigen. Denn der Start von Windows als auch vor allen Dingen Programmen ist dermaßen langsam – eigentlich kann man damit nicht arbeiten. Wenn nur nicht die Lizenzen wären, die ich zum Teil einfach nicht mehr rausbekomme bzw. deren Keys ich nicht mehr finde. Als Resultat meiner Optimierung läuft das EliteBook jetzt wirklich etwas besser, aber es ist absolut an der Grenze der Verwendbarkeit. Ich bin noch am Überlegen, ob die Lizenzen es wert sind oder ich nicht lieber ein Linux darauf installieren, dass mit der uralten Hardware besser zurecht kommen wird. Wie gesagt – ich brauche das EliteBook nicht wirklich und auch die Neuinstallation mit Linux wäre unter „Hobby“ bzw. ggf.. Wissenserweiterung (wobei da nichts Neues auftreten sollte) zu verbuchen.
Mac Mini als Druckserver
Im Rahmen der Neugestaltung meines Büros mit eingeschlossenem grundlegendem Neuaufbau meiner IT bin ich zwei Probleme bzw. Fragen angegangen, die ich schon viele Monate nicht so richtig gelöst habe.
- Wie bekomme ich meinen Drucker-Fehlkauf – den Samsung Xpress M2026w Laserdrucker – doch noch vernünftig im Netzwerk zu laufen?
- Was mache ich mit meinem uralten, überzähligen Mac Mini?
Der Samsung-Drucker bekommt von mir die Krone für meine schlechteste IT-Anschaffung ever. Billig war er, aber ständig hat das Dreckding Ärger gemacht. Dabei ist es nicht einmal so schlimm, dass man den Papierschacht nur halb voll machen kann und Papierstau oder nicht richtig eingezogene Blätter den Ausdruck behindern. Das Schriftbild ist zumindest ok. Aber – der Drucker ist funktioniert im W-LAN total unzuverlässig. Deshalb habe ich ihn nach viel Arbeit und Ärger irgendwann per USB an mein NAS angeschlossen. Von ein paar Rechnern – vor allen Dingen aus Linux heraus – war er damit halbwegs zuverlässig anzusprechen. Aber von mehreren anderen Rechnern ging auch dann einfach nichts. Nun habe ich beim Neuaufbau der IT in meinem Büro eine Weile experimentiert. Sowohl an mehreren Windows- als auch Linux-Rechnern wird der Drucker per USB erkannt. Aber im Netzwerk ist er – trotz Freigabe und allen denkbaren Einrichtungen – nicht anzusprechen. Man sieht ihn, aber er reagiert einfach nicht auf Druckaufträge oder die Abfrage des Status. In alle Richtungen:
- Linux -> Linux
- Linux -> Windows
- Windows-> Linux
- Windows-> Windows
Keine Chance. Ich habe sogar meinen Rasberry PI 1 als Druckserver ausprobiert, aber da wurde der Drucker noch nicht einmal richtig erkannt.
Dann kam mir mein zweites IT-Problem in den Sinn – was mache ich mit dem Mac Mini? Meine Abneigung gegen Apple-Produkte ist ja bekannt, wenn man meinen Blog liest. Die Dinger sind viel zu teuer, zu unfrei bzw. zensiert, zu eigenwillig zu bedienen und zu viel auf Schein statt Sein optimiert (Design statt Funktionalität). Aber in einem Punkt hatte ich meinen alten Mac Mini über die Corona-Krise schätzen gelernt. Über mehrere Monate musste ich mit meiner Band Corona-bedingt eine Pause hinsichtlich von Live-Proben einhalten. Aber wir hatten uns zu regelmäßigen virtuellen Proben mit JamKazam aufgerafft und das ging mit keiner anderen Hardware auch nur ansatzweise so gut wie mit dem Mac Mini. Seit wir aber wieder live proben können, habe ich einfach keinen Bedarf mehr an dem Mac Mini. Ich kann das macOS einfach nicht bedienen. Es ist mir (!) viel zu wenig intuitiv, unlogisch, beschränkt und unbequem.
Aber unter dieser unangenehmen Oberfläche und hinter dem ganzen lächerlichen Rummel um Apple befindet sich eine solide Basis. Denn der Drucker war am Mac Mini sofort eingerichtet (ok – das ging unter Linux und Windows am USB-Port auch) als auch direkt im Netzwerk verfügbar. Und das habe ich wie gesagt mit keiner anderen Konstellation hinbekommen.
Der alte Mac Mini von 2013 wird also sein – vermutlich 4. oder 5. – Leben in Zukunft als Druckserver fristen. Ohne Monitor, Tastatur oder Maus. Aber natürlich ist SSH- und VNC-Zugriff auf dem Teilchen eingerichtet – für alle Fälle.
Apropos „Für alle Fälle“: wenn die Sache mit Corona sich weiter so schlimm entwickelt, kann er (leider) vielleicht seinen Zwei-Job für virtuelle Proben mit JamKazam wiederaufnehmen :-(.
Habemus Glasfaser
Ich habe schon nicht mehr daran geglaubt, aber seit heute gegen 12:00 Uhr gibt es an meinem Standort in Bodenheim funktionierend einen Glasfaseranschluss. Die Sache war bisher eine wahre Horrorstory. Im November 2019 (!) habe ich den Vorvertrag mit EWR abgeschlossen. Es war dabei klar, dass es noch bis August 2020 dauern wird, bis die Glasfaserleitungen verlegt sind. Das war mir egal, weil mein damaliger Providervertrag erst zum März 2021 gekündigt werden konnte. Aber dass die Sache sich dann noch ewig hinziehen würde und sich eine Panne an die nächste reihen sollte, hätte ich nie erwartet.
Die Kabel kamen erst im Januar 2021 im Keller an, aber immerhin noch 2 Monate vor der geplanten Freischaltung. Aber dann wurden wir einfach im Regen stehen lassen. Nichts ist passiert, der alte Providervertrag, der von EWR gekündigt werden sollte, wurde nicht rechtzeitig gekündigt und bei uns im Haus ist ein nicht weitergegangen. Mehrere E-Mails an EWR haben keine Fortschritt gebracht.
Irgendwann Ende März bekamen wir nach vielen, vielen E-Mails an EWR ein Anschlusskit, um aus dem Keller die Glasfaserleitung ins Haus zu bekommen. Das hat Anfang April ein Elektriker erledigt, den wir selbst beauftragt hatten. Aber das Zusammenflicken der beiden Enden durfte er nicht machen und nach zig weiteren E-Mails an EWR wurden dann endlich letzte Woche die Enden verknotet.
Ob damit alles fertig wäre, habe ich die Techniker gefragt. Antwort – Ja.
Also Router für Glasfaser bestellt und erst beim Versuch des Anschließens bemerkt, dass da noch ein Glasfasermodem fehlt. Ich bin Softwareexperte und auf Hardwareseite eher unbedarft. Ich dachte ernsthaft, dass die neue Fritz!Box 7590, die ich mir angeschafft hatte, weil Glasfaer-ready das erledigt. Ist nicht der Fall und EWR hatte vergessen, ein Glasfasermodem anzuschließen.
Also wieder eine E-Mail an EWR und mittlerweile in einem alles andere als freundlichen Ton. Aber das scheint gewirkt zu haben. Gestern (Feiertag!!) kam ein Anruf, dass heute das Glasfasermodem nachgeliefert wird. Gegen 14:00 Uhr. 11:30 Uhr hat es geklingelt und ein Monteur war da und hat das Ding montiert. 14:00 Uhr hat es wieder geklingelt und ein weiterer Monteur wollte das Glasfasermodem anbringen. Der wusste nichts von Monteur 1! Ich habe den Eindruck, bei der Projektleitung von EWR weiß die linke Hand nichts von der rechten Hand. Unglaublich. Was sich EWR bei meinem Anschluss leistet, spottet jeder Beschreibung. Ich habe das Gefühl, da gibt es kein Pflichtenheft oder eine Checkliste oder ein Ticketsystem. Mittlerweile habe ich den Eindruck, dass der Bruder von dem Freund einer Tochter die „Planung“ nebenher macht. So wie bei manchen Webseiten.
Es muss doch klar sein, in welcher Reihenfolge welche Schritte durchzuführen sind. Wenn schon die verschiedenen Technikergruppen keine Ahnung von den Aktionen der anderen Gruppen haben. Es kann nicht meine Aufgabe als Kunde sein, EWR zu sagen, welche technischen Maßnahmen durchzuführen sind. Ich bin Laie. Zumindest als Kunde, auch wenn ich als IT-Spezialist definitiv mehr Kenntnisse habe als ein „normaler“ Anwender. Aber einerseits bin ich bekanntlich auf die Softwareseite spezialisiert und kenne Hardware nur peripher. Andererseits ist es eben wie gesagt nicht meine Verpflichtung, den Workflow von EWR zu kontrollieren. Vor allen Dingen ist der Informationsfluss von EWR zu mir als Kunde auch absolut mangelhaft. In Eppstein habe ich aktuell DSL100 und brauche eigentlich kein Glasfaser. Aber da der Rest der Strasse da mitmacht, habe ich mich angeschlossen. Von der dort zuständigen Deutschen Glasfaser bekomme ich im Vorfeld detailliert die Arbeitsschritte mitgeteilt, die sie ausführen. Das geht ab wie Schnitts-Katze. Ich hatte schon befürchtet, dass ich in Eppstein – wo ich es nicht brauche – früher den Glasfaseranschluss habe als in Bodenheim, wo mein DSL16 komplett an der Belastungsgrenze ist.
Aber sei es drum – nachdem das Glasfasermodem angeschlossen war, ging der Anschluss. Allerdings war die Einrichtung des Routers alles andere als trivial, denn es gab von EWR keinerlei Informationen, welche Daten man im Router einzurichten hatte. Vor allen Dingen die VLAN-ID hätte ich niemals erraten. Vermutlich nicht einmal herausbekommen, dass man die vorgeben muss. Hätte mein Nachbar nicht vor einigen Wochen mit der gleichen Hardware seinen Glasfaseranschluss eingerichtet und mir eine Anleitung geschickt, wäre ich voll aufgelaufen. Das hatte er im Internet gefunden und die Infos hätte ich von EWR erwartet:
- Anschluss an externes Modem oder Router
- Internetverbindung selbst aufbauen
- Zugangsdaten benötigt? Nein
- Verbindungseinstellungen ändern
- VLAN für den Internetzugang verwenden: Ja
- VLAN-ID: 132
- IP-Einstellungen:
- IP-Adresse automatisch über DHCP beziehen: Ja
- DHCP-Hostname: fritz.box
- VLAN für den Internetzugang verwenden: Ja
Aber nun läuft die Sache und nach und nach muss ich alle Geräte in meinem lokalen Netzwerk samt den Telefonen umstellen. Denn mein alter Providervertrag ist immer noch aktiv und vor allen Dingen laufen darüber weiter die Telefonnummern. Die Story wird also weiter gehen – auch in Hinsicht darauf, wer nur den überflüssigen Providervertrag bis zum Ende der Laufzeit zahlt. Denn die Kündigung des alten Vertrags hat nach dem Glasfaserabschlussvertrag EWR machen müssen und die Frist versäumt. Wir werden es sehen.
Ich habe jetzt bei dem neuen Glasfaseranschluss auch erst einmal ganz unten begonnen und nur 50 Mbit/s im Download und 10 Mbit/s im Upload abgeschlossen. Ein Witz gegenüber meinem DSL-Anschluss in Eppstein, wo ich ja schon echte 80 Mbit/s im Download und vor allen Dingen fast 40 Mbit/s im Upload realisieren kann. Und der neue Glasfaseranschluss in Eppstein wird 300 Mbit/s im Download erreichen und dabei sogar 5 EUR/Monat billiger als der bisherige DSL-Anschluss oder der gleichteuere Schneckenglasfaseranschluss in Bodenheim. Aber ich habe in Bodenheim keine Wahl und wichtig ist, dass das vollkommen überlastete DSL16 jetzt ersetzt wird. Wenn ich hier mehr als 50 Mbit/s brauche – Aufbohren des Vertrags geht immer und ich habe darauf geachtet, dass die neue Fritz!Box auch mit schnelleren Verbindungen zurechtkommt. Soweit ich es auf der Beschreibung verstehe, geht die bis zu einem GBit.
Jetzt ist erst einmal Thema, wie ich im Haus das Netzwerk in Gang bekomme und alle Geräte überführe. Demn leider steht die neue Fritz!Box jetzt im Erdgeschoss und nicht mehr in meinem Büro im zweiten Stock wie bisher. Meine wichtigen Geräte habe ich im Moment per Ethernet am Router angeschlossen, aber ich kann und will keine Leitungen durch das Haus bis zur Fritz!Box im Ergeschoss ziehen. Das W-LAN-Signal ist aber so schwach, dass es zwar im Treppenhaus in den 2. Stock reicht, aber nicht mehr ins Büro. Das war mir jedoch vorher klar und ich habe noch einen zusätzlich Repeater 2400 gekauft, um damit ein Mesh-WLAN aufzubauen. Nach diversen Versuchen mit der richtigen Position geht das jetzt auch einigermaßen. Ich bekomme zwar keine 50 Mbit/s (wie im Ergeschoss) in die hintere Ecke des Büros, aber so zwischen 30 – 45 Mibt/s kommen bei den derzeitigen Positionen des Mesh-Servers und Mesh-Clients an. Das ist ok.
Nur die Latenz ist mit WLAN richtiger Mist. Trotz oder vielleicht wegen dem Mesh. Da kann man vermutlich nichts groß mache. Auch sendet das Mesh nur auf 2,4 GHz. Zumindest der Repeater, während die eigentliche Fritz!Box mit 2,4 und 5 GHz sendet. Bei 5 GHz ist der Datendurchsatz im W-LAN deutlich besser als bei 2,4 GHz, aber die Reichweite erheblich schlechter. Mit 173 Mbit/s beim 2,4 GHz-Netz sollte es mit dem Internet jedoch ok sein. Das ist ja mindestens 3x langsamer und wenn ich aufbohre, muss ich mir was überlegen.
Nur für das interne Netz hätte ich schon gerne mehr Datendurchsatz. Zudem – da ich weder für meine Workstation noch mein NAS einen W-LAN-Adapter habe (auch wenn die nur einen Apple 😉 kosten – muss ja nicht sein), werde ich die beiden wohl weiter mit Ethernet betreiben. Zumindest scheint der Repeater einen Ethernet-Anschluss zu haben und wenn ich meine TP-Link Gigabit Switch da ranklemme und Workstation und NAS und vielleicht auch mein Terra-Notebook an die Switch, sollte dazwischen der Datenaustausch schneller gehen und die Geräte dennoch direkt über den Repeater ins Internet kommen. Da muss ich ein bisschen noch basteln. Derzeit messe ich mit Jperf mein Netzwerk durch und da kommt mit Ethernet ein ganz guter Datendurchsatz mit fast 200.000 KBit/s raus. Da werde ich das lahme W-LAN wirklich nicht für die Verbindung zur NAS verwenden.
Denkfehler in meiner Backup-Strategie
Durch den Corona-Lockdown muss ich jede Chance nutzen, um an die frische Luft zu kommen. Sonst komme ich ja gar nicht mehr aus dem Haus und ohne Frischluft bekomme ich Kopfschmerzen. Dann stehen entweder Joggen oder Radfahren an. Eben gab es wieder so eine Chance und ich bin trotz Nässe und Matsch – wenigstens sah es aber durch ein bisschen Schnee ganz nett aus – kurz mit dem Rad um die Ecken gedüst. Denn die Zeit war plötzlich da. Mein Arbeitsplan für heute morgen war hinfällig, denn ich habe irgendwo einen massiven Fehler in meiner Backupstrategie.
Zum zweiten Mal in den letzten Wochen waren Daten weg von den Kursen, die ich bei der ILS betreue. Nicht dramatisch, denn das waren nur erledigte Korrekturen und Fachfragen sowie PDFs, die ich mir jederzeit wieder laden kann. Aber dennoch archiviere ich die Sachen zur Sicherheit gerne. Und bei 5 von 8 Verzeichnissen waren auf einmal alle Daten weg, die nicht von dem Jahr 2021 waren. Natürlich habe ich meine Backups, die ich mit Synctoy synchronisiere, sofort durchsucht. Aber alle 4 Backups hier vor Ort waren synchron. Auch auf den NAS. So, wie es eigentlich sein soll, aber jetzt das Problem ist. Und in der Cloud habe ich die Dinge auch nicht gesichert, denn die sind wie gesagt nicht ganz so wichtig und der Speicherplatz in der Cloud mit anderen Daten zu.
Ich muss irgendeine Einstellung in Synctoy verdreht haben und das dringend finden. Wenn das bei wichtigen Daten passiert, sind alle Backups für die Tonne. Nun habe ich auf einer externen Festplatte einen alten Stand von Anfang 2020 gefunden und den kopiere ich gerade zurück. Was meine externe Festplatte, das NAS und mein Notebook blockiert und zu eingangs besagter Freizeit und der kleinen Radtour heute morgen geführt hat. Denn da müssen mehrere Gigabyte mit verdammt vielen kleinen Dateien hin- und hergeschoben werden und das dauert ein paar Stunden. Die Dateien aus dem Jahr 2020 sollte ich auch wiederfinden, denn ich habe dieses Jahr meine externe Datensicherung in Eppstein schon aktualisiert und da sollten die dann noch fehlenden Dateien drauf sein – wenn die Festplatte nicht gecrashed ist. Aber das war verdammt knapp und ich muss dringend mehr Sorgfalt walten lassen. Gerade beim Löschen, denn ich schaffe immer wieder Platz, um nicht zu viele Dateileichen mitzuschleppen – was das Problem vermutlich ist. Ein falsches Sicherheitsgefühl kann da gewaltig in die Hose gehen.
Mein Druckerfehlkauf nervt immer mehr
Ja ja – wenn man billig kauft, kauft man mehrfach. Aber so einen Fehlkauf wie den Samsung Xpress M2026w Laserdrucker hatte ich bei einem IT-Gerät glaube ich noch nie gemacht. Das Ding war in der Tat billig, aber selbst das wenige Geld war zuviel für den Schrott. Zumal der gesamte Ärger und die permanente Zeit, um das Dreckding doch noch immer wieder neu zum Laufen zu bringen, auch gerechnet werden muss. Denn „Zeit ist Geld“ ist gar nicht falsch.
Dabei ist es nicht einmal so schlimm, dass man den Papierschacht nur halb voll machen kann und ständig Papierstau oder nicht richtig eingezogene Blätter den Ausdruck behindern.Was soll man bei so einem billigen Ding mehr erwarten? Wenn denn der Druck rauskommt, ist das Schriftbild auch ok.
Aber – der Drucker ist irgendwie immer nur rein zufällig im W-LAN angemeldet (oder eben auch nicht), meldet sich dann aber auch wieder willkürlich ab, um dann nach zig Neustarts irgendwann mal sich arbeitsbereit zu melden. Und sich dann aber ziemlich unvorhersehbar zwar erreichbar, aber offline zu melden. Aber das ist dann oft ebenso ein Fake – denn mit bestehender Fehlermeldung wird er dann manchmal doch drucken (was zu unnötigen Mehrfachausdrucken führen kann). Oder auch nicht.
Ich hab die Faxen jetzt dicke gehabt und das Dreckding per USB an mein NAS angeschlossen. Da dort ein Linux-System läuft, wurde der Drucker auch sofort erkannt und bereitgestellt. In Windows gab es dann natürlich ein paar Treiberprobleme beim Konfigurieren eines Netzwerksdruckers, aber die Einrichtung ging dann doch irgendwann.
Da der Drucker damit aus dem ganzen W-LAN-Chaos raus ist, bleibt nur noch das unerklärliche, aber selbst bei USB-Verbindung immer noch auftretende Offline-Problem. Naja – 50% der Verbindungsprobleme sind weg und bevor der Hammer das Elend erledigt, will ich noch den schon gekauften Toner verbrauchen.
Aber dann werde ich vermutlich mit Genuss das Ding kurz-und-klein kloppen.
Workstation wieder zusammengeklebt
Meine Workstation ist soweit wieder „zusammengefrickelt“. Im Grunde geht fast alles wieder, aber vieles macht auch den Eindruck als wäre es „zusammengeklebt“.
Das fängt an bei der Classic Shell, die nicht mehr arbeitet – dafür aber die Open Shell halbwegs. Und SyncToy zum Synchronisieren der Daten mit dem NAS funktioniert in der 64-Bit-Version nicht, aber in der 32-Bit-Version. Dazu fehlen die Zuordnungen der Standardprogramme und ich kann etwa aus verschiedenen Programmen keine HTML-Links direkt öffnen. Alles Kleinkram der nervt, der jedoch nicht wirklich ein Problem darstellt. Dennoch – ständig stoße ich auf solche Kleinigkeiten, die mich erstmal ausbremsen. Vielleicht werde ich nicht umhinkommen und den Rechner doch komplett neu aufsetzen müssen. Mal abwarten. Ich habe das Gefühl wie bei einer gerissenen Leine, deren Teile zwar mit absolut sicheren Knoten wieder verbunden wurden – aber ein ungutes Gefühl bleibt.
Dabei habe ich in der Tat keinerleie Daten verloren. Und auch wenn die Wiederherstellung der Workstation über 24 Stunden gedauert hat – viel Zeit war einfach Warten auf Downloads oder ob die Systemwiederherstellung irgendwann fertig wird. Die altiven Schritte sind ansonsten fast vollständig nebenher gelaufen als ich auf dem Matebook gearbeitet habe.
Ich hatte ja bei dem Crash diverse Programme „verloren“, aber die ließen sich nahezu alle schnell laden und wieder installieren. Was den positiven Nebeneffekt hat, dass auch die Programme jetzt auf dem aktuellen Stand sind, die ich bisher nicht aktualisiert hatte. Da alle Einstellungen erhalten geblieben sind, war die Sache in 90% aller Fälle durch ein paar Klicks wieder zu reparieren. Manchmal musste man vorher nur erst explizit das vorhandene Programm deinstallieren (auch wenn es nur noch in Fragmenten da war) und die Registry etc. aufräumen, aber auch das ist ja meist nur ein bißchen Geklicke.
Die einzigen Programme, die sich auf Teufel-komm-raus nicht wieder installieren ließen, waren die verschiedenen MS Office. Ich habe sowohl die Version 2010 als auch 2016 im Einsatz und zur Betreuung eines Access-Kurses Access in der Version 2013. Die waren alle weg und der Assistent zur Installation von MS Office 2010 ist jedes Mal ohne Rückmeldung abgebrochen. Der Assistent von Office 2016 hat beim Abbruch zumindest eine Meldung gegeben – in der 32-Bit-Version hat er sich beschwert, dass Office 2010 in der 64-Bit-Version installiert wäre und das würde nicht gehen – wobei die Version 2010 ja verschwunden war. Und in der 64-Bit-Version hat er sich beschwert, dass Office 2010 in der 32-Bit-Version installiert wäre (auch nicht da und auch nicht zu deinstallieren) und das würde nicht gehen. Vollkommener Unsinn, aber da sich MS-Programme dermaßen tief in Windows eingraben, lassen Crashs meist Datenleichen und falsche Konfigurationen zurück, die kein Deinstaller findet und ich – obwohl ich so arogant bin und sage, dass ich mich ziemlich gut auskenne – auch nie und nimmer alle finden kann. Nach vielem Suchen bin ich auf das MS-Tool „Microsoft Support- und Wiederherstellungs-Assistent für Office 365“ gestoßen. Auch wenn der Name irreführend ist – damit kann man ältere Office-Versionen wirklich rückstandsfrei löschen (hat bei mir zumindest sehr gut funktioniert). Nach dessen Arbeit konnte ich dann endlich auch meine MS Office wieder installieren.
Ich werde wohl im Laufe meiner Arbeit immer wieder an Probleme stoßen, an die ich im Moment nicht denke, aber erst einmal geht meine berufliche Aufmerksamkeit wieder an die Python-Programmierung und die Betreuung meiner ILS-Kurse und die Workstation wird zum – hoffentlich – unauffälligen Arbeitsgerät.
Aber ich will noch ein Fazit ziehen.
Die ganze Aktion hat die positiven Effekte gehabt, dass viele Programme nun aktualisiert sind und dass ich auch einige Programme nicht mehr installiert habe, die ich ewig schon nicht mehr gebraucht habe. Dazu habe ich gezielt noch ein paar Programme gelöscht. Meine recht kleine SSD der Workstation für die Programme (die Daten-HDD ist dafür groß) hat over all gut 30 GByte zusätzlichen freien Platz gewonnen.
Und meine Datensicherungsstrategie hat sich bewährt.
Negativ – Wiederherstellungspunkte sind kaum zu gebrauchen. Denn die Systemwiederherstellung der Workstation war erst einmal mehrfach gescheitert und ist erst im abgesicherten Modus durchgelaufen. Aber bei den ersten gescheiterten Versuchen hat es einen Wiederherstellungspunkt zerstört bzw. gelöscht. Ich habe keine Ahnung, wie und wann das passiert ist. Und das wäre der Zustand gewesen, auf den ich hätte zurückgehen müssen. Der Wiederherstellungspunkt, den ich dann noch hatte, hat die Workstation nur von einem total chaotischen in ein ziemlich chaotisches System zurückgesetzt und nicht viel geholfen. Was zu meiner Einschätzung führt, dass man die Wiederherstellungspunkte im Grunde vergessen kann. Die liefern keine wirkliche Sicherheit. Die Sicherheit ist m.E. auf dem Niveau eines Fahrradschlosses für 5 EUR mit einem Nummercode aus 2 Zahlen. Kann erstmal einen Dieb aufhalten, beim Vorbeigehen das Rad mitzunehmen, aber etwas Anstrengung und die „Sicherheit“ war einmal. Was dazu führt, dass man neben der mehrfachen täglichen Datensicherung wohl regelmäßig vollständige Images erstellen muss. Und das werde ich angehen – aber erst, wenn ich sicher bin, dass mein System wirklich halbwegs wieder rund läuft.
Und dann muss ich sagen, dass mich die Tools, die ich beim Wiederherstellen des Rechners verwendet habe, meist sehr enttäuscht haben. Nicht nur die Systemwiederherstellung, sondern auch CCleaner. Gerade letzteres scheint mir mehr Probleme bewirkt als gelöst zu haben.
Crash der Workstation
Sowas nennt man meist einen „Worst Case“. Mein Hauptrechner ist gestern abend ausgefallen. Aus nichtigem Anlass bzw. einer Dummheit, wenn ich ehrlich bin. Denn „Never touch a running system“. Und dieser Crash ist wirklich unnötig.
Mich hat einfach mein Antiviren-Programm mit den ständigen Warnungen beim Kompilieren und vor allen Dingen permanenter Werbung genervt. Also wollte ich mal wieder das Antivirenprogramm austauschen. Das mache ich gelegentlich – auch weil verschiedene Tools unterschiedliche Stärken haben und mir bisher noch keines der Antivirenprogramme uneingeschränkt gefallen hat.
Bevor man ein neues Antivirenprogramm aber installiert, sollte ein vorhandenes komplett deinstalliert werden. Und das ist schiefgegangen. Die Deinstallationsroutine des Antivirenprogramms hat sich aufgehängt. Mein Fehler war vielleicht, dass ich diesen Prozess dann manuell beendet habe. Aber das Ding hat einfach ewig nicht mehr reagiert. Und dann war mein Windows-System irgendwie in Unordnung. Insbesondere die Registry. Vermutlich habe ich dannach aber den kardinalen Fehler gemacht und den Rechner mit CCleaner bereinigen lassen. Anschließend war die Hälfte meiner Programme weg! Wobei ich nicht sicher bin, ob CCleaner oder der Deinstallationsassistent die Katastrophe ausgelöst hat. Und wie es meist so ist – entweder erkennt man das Problem zu spät oder will es nicht wahrhaben.
Das ist wohl so wie an der Börse – wenn man bei fallenden Kursen den Zeitpunkt zum Verkauf von Aktien verpasst hat und ins Minus gerutscht ist, macht man selten den Schritt eines „Ende mit Schrecken“, um zwar Verluste zu realisieren, aber mit einem blauen Auge davonzukommen, sondern hält die Aktien und hofft auf die Trendwende.
Und ich habe versucht, die verschwundenen Programme wieder zu installieren und den Rechner sauber zu bekommen. Dabei wurde es nur schlimmer und schlimmer und vor allen Dingen die Bereinigungen ließen mehr und mehr Programme verschwinden.
Ich bin jetzt nicht sicher, ob ich das System überhaupt noch retten kann. Ich operiere seit gestern Nacht am offenen Herzen und muss nun schauen, wie gut meine Sicherungsstrategie geplant ist.
Denn natürlich habe ich einen Wiederherstellungspunkt gespeichert. Sogar sehr aktuell (etwa 7 Tage alt). Und meine Daten an sich sind gar nicht betroffen – nur Windows und die Programme.
Ich habe also irgendwann doch die Reißleine gezogen und die Wiederherstellung von Windows mit dem Wiederherstellungspunkt gestartet. Nur läuft die jetzt schon über 9 Stunden und ich sehe nur einen blauen Bildschirm mit der Meldung:
„Warten Sie, während die Windows-Dateien und -Einstellungen wiederhergestellt werden. Die Registierung wird wiederhergestellt …“
Und dieser Zustand ändert sich einfach nicht. Ich habe keine Ahnung, wie lange die Sache dauern kann. Im Internet finde ich Meldungen von kaum einer Stunde bis zu 12 Stunden und mehr. Mir bleibt sowieso kaum eine Wahl – ich muss mich in Geduld üben und eben hoffen, dass meine Strategie für so einen Fall eben keinen „Worst Case“ bedeutet.
Mal abgesehen davon, dass ich im Fall der Fälle wohl die Workstation komplett neu aufsetzen muss, sollte meine Strategie aber greifen.
- Die Daten werden regelmäßig mit dem NAS abgeglichen und sind auf dem Stand von gestern Abend gewesen.
- Wichtige Programme wie Firefox und Thunderbird sind auf mehreren Rechnern synchronisiert.
- Mir stehen zwei Notebooks zur Verfügung, die sowohl auf alle Daten zugreifen können als auch (fast) alle notwendigen Programme installiert haben.
Ich habe nun das Matebook mit zwei zusätzlichen Monitoren von der Workstation aufgebohrt und externe Tastatur und Maus drangehängt und damit kann ich (fast) so gut wie mit der Workstation arbeiten. Das sollte zumindest keine großen Einschränkungen geben.
Und die Workstation lebt wohl im Hintergrund – auch wenn auf dem Bildschirm nicht passiert. Die Maus lässt sich bewegen und als ich die Tastatur/Maus von der Workstation abgemacht und an das Matebook angeschlossen habe, habe ich als Ersatz an die Workstation eine andere USB-Maus angeschlossen. Die wurde sofort erkannt. Ich habe also noch Hofffnung, dass die Wiederherstellung irgendwann doch durchgeht – muss halt Geduld aufbringen und dem System ein paar Tage Zeit geben. Wobei so eine Zeitspanne eigentlich nicht erklärbar ist.
PS: Update – ich habe doch nicht die Geduld gehabt und ein Reset durchgeführt. Tatsächlich startet die Workstation, kommt allerdings in den unbefriedigenden Zustand zurück, dass Programme fehlen – insbesondere Office. Und es taucht die Meldung auf, dass die Wiederherstellung nicht funktioniert hat.
Ich habe sie erneut gestartet und jetzt lasse ich die Sache mal wirklich zur Not 24 Stunden durchlaufen. Es scheint so zu sein, dass ich bei erneutem Fehlschlagen zumindest eine lauffähige, wenngleich verhunzte Workstation nutzen kann und ggf. alle fehlenden Programme neu installieren muss. Bis auf Office sollte das auch halbwegs funktionieren. Naja – wenn man keine Arbeit hat, schafft man sich welche ;-(.