Zum Backup-Ziehen meiner Daten auf dem NAS genügt die Backup-Software von Windows. Von den Linux-Rechnern komprimiere und kopiere ich einfach in gewissen Abständen das documents-Verzeichnis und überschreibe das vorhandene Backup.
Aber ich möchte eigentlich nicht immer mit Kanonen auf Spatzen schießen und habe mich jetzt durch verschiedene Tools zum reinen Synchronisieren von ausgewählten Verzeichnissen auf meinen Rechnern und entsprechenden Spiegelverzeichnissen auf dem NAS gequält. In der Tat gequält, denn so richtig überzeugt hat mich keines der Tools. Die Standardsoftware von Synology, die beim NAS dabei war, bekomme ich einfach nicht in Griff. Liegt vermutlich an mir, aber eigentlich sollte ich mich mit sowas auskennen. Das Teil macht immer ein komplettes Backup, synchronisiert aber nie – wie gewünscht – nur vorhandene Verzeichnisse auf beiden Seiten.
Es gibt aber diverse Synchronisationstools als Alternativen. Mit SyncToy von Microsoft (kostenlos) habe ich mich jetzt auf dem Windows-System für eine der vielen Angebote entschieden. Das Teil ist einfach zu konfigurieren und hat in den ersten Tests von mir ganz sauber und schnell alle von mir ausgewählten Verzeichnisse synchronisiert.
Von Linux aus ist rsync meine Wahl, was ja standardmäßig unter Linux vorhanden ist. Ein bisschen auf Konsolenebene konfigurieren und gut ist.
Monat: Dezember 2014
Problem mit der Übertragungsrate im lokalen Netzwerk wohl gelöst – Rätsel bleiben aber
Man sagt uns Mathematikern nach, dass wir zwar nicht viel wissen, sich aber an Problemem festbeißen und solange nicht loslassen, bis das Problem zur Strecke gebracht wurde. Dabei ist es unerheblich, ob es darum geht die Welt zu retten oder aber einfach nur etwas gelöst wird, was niemanden außer einem selbst interessiert. Praktischer Nutzen ist was für die anderen ;-).
- Ungelöstes Problem.
- Geht nicht.
- Zubeißen und solange würgen, bis das Problem aufgibt.
- Tag gerettet – wer auch immer mit der Lösung was anfangen kann.
Mein Tag ist insofern jetzt auch gerettet, weil wohl die Übertragungsrate von dem Windows-Rechner auf das NAS nun endlich den Wert erreicht, den sie haben sollte (wie unter Linux).
Es war ziemlich Aufwand alle Stellen abzuklopfen, die hier den Falschenhals bilden konnten. Ich habe mein eigenes Wissen natürlich mit ins Spiel gebracht, aber auch viel in Foren im Internet gesucht – bin ja Programmierer und kein Netzwerk- oder Windows-Admin.
Folgende Stellen habe ich als Falschenhälse lokalisiert und einen nach dem anderen ausgeschlossen:
- Hardware: Router/Switch defekt oder Kabel beschädigt. Das scheint mir nach den Internet-Foren die häufigste Ursache zu sein. Ist bei mir ausgeschieden, denn mit Linux ging es von meinem Rechner ja schnell. Nur unter Windows nicht.
- Netzwerk sonst zu langsam – konnte ich durch Messungen ausschließen. Trotzdem sitzt hier noch ein archithekturbedingter Falschenhals bei mir – ich muss demnächst auf ein 1000MBit/s-Netzwerk hochrüsten. Für das konkrete Problem ist das allerdings irrelevant.
- Große Hoffnung hatte ich auf die Deaktivierung der Firewall und des Antivirenprogramms gesetzt. Aber das war bei mir ohne Wirkung.
- Die Netzwerkadapter prüfen und ggfls. neu installieren ist immer sinnvoll – auch wenn die Messwerte eine normale Funktion angezeigt haben. Schien bei mir auch alles im grünen Bereich und die Fehlerdiagnose hat keine Fehler ergeben. Seltsamerweise war die Übertragung nach der Diagnose wohl besser geworden. Zumindest war das der Schritt, nachdem ich wieder einen Quick-and-Dirty-Test gemacht und plötzlich besserer Übertragungsraten bekommen habe – sah zumindest danach aus. Kann aber auch an gewissen anderen Schritten gelegen haben, die ich vorher schon durchgeführt hatte.
- Eine Sache habe ich aus dem Bauch heraus ausprobiert (und hinterher auch einen entsprechenden Tipp im Internet gefunden) – ich habe bei bestehender Ethernet-Verbindung das W-LAN explizit deaktiviert. Also keine zwei Netzwerkadapter parallel aktiv. Danach sieht mir die Übertragungsrate schneller geworden, aber was mich wieder verwirrt ist, dass das erneute Anstellen vom W-LAN keine Reduktion der Übertragungsrate gebracht hatte.
- Ein paar Tipps haben auch das NAS selbst betroffen. Insbesondere sollte man die Ressourcenauslastung dort überwachen und ggfls. Dienste abstellen, wenn die CPU zu sehr unter Last fährt. Hab ich gemacht und die CPU-Last etwas runter genommen. Die Beobachtung hat mir gezeigt, dass die Daten in vernüftiger Geschwindigkeit rein gekommen sind, aber ich kann nicht sagen, welcher der vorherigen Schritte wirklich in meinem Fall dafür der entscheidende war. Ich komm mir ein wenig vor wie ein Affe, der irgendwelchen Hebeln gespielt und dabei rein zufällig den richtigen erwischt hat.
Aber ich habe eine Vermutung, was wirklich das Problem gelöst hat und ich mir deshalb bis zum Schluss als Tipp aufhebe – Microsoft hatte mit Windows Vista eine Technologie zum Komprimieren von Daten im Netzwerk eingeführt – „Remote Differential Compression (RDC)“ – Remoteunterschiedskomprimierung. Damit soll das Übertragen von Dateien im Netzwerk im Grunde beschleunigt werden. Nun hat man aber festgestellt, dass das nur unter reinen Windows-Netzwerken ab Vista aufwärts auch prima funktioniert. In heterogenen Netzwerken mit mehreren Betriebssystemen (wie bei mir) bremst der Dienst die Übertragung in vielen Fällen aus (auch wenn Alt-Windows wie XP da mit drin sind). Gerade bei Kopieren von Dateien im Netzwerk soll das Abschalten von RDC viel nutzen. Das macht man in der Systemsteuerung unter Programme und Funktionen und dort Windows-Funktionen aktivieren oder deaktivieren. Dort deaktiviert man die Option Remoteunterschiedskomprimierung, die oft standardmäßig aktiviert ist. Es dauert es wenige Minuten, bis RDC im Netzwerk nicht mehr aktiv ist und es kann ein Windows-Neustart erforderlich sein. Ich vermute wirklich, dass RDC der Schweinehund war.
Wo ist die Windows-Bremse im Netzwerk? Bitte um Tipps
So langsam glaube ich an Windows-Gespenster. Ich komme nicht dahinter, warum die Übertragsrate bei Kopieraktionen von meinem Windows-Rechner auf eine anderer Ressource im LAN so elend niedrig ist. Ich habe jetzt die gemessene Übertragungsrate sowohl mit WiFi als auch Ethernet mal genommen und theoretisch notwendige Zeit für die Übertragung einer Testdatei berechnet (das bekomme ich als Mathematiker gerade noch hin). Die Zeitspanne hat ungefähr dem entsprochen, was von meinem Linux-Rechner auch notwendig war (etwa um den Faktor 1,3 – 1,5 war die Zeit länger, aber das ist im Rahmen und sollte bei größeren Dateien noch besser werden). Passt also.
Und bei dem Windows 7 – Rechner dauert die Dateiübertragung der Testdatei sogar 12x – 15x länger als es sein dürfte.
Interessanter Weise dauert die Überragung mit dem langsameren WiFI „nur“ gut 12x länger als wirklich notwendig, während das schnellere Ethernet noch langsamer ist. Es hängt also wohl in keiner Weise am Netzwerk – das langweilt sich in jedem Fall.
Die Geschichte wird noch besser – ich habe auf dem Rechner für einen weiteren Test ein Linux-Live-System gestartet und bekomme damit bei der Übertragung der Testdatei in etwa die errechnete Zeit hin, die die Übertragung dauern dürfte.
Da ist was komplett in meinem System verstellt, fürchte ich. Denn das Windows 7 so schlecht ist, will ich wirklich nicht behaupten.
PS: Bin für Tipps dankbar.
PPS: Dass Linux besser ist, ist mir klar. Aber der eine Rechner muss unter Windows weiter laufen.
Übertragungsraten in meinem lokalen Netzwerk – ungelöste Rätsel
Die Dauer der Datenübertragung von meinem Arbeitsrechner auf mein neues NAS ist unglaublich lang. Das kann einfach nicht sein. Ich habe mit ein paar Tools (u.a. IPerf) die Netzwerkgeschwindigkeit getestet und komme mit durchschnittlich 90000 KBit/s recht gut an das Limt meines Ethernets ran. Die Sache wird umso mysteriöser, da der Kopiervorgang von einem meiner Linux-Rechner etwa 5x – 10x weniger Zeit braucht. Ich muss das mal messen, aber es ist extrem signifikant. Keine Ahnung, ob die Bremse sitzt.
Legales Sabotieren von W-LAN-Hotspots in Hotels vor US-Gericht eingeklagt
Das ist ja ein Hammer – da wollen geldgeile Hotels in den USA die Nutzung des eigenen Internet-Zugangs technisch mit Sabotagetools verhindern und das gerichtlich legalisieren lassen. Denn nicht anderes bedeutet das, wenn auf dem Gelände von einem Hotel kein eigener W-LAN gestartet werden kann. Ich nutze mein SmartPhone im Hotel grundsätzlich so, um über Tethering mein Notebook ins Internet zu bringen. Das würde damit unterbunden und man müsste die teueren Internet-Zugänge des Hotels nutzen. Gut – man kann USB-Tethering machen, aber alleine die Vorstellung, dass Hotels die technischen Möglichkeiten eines Gastes einschränken dürften, ist grotesk. https://www.heise.de/newsticker/meldung/USA-Kampf-um-Recht-auf-WLAN-Sabotage-2506559.html
Cordova und Emulatoren-Erfahrungen
Ich habe die Woche komplett mit App-Entwicklung unter Cordova verbracht. Das Framework selbst macht die universelle Entwicklung für diverse Plattformen wirklich einfach. Aber die Konfigurationen, die zum Einrichten notwendig sind, sind teils sehr aufwändig. Und was mir total gegen den Strich geht ist die Startzeit von dem Android-Emulator. Das dauert in der Regel zig Minuten – auf einem i7 mit Mörderpower und superschneller SSD. Das geht gar nicht. Ich habe die Woche bei einem Kollegen mitbekommen, dass die Android-App im Emulator (zugegeben wohl eine sehr aufwändige App) erst nach Stunden (!!) gestartet ist. So macht Entwicklung auch keinen wirklichen Spass. Man kann auf Microsoft schimpfen wie man will – der Emulator dort startet im Sekundenbereich und auch der iOS-Simulator unter MacOS ist fix. Was treiben die bei Google da mit dem Android-Emulator nur?
Gastbeitrag im Blog von Video2Brain
Im Blog von Video2Brain ist ein Gastbeitrag von mir veröffentlicht worden (https://blog.video2brain.com/de/back-the-roots-visual-basic-10710.htm). Geht um meine Erfahrungen zu Basic und Visual Basic anlässlich meines letzten Trainings zu dem Thema.
Zu Gast bei Video2Brain
Mein NAS ist fertig eingerichtet
Ich habe doch unterschätzt, wie lange das Kopieren der Daten von einer externen USB-Platte auf das NAS dauert. Gut – das NAS hat nur USB 2, aber dennoch sind gut 24 Stunden für 700 GByte ziemlich lang. Keine Ahnung, ob ich da irgendwo einen Fehler gemacht habe und die Daten einen Umweg über das Ethernet genommen haben. Ich hatte mich nur per SSH eingeloggt und direkt in der Linux-Konsole den Kopierbefehl abgeschickt. Sollte also bloß den kurzen Weg von der externen Platte zu internen Platte via 10 cm USB-Kabel genommen haben.
Ich habe dann die internen Verzeichnisstrukturen des NAS noch sinnvoll verschoben und strukturiert und auch da hat die Sache gut 16 Stunden im Hintergrund gewerkelt. Alles in Allem sind das Zeitfaktoren, die man nur am Anfang zum Einrichten akzeptieren kann.
Ansonsten habe ich diverse Server auf dem NAS nun erst einmal fertig eingerichtet. Ganz witzig am Rande – es gibt einen Videoserver, der auch DVB-T unterstützt. Sogar meinen einen DVT-T Stick, der unter Windows 7 nur kurzzeitig zwischen zwei Update-Zyklen mal gegangen war und jetzt wieder nicht einzurichten ist. Ebenso den ganz alten DVB-T-Stick, der nur unter Windows XP, aber nicht Windows 7 läuft. Für das Streaming von TV-Sendungen habe ich die beiden nun zu Wahl.
Beim Einrichten fand ich es sehr befriedigend, dass sich das NAS in Hessen wähnt. Obwohl Bodenheim auf der linken Rhein-Seite liegt. Wenn ich Sender mit Regionaleinstellung Rheinland-Pfalz scanne, bekomme ich keinen einzigen Sender rein. Mit Regionaleinstellung Hessen aber 23 Sender. Das freut mich als echten Hessen natürlich, dass das NAS die alte Zuordnung von Bodenheim zu Hessen bestätigt. Denn vor dem Krieg war das hier Hessen (Regierungsbezirk Darmstadt) und die paar hessischen Orte hier wurden erst nach dem Krieg im Austausch für Kastel, Kostheim & Co Rheinland-Pfalz zugeschlagen. Die Siegermächte aber einfach den Rhein als Grenze genommen. Auf der rechten Seite Hessen, links Rheinland-Pfalz – egal, wie es vorher war. Das NAS widerspricht 😉
VirtualBox VM nachträglich vergrößern und neues Volume anlegen
Den Platz der virtuellen Maschine für meine Betaversion von Windows 10 habe ich – leider wie üblich – beim Aufsetzen zu knapp kalkuliert.
Da ich Windows 10 im Moment im Entwickleralltag teste und diverse Aktionen für die App-Entwicklung mit Cordova durchspiele, ist mir mal wieder der voreingestellte Platz der VirtualBox-VM von 30 GByte zugelaufen.
Leider ist es unter VirtualBox immer noch nicht ganz so trivial die VM nachträglich zu vergrößern. Zumindest ist mir kein Befehl in den Menüs vom VM VirutalBox Manager bekannt.
Macht aber nichts, denn in der Konsole kann man die Sache recht leicht bewerkstelligen und die VirtualBox Festplatte nachträglich vergrößern. Man muss einfach das Tool VBoxManage mit ein paar Parametern aufrufen.
Der Knabe ist manchmal etwas unwillig, weil er mit bestimmten Pfaden seine Probleme zu haben scheint. Zumindest bei mir.
Das einfachste ist es, wenn man in das Verzeichnis von VirtualBox wechselt (etwa C:ProgrammeOracleVirtualBox) und dann folgendes aufruft:
VBoxManage.exe modifyhd [Pfad zum Volume] -resize [Neue Größe in MByte]
Sollte man den VBoxManage vollqualifiziert adressieren, muss man in der Regel mit Hochkommata arbeiten – besonders dann, wenn Verzeichnisnamen Leerzeichen enthalten. Also etwa so:
„C:ProgrammeOracleVirtualBoxVBoxManage.exe modifyhd“ „C:[Pfad zum Volume].vdi“ -resize 51200
Vergrößern bei Windows langt nicht – ein neues Volume ist notwendig
Leider war es das dann unter Windows aber noch nicht, denn obwohl die VM dann eine neue Größe hat, kennt Windows die neue Größe nicht an. Man muss
- entweder das Volumen neu formatieren (dann sind alle Daten weg, was ziemlicher Blödsinn ist)
- oder man legt einfach ein weiteres Volume an.
Das kann man unter den meisten Windowsversionen mit der Computerverwaltung und dort der Datenträgerverwaltung machen.
In Windows bis zur Version 8.x öffnet man dazu die Computerverwaltung in der Systemsteuerung und dann auf System und Sicherheit -> Verwaltung -> Computerverwaltung klicken (Administratorberechtigung erforderlich). Dort findet man unter Speicher die Datenträgerverwaltung.
Dort klickt mit der rechten Maustaste auf einen nicht zugeordneten Bereich der Festplatte fügt ein neues einfaches Volume hin. Der nachfolgende Assistent lässt die Größe des zu erstellenden Volumes in MBytes angaben und man übernimmt den standardmäßigen Laufwerkbuchstaben.
Soweit, so gut. Leider habe ich die Datenträgerverwaltung unter Windows 10 in der Systemsteuerung nicht gefunden (vielleicht bin ich auch nur blind). Aber Sie ist natürlich noch da. Musste Sie nur in der Konsole mit diskmgmt.msc aufrufen. Jetzt ist wieder genug Platz in der VM.
Mein NAS ist da
Ich habe die Faxen dicke, meine Datensicherungen immer auf meinen externen USB-Festplatten ziehen zu müssen. Die sind meist nicht synchron mit dem aktuellesten Stand und kommen – trotz 1 bzw. 1,5 TByte – langsam an die Grenzen der Kapazität. Außerdem habe ich mehrere Rechner zu sichern, was ohne zentrales Backupsystem noch mühsamer ist.
Ich habe zwar schon eine Weile mit FreeNAS und einem ausgedienten NetBook und einem Raspberry Pi experimentiert, aber so richtig überzeugt hat mich das nicht. War zwar ok und interessant zum Lernen, aber irgendwo doch wieder zu viel gefrickelt und mir zu unbequem, um im täglichen Betrieb unauffällig im Hintergrund zu werkeln. Zudem hat das NetBook viel zu wenig internen Speicher (vom Raspberry ganz schweigen) ich müsste wieder externe USB-Platten anhängen, die irgendwo rumliegen.
Also habe ich mir ein einfaches Synology-NAS (DS214se) gekauft und mit zwei 4TByte-Platten für ein RAID 1 ausgerüstet. Da läuft – wie bei FreeNAS – als Betriebssystem ein Linux, aber die Bedienung über ein Web-Interface und die Integration in das Netzwerk sind einfach super konfiguriert. Dazu braucht das Teil extrem wenig Strom, was ja auch kein Fehler ist. Auch die Erweiterungen wie ein Mediacenter samt TV-Streaming, SVN-Server, GIT-Server etc. sind wirklich gut gemacht. Alles ganz einfach zu nutzen und das macht die Sache für die Praxis sehr brauchbar. Ich kann zwar wie gesagt für ein NAS ein Linux von Grund auf aufsetzen, die Hardware zusammenstellen und konfigurieren – aber ich will das nicht für den täglichen Betrieb. Ist mir einfach zu viel Aufwand. In dem Fall ziehe ich die Tiefkühlpizza vor.
Ich werde die nächste Zeit meine Erfahrungen mit dem NAS posten, aber der erste Eindruck ist schon gut. Meine Datensicherungen auf das NAS laufen im Moment und daneben streame ich TV-Sendungen in mein LAN. Geht alles ganz ohne Probleme. Die limitierende Größe ist mein Ethernet, dass mit 10/100 MBit/s nicht mehr auf dem besten Stand ist.
Fast schon vergessen – Blue screen of death
Man, hat das eben gescheppert als ich bei Amazon eine Freisprechanlage in den Warenkorb gelegt habe. Ich hatte fast vergessen, dass es unter Windows den Blue Screen of death gibt. Mein Windows 7 läuft so stabil (pflege es aber auch regelmäßig), dass ich die ständig üblichen Abstürze älterer Windows-Versionen fast vergessen habe. Umso mehr bin ich erschrocken als es eben geknallt hat. Ob das an Amazon liegt? Eine Warnung nicht bei den bösen Preisdrückern einzukaufen? Muss ich zumindest testen … 🙂
Windows 10 im Entwickleralltag mit Cordova
Ich bin nächste Woche am Schaffen mit dem neuen Cordova/PhoneGap und muss im Moment dafür ein wenig vorbereiten. Da zudem in einer Online-Schulung, die ich betreue, ein Teilnehmer massive Probleme hat mit den Command-Line Interface (CLI) von Cordova, um da alle Installationen hinzubekommen und vor allen Dingen dann die Cordova-Projekte für die verschiedenen Apps für Android, iOS oder WP8 zu erstellen, habe ich heute Abend eine Aktion ausgeführt, um mehrere Fliegen mit einer Klappe zu schlagen. Ich wollte sowieso meine vorliegende Beta von Windows 10 wieder ein bisschen weiter testen. Da lag es nahe, das jungfräuliche Windows in meiner VirutalBox sukzessive von Null auf Cordova-Entwicklersystem auszubauen. Auf dem System gab es bisher noch nichts an Entwicklertools (vom Visual Studio 2013 mal abgesehen).
Ich habe also wirklich von 0 an alle Installationen und Einstellungen vorgenommen, um am Ende mit CLI die App-Projekte erstellten zu können.
Das bedeutet folgende Installationen:
- JDK 8
- ADT-SDK samt diverser Pakete, die nach der Installation mti dem ADT-SDK-Manager nachzuinstallieren sind (die Nachinstallation dauert schon mal ein paar Stunden, läuft aber ziemlich automatisiert ab)
- Node.js
- Git
- Ant
Dazu musste die path-Angabe – teils von Hand – um die Toolverzeichnisse erweitert werden.
Aber dann ist auch unter Windows 10 alles gelaufen und in der Konsole konnte ich die Projekte für die Apps mit dem CLI erstellen. Windows 10 ist dabei erfreulich unauffällig. Und auch unter Cordova geht mittlerweile alles viel einfacher – sofern der Rechner richtig konfiguriert ist und alle Tools da sind (und das Einzurichten ist bei einem jungfräulichen Rechner eine Schweinearbeit, wie ich bei dem Test wieder gemerkt habe).
Der Winter steht in den Startlöchern
Ich habe einen Kunden im Taunus, für den ich seit über 10 Jahren regelmäßig Schulungen halte. Und ich habe das Gefühl, dass ich in jedem Jahr im Dezember da war und die Einleitung vom Winter da mitbekommen habe. Während es unten im Tal noch nichts mit Schnee ist, ist da oben knapp unter dem Feldberg Anfang Dezember schon eher Schnee zu erwarten.
So auch dieses Jahr. Ich habe gerade 2 Tage JavaFX und erweiterte Java-Themen geschult und für den Winter da den ersten Schnee gesehen. War noch nicht genug für einen Schneemann und die Straßen waren noch frei, aber die Farbklexe und die eingefärbten Bäume waren eindeutig.
Am kommenden Montag muss ich da nochmal für eine JSP/Servlets-Schulung hin und für das Wochenende sind richtige Schneefälle angekündigt. Wir werden sehen.
Ich bin mit guten Winterreifen und meinem Forester mit Allradantrieb zumindest gut gerüstet.