GBit-Switch

Ich habe lange meine Hardware nicht mehr erneuert, aber langsam muss ich wirklich aufrüsten. Mit dem NAS hat das begonnen und heute kam ein GBit-Switch an. Mein alter Switch scheint mir das Netzwerk doch extrem ausgebremst zu haben. Ich muss die nächsten Tage ein bisschen ausprobieren und konfigurieren, aber nach meinem ersten Eindruck bringt der Wechsel eine Menge. VNC-Zugriff auf der Raspberry PI geht jetzt fast ohne Ruckeln und auch die Sicherung auf dem NAS scheint gefühlt viel schneller zu gehen. Wäre auch dumm, wenn dem nicht so wäre…

Mein Onlinetraining zu Cordova/PhoneGap ist erschienen

Im Dezember war ich in Graz bei Video2Brain und habe dort ein Onlinetraining zur Entwicklung von Apps mit Cordova (auch unter PhoneGap bekannt) aufgenommen.

Gestern wurde es veröffentlicht.

Wie immer gibt es auch dazu kostenlose Beispielfilme und Trailer:
Die folgenden Videos sind frei geschaltet:
       Trailer: https://youtu.be/1sLDWWCAbek
       Allgemeine Ressourcen verwenden:https://www.video2brain.com/de/tutorial/allgemeine-ressourcen-verwenden

Schulung im winterlichen Hochtaunus

Letzte Woche war ich zwei Tage in Darmstadt am Schulen (Fortsetzungkurs von JavaFX, bei dem ich letzten Dezember in Nürnberg die Einführung gehalten habe). Und am Dienstag in Wiesbaden (Ausbildung Fachinformatiker). Da war jeweils von Winter nicht viel zu sehen.

Aber kaum geht es wieder zu meinem Standardkunden im Hochtaunus (fortgeschrittene Java-Techniken), kommt der Schnee. War es am Mittwoch nur leicht gezuckert, war es am Donnerstag auf der Fahrt da hoch schon teils richtig glatt. Allerdings noch mehr Eis als Schnee.

In der Nacht von Donnerstag auf Freitag hat es dann aber richtig geschneit und wegen Schneebruch waren im Taunus mehrere Straßen gesperrt. Auch zwei von den vier vernünftigen Strecken, die ich von meinem Zweitwohnsitz in Eppstein hoch zu meinem Kunde fahren kann. Die Hauptstrecke war aber einigermaßen frei, wobei ich mir teils wie auf der Fahrt in den Winterurlaub vorkam. Vor allen Dingen zwischen Ehlhalten  und Heftrich sah das bei der Fahrt durch die eng stehenden, verschneiten Bäume schon klasse aus.

Grundsätzlich bin ich bei so Bedingungen aber froh, dass mein Forester Allradantrieb hat und ich richtig gute Winterreifen aufgezogen habe.

Damit geht das dann auch bei winterlichen Bedingungen problemlos, zumal ich mit Winterbedingungen beim Autofahren im Taunus groß geworden und das damit gewohnt bin.

Mein Teilnehmer hatte hingegen nur Sommerreifen auf seinem Auto und hat sich am Freitag nicht mehr fahren getraut. Musste statt dessen ein Taxi nehmen.

BMW erbringt den Beweis – Computer und Elektronik in Autos bedeuten nur Probleme und Gefahr

Ich bin natürlich etwas zwiegespalten, weil ich immer wieder Programmierer schule, die direkt oder indirekt in der Automobilindustrie arbeiten. Wenn ich jetzt lästere, säge ich mehr oder weniger an einem Ast, auf dem ich sitze. Aber diese unglaubliche Sicherheitslücke bei BMW in ihrem ConnectedDrive-System (Beitrag dazu bei Heise.de) zeigt nur zu deutlich, dass Computertechnik im Speziellen und (unnötig viel) Elektronik im Allgemeinen in Autos nur Probleme macht. Ich denke mit Wehmut an meine Enten und die DS zurück, in der keinerlei Elektronik im Auto das Leben schwer gemacht hat. Meist nerven die ganzen elektronischen (angeblichen) Helfer nur (Gurtwarner, Reifendruckkontrolle, Inspektionsanzeige, …), aber außer dass man vielleicht unkonzentrierter oder aggressiver fährt, weil man sich über den Mist ärgert, ist das Zeug nicht sicherheitskritisch. Wenn aber ein Auto nicht mehr halbwegs scicher abgeschlossen werden kann, weil jeder Baby-Hacker mit einem Smartphone und einem Hackertool aus dem Internet das Auto aufschließen und auch starten kann, ist der Spass vorbei. Es ist in keiner Weise paranoid, wenn man das Deaktivieren von ABS oder gleich der ganzen Bremse, das Abschalten des Motors während der Fahrt, das Stören von Sensoren bei vorbeifahrenden Autos etc. auf die Liste der demnächst beliebtesten Anschlagstechniken von Terroristen einfügt. Wozu sich selbst in die Luft sprengen, wenn man mit einem Smartphone Massenunfälle auslösen kann, bei denen viel mehr Menschen den Tot finden? Mein nächstes Auto wird ganz sicher diesen Mist nicht enthalten. Und wenn ich halt auf einen gut erhaltenen Youngtimer umsteigen muss. Leider kann ich damit aber nicht ausschließen, dass ich von anderen Autos abgeschossen werde, deren Computertechnik zum Versagen gebracht wird. Man muss diese Technik verbieten – sonst wird doch in Deutschland auch alles verboten, was irgendwie nach Gefahr riecht ….

Neue Nutzungsbedingungen bei Facebook

Im Moment gibt es ja heftige Aufregung um die neuen AGBs von Facebook. Ich finde den Wind darum überzogen.

Natürlich findet Krieg von Facebook gegen die Interessen seiner Nutzer bzw. deren Privatssphäre statt. Und wie in jedem Krieg versuchen die Gegner Vorteile zu erreichen. Mit allen Mitteln.
Facebook zieht halt die Datenschrauben an und trackt auf Teufel komm raus die Nutzer. Aber jeder Nutzer kann Facebook ja verlassen und wenn man sich auskennt, kann man dem Tracking auch einen Riegel vorschieben. Oder nur das tracken lassen, was im eigenen Interesse ist.

Wer immer noch nicht kapiert hat, dass das Internet kein Ponyhof, sondern ein Haifischbecken ist, dem ist nicht zu helfen und mit solchen Leuten habe ich kein Mitleid. Beschäftigt Euch mit Computern und der Funktionsweise vom Internet oder lasst die Finger davon. Kein Laie würde sich ohne Ausbildung an das Steuer von einem Flugzeug setzen und losfliegen. Aber an einen Computer schon und ab ins Internet. Ohne Ahnung von irgendwas.

Es gibt ganz einfache Regeln, wie man das Tracken von Facebook reduzieren bis ganz verhindern kann.

  1. Die Einstellungen von Facebook. Alle auf maximal privat. Klar – Facebook selbst wird das natürlich ignorieren und auf Teufel komm raus dennoch tracken. Aber sie dürfen diesen Missbrauch dann nicht ganz so offen zeigen und es wird schwerer für die.
  2. Niemals, niemals in Facebook angemeldet sein und weitere Seiten im Browser öffnen. Immer abmelden und dann natürlich alle Cookies (insbesondere die Flash-Cookies) etc. löschen. Dazu gibt es genug Tools, die das auch automatisiert machen.
  3. Niemals Facebook auf dem Smartphone nutzen!!!
  4. Mehrfach am Tag CCleaner oder so ausführen.
  5. In Facebook niemals Werbung anklicken oder irgendwelche obscuren Einladungen annehmen. Alles ignorieren, was da vorgeschlagen wird.

Ist doch ganz einfach und im Grunde reiner Menschenverstand. Oder würde man auf dem Spielplatz eine halbvolle Flasche mit einer gelblichen Flüssigkeit drin einfach austrinken? Denn nicht anders ist die Missachtung solcher selbstverständlichen Verhaltensweisen.
Und wenn mit Facebook dann doch noch – eingeschränkt – trackt? Was ist so schlimm daran, wenn Werbung eher meinen Interessen entspricht als irgendwelche Dummbeutelwerbung für Bezahlfernsehen oder Apple-Produkten?

autoren-net.de relaunched

Ich betreibe ja mit WordPress unter https://www.autoren-net.de/ ein Portal für Autoren, wo diese kostenlos Auszüge aus Büchern oder auch nur Vorstellungen eines Buchs präsentieren können. Oder aber „normale Leute“ veröffentlichen ihr Wissen, ihre Ideen, Erfahrungen, Leidenschaften, Träume, Gedichte, Geschichten, Kurzgeschichten, Liedertexte oder was auch immer in Form eines Artikels/Beitrags.
Ich habe die Seite von Design gerade umgebaut und damit die Beiträge der Autoren an mehreren Stellen präsenter gemacht. Ebenso habe ich die Möglichkeit zum Einstellen von Beiträgen für Autoren deutlich entschlackt und (hoffentlich) damit vereinfacht.

Und schon wieder steht die Vorratsspeicherung vor der Tür

Ich will es einfach nicht glauben – schon wieder wird die Vorratspeicherung diskutiert. Als Anlass wird auch noch der Anschlag auf charlie hebdo in Paris vorgeschoben. Gerade auf eine Satirezeitung.

Wenn man zu Verschwörungstheorien neigt, kann man leicht annehmen, dass radikale Befürworter der Vorratsdatenspeicherung bzw. Generalverdächtigung der gesamten Bevölkerung den Anschlag gesteuert haben. Sie brauchten bloß ein paar Dumme mit Islamisten-Hintergrund zu belügen und anzustacheln und als Ziel ein Medium auszuwählen, was sich radikal für die Freiheit einsetzt.

Damit hätten die für sich eine perverse Win-Win-Stiuation geschaffen.

Und die Radikalen auf allen Seiten trimuphieren. Die Islamisten, die Rechten, die Überwacher. Alles Gegner der Freiheit und mündiger Bürger, nur sind die Überwacher wohl die gefährlichsten, weil sie sich einen „ehrenwerten“ Deckmantel überziehen, dem Parteien und das manipulierbare Stimmvolk möglicherweise folgen.

Raspberry Pi übertakten

Vor geraumer Zeit habe ich mir einen Raspberry PI als Spielzeug zugelegt. Ich finde es schon faszinierend, was man aus so einer kleine Platine für knapp 35 EUR rausholen kann. Obgleich ich – außer für Experimente – immer noch keinen praktischen Nutzen für mich habe. Dazu habe ich zuviele alternative Rechner zur Verfügung, die mehr Bumms unter der CPU haben. Spass macht das Teil dennoch.
Damit der Kleine aber zumindest ein bisschen mit den großen Hunden pinkeln kann, habe ich ihn jetzt auf den Maximalwert übertacktet, was aber gleichzeitig die Spannung anhebt und die Temperatur im Dauerbetrieb auf Heizung stellen kann. Ist ein Risiko für die Lebensdauer.
Egal – so teuer ist der Kleine nicht und mit der Übertacktung auf 1000 MHz merkt man den Leistungsschup gewaltig. Wo bisher sich die X-Oberfläche über einen VNC-Viewer im Schneckentempo geändert hat, läuft das jetzt nahezu smart. Auch die Webseiten im Midori bauen sich durchaus flott auf.
Auf dem Raspberry Pi mit dem Raspian Image gibt es standardmäßig verschiedene Profile zum Übertakten. Das geht von der Basisfrequenz mit 700 MHz bis eben einem Turbomodus mit 1000 MHz und Overvolting.
Um die Profile umzustellen, nutzt man zum Beispiel das Raspberry Pi Software Configuration Tool. Das wird über raspi-config aufgerufen:
sudo raspi-config
Im Menüpinkt 7, “Overclock”, kannst man das Übertakten anpassen. Damit die Einstellung auch wirksam wird, Raspberry Pi neustarten.

Synchronisierung mit dem NAS

Zum Backup-Ziehen meiner Daten auf dem NAS genügt die Backup-Software von Windows. Von den Linux-Rechnern komprimiere und kopiere ich einfach in gewissen Abständen das documents-Verzeichnis und überschreibe das vorhandene Backup.
Aber ich möchte eigentlich nicht immer mit Kanonen auf Spatzen schießen und habe mich jetzt durch verschiedene Tools zum reinen Synchronisieren von ausgewählten Verzeichnissen auf meinen Rechnern und entsprechenden Spiegelverzeichnissen auf dem NAS gequält. In der Tat gequält, denn so richtig überzeugt hat mich keines der Tools. Die Standardsoftware von Synology, die beim NAS dabei war, bekomme ich einfach nicht in Griff. Liegt vermutlich an mir, aber eigentlich sollte ich mich mit sowas auskennen. Das Teil macht immer ein komplettes Backup, synchronisiert aber nie – wie gewünscht – nur vorhandene Verzeichnisse auf beiden Seiten.
Es gibt aber diverse Synchronisationstools als Alternativen. Mit SyncToy von Microsoft (kostenlos) habe ich mich jetzt auf dem Windows-System für eine der vielen Angebote entschieden. Das Teil ist einfach zu konfigurieren und hat in den ersten Tests von mir ganz sauber und schnell alle von mir ausgewählten Verzeichnisse synchronisiert.
Von Linux aus ist rsync meine Wahl, was ja standardmäßig unter Linux vorhanden ist. Ein bisschen auf Konsolenebene konfigurieren und gut ist.

Problem mit der Übertragungsrate im lokalen Netzwerk wohl gelöst – Rätsel bleiben aber

Man sagt uns Mathematikern nach, dass wir zwar nicht viel wissen, sich aber an Problemem festbeißen und solange nicht loslassen, bis das Problem zur Strecke gebracht wurde. Dabei ist es unerheblich, ob es darum geht die Welt zu retten oder aber einfach nur etwas gelöst wird, was niemanden außer einem selbst interessiert. Praktischer Nutzen ist was für die anderen ;-).

  • Ungelöstes Problem. 
  • Geht nicht. 
  • Zubeißen und solange würgen, bis das Problem aufgibt.
  • Tag gerettet – wer auch immer mit der Lösung was anfangen kann.

Mein Tag ist insofern jetzt auch gerettet, weil wohl die Übertragungsrate von dem Windows-Rechner auf das NAS nun endlich den Wert erreicht, den sie haben sollte (wie unter Linux).
Es war ziemlich Aufwand alle Stellen abzuklopfen, die hier den Falschenhals bilden konnten. Ich habe mein eigenes Wissen natürlich mit ins Spiel gebracht, aber auch viel in Foren im Internet gesucht – bin ja Programmierer und kein Netzwerk- oder Windows-Admin.
Folgende Stellen habe ich als Falschenhälse lokalisiert und einen nach dem anderen ausgeschlossen:

  • Hardware: Router/Switch defekt oder Kabel beschädigt. Das scheint mir nach den Internet-Foren die häufigste Ursache zu sein. Ist bei mir ausgeschieden, denn mit Linux ging es von meinem Rechner ja schnell. Nur unter Windows nicht.
  • Netzwerk sonst zu langsam – konnte ich durch Messungen ausschließen. Trotzdem sitzt hier noch ein archithekturbedingter Falschenhals bei  mir – ich muss demnächst auf ein 1000MBit/s-Netzwerk hochrüsten. Für das konkrete Problem ist das allerdings irrelevant.
  • Große Hoffnung hatte ich auf die Deaktivierung der Firewall und des Antivirenprogramms gesetzt. Aber das war bei mir ohne Wirkung.
  • Die Netzwerkadapter prüfen und ggfls. neu installieren ist immer sinnvoll – auch wenn die Messwerte eine normale Funktion angezeigt haben. Schien bei mir auch alles im grünen Bereich und die Fehlerdiagnose hat keine Fehler ergeben. Seltsamerweise war die Übertragung nach der Diagnose wohl besser geworden. Zumindest war das der Schritt, nachdem ich wieder einen Quick-and-Dirty-Test gemacht und plötzlich besserer Übertragungsraten bekommen habe – sah zumindest danach aus. Kann aber auch an gewissen anderen Schritten gelegen haben, die ich vorher schon durchgeführt hatte.
  • Eine Sache habe ich aus dem Bauch heraus ausprobiert (und hinterher auch einen entsprechenden Tipp im Internet gefunden) – ich habe bei bestehender Ethernet-Verbindung das W-LAN explizit deaktiviert. Also keine zwei Netzwerkadapter parallel aktiv. Danach sieht mir die Übertragungsrate schneller geworden, aber was mich wieder verwirrt ist, dass das erneute Anstellen vom W-LAN keine Reduktion der Übertragungsrate gebracht hatte.
  • Ein paar Tipps haben auch das NAS selbst betroffen. Insbesondere sollte man die Ressourcenauslastung dort überwachen und ggfls. Dienste abstellen, wenn die CPU zu sehr unter Last fährt. Hab ich gemacht und die CPU-Last etwas runter genommen. Die Beobachtung hat mir gezeigt, dass die Daten in vernüftiger Geschwindigkeit rein gekommen sind, aber ich kann nicht sagen, welcher der vorherigen Schritte wirklich in meinem Fall dafür der entscheidende war.  Ich komm mir ein wenig vor wie ein Affe, der irgendwelchen Hebeln gespielt und dabei rein zufällig den richtigen erwischt hat.

Aber ich habe eine Vermutung, was wirklich das Problem gelöst hat und ich mir deshalb bis zum Schluss als Tipp aufhebe – Microsoft hatte mit Windows Vista eine Technologie zum Komprimieren von Daten im Netzwerk eingeführt – „Remote Differential Compression (RDC)“ – Remoteunterschiedskomprimierung. Damit soll das Übertragen von Dateien im Netzwerk im Grunde beschleunigt werden. Nun hat man aber festgestellt, dass das nur unter reinen Windows-Netzwerken ab Vista aufwärts auch prima funktioniert. In heterogenen Netzwerken mit mehreren Betriebssystemen (wie bei mir) bremst der Dienst die Übertragung in vielen Fällen aus (auch wenn Alt-Windows wie XP da mit drin sind). Gerade bei Kopieren von Dateien im Netzwerk soll das Abschalten von RDC viel nutzen. Das macht man in der Systemsteuerung unter Programme und Funktionen und dort Windows-Funktionen aktivieren oder deaktivieren. Dort deaktiviert man die Option Remoteunterschiedskomprimierung, die oft standardmäßig aktiviert ist. Es dauert es wenige Minuten, bis RDC im Netzwerk nicht mehr aktiv ist und es kann ein Windows-Neustart erforderlich sein. Ich vermute wirklich, dass RDC der Schweinehund war.

Wo ist die Windows-Bremse im Netzwerk? Bitte um Tipps

So langsam glaube ich an Windows-Gespenster. Ich komme nicht dahinter, warum die Übertragsrate bei Kopieraktionen von meinem Windows-Rechner auf eine anderer Ressource im LAN so elend niedrig ist. Ich habe jetzt die gemessene Übertragungsrate sowohl mit WiFi als auch Ethernet mal genommen und theoretisch notwendige Zeit für die Übertragung einer Testdatei berechnet (das bekomme ich als Mathematiker gerade noch hin). Die Zeitspanne hat ungefähr dem entsprochen, was von meinem Linux-Rechner auch notwendig war (etwa um den Faktor 1,3 – 1,5 war die Zeit länger, aber das ist im Rahmen und sollte bei größeren Dateien noch besser werden). Passt also.
Und bei dem Windows 7 – Rechner dauert die Dateiübertragung der Testdatei sogar 12x – 15x länger als es sein dürfte.
Interessanter Weise dauert die Überragung mit dem langsameren WiFI „nur“ gut 12x länger als wirklich notwendig, während das schnellere Ethernet noch langsamer ist. Es hängt also wohl in keiner Weise am Netzwerk – das langweilt sich in jedem Fall.
Die Geschichte wird noch besser – ich habe auf dem Rechner für einen weiteren Test ein Linux-Live-System gestartet und bekomme damit bei der Übertragung der Testdatei in etwa die errechnete Zeit hin, die die Übertragung dauern dürfte.
Da ist was komplett in meinem System verstellt, fürchte ich. Denn das Windows 7 so schlecht ist, will ich wirklich nicht behaupten.
PS: Bin für Tipps dankbar.
PPS: Dass Linux besser ist, ist mir klar. Aber der eine Rechner muss unter Windows weiter laufen.

Übertragungsraten in meinem lokalen Netzwerk – ungelöste Rätsel

Die Dauer der Datenübertragung von meinem Arbeitsrechner auf mein neues NAS ist unglaublich lang. Das kann einfach nicht sein. Ich habe mit ein paar Tools (u.a. IPerf) die Netzwerkgeschwindigkeit getestet und komme mit durchschnittlich 90000 KBit/s recht gut an das Limt meines Ethernets ran. Die Sache wird umso mysteriöser, da der Kopiervorgang von einem meiner Linux-Rechner etwa 5x – 10x weniger Zeit braucht. Ich muss das mal messen, aber es ist extrem signifikant. Keine Ahnung, ob die Bremse sitzt.

Legales Sabotieren von W-LAN-Hotspots in Hotels vor US-Gericht eingeklagt

Das ist ja ein Hammer – da wollen geldgeile Hotels in den USA die Nutzung des eigenen Internet-Zugangs technisch mit Sabotagetools verhindern und das gerichtlich legalisieren lassen. Denn nicht anderes bedeutet das, wenn auf dem Gelände von einem Hotel kein eigener W-LAN gestartet werden kann. Ich nutze mein SmartPhone im Hotel grundsätzlich so, um über Tethering mein Notebook ins Internet zu bringen. Das würde damit unterbunden und man müsste die teueren Internet-Zugänge des Hotels nutzen. Gut – man kann USB-Tethering machen, aber alleine die Vorstellung, dass Hotels die technischen Möglichkeiten eines Gastes einschränken dürften, ist grotesk. https://www.heise.de/newsticker/meldung/USA-Kampf-um-Recht-auf-WLAN-Sabotage-2506559.html

Cordova und Emulatoren-Erfahrungen

Ich habe die Woche komplett mit App-Entwicklung unter Cordova verbracht. Das Framework selbst macht die universelle Entwicklung für diverse Plattformen wirklich einfach. Aber die Konfigurationen, die zum Einrichten notwendig sind, sind teils sehr aufwändig. Und was mir total gegen den Strich geht ist die Startzeit von dem Android-Emulator. Das dauert in der Regel zig Minuten – auf einem i7 mit Mörderpower und superschneller SSD. Das geht gar nicht. Ich habe die Woche bei einem Kollegen mitbekommen, dass die Android-App im Emulator (zugegeben wohl eine sehr aufwändige App) erst nach Stunden (!!) gestartet ist. So macht Entwicklung auch keinen wirklichen Spass. Man kann auf Microsoft schimpfen wie man will – der Emulator dort startet im Sekundenbereich und auch der iOS-Simulator unter MacOS ist fix. Was treiben die bei Google da mit dem Android-Emulator nur?

Mein NAS ist fertig eingerichtet

Ich habe doch unterschätzt, wie lange das Kopieren der Daten von einer externen USB-Platte auf das NAS dauert. Gut – das NAS hat nur USB 2, aber dennoch sind gut 24 Stunden für 700 GByte ziemlich lang. Keine Ahnung, ob ich da irgendwo einen Fehler gemacht habe und die Daten einen Umweg über das Ethernet genommen haben. Ich hatte mich nur per SSH eingeloggt und direkt in der Linux-Konsole den Kopierbefehl abgeschickt. Sollte also bloß den kurzen Weg von der externen Platte zu internen Platte via 10 cm USB-Kabel genommen haben.
Ich habe dann die internen Verzeichnisstrukturen des NAS noch sinnvoll verschoben und strukturiert und auch da hat die Sache gut 16 Stunden im Hintergrund gewerkelt. Alles in Allem sind das Zeitfaktoren, die man nur am Anfang zum Einrichten akzeptieren kann.
Ansonsten habe ich diverse Server auf dem NAS nun erst einmal fertig eingerichtet. Ganz witzig am Rande – es gibt einen Videoserver, der auch DVB-T unterstützt. Sogar meinen einen DVT-T Stick, der unter Windows 7 nur kurzzeitig zwischen zwei Update-Zyklen mal gegangen war und jetzt wieder nicht einzurichten ist. Ebenso den ganz alten DVB-T-Stick, der nur unter Windows XP, aber nicht Windows 7 läuft. Für das Streaming von TV-Sendungen habe ich die beiden nun zu Wahl.
Beim Einrichten fand ich es sehr befriedigend, dass sich das NAS in Hessen wähnt. Obwohl Bodenheim auf der linken Rhein-Seite liegt. Wenn ich Sender mit Regionaleinstellung Rheinland-Pfalz scanne, bekomme ich keinen einzigen Sender rein. Mit Regionaleinstellung Hessen aber 23 Sender. Das freut mich als echten Hessen natürlich, dass das NAS die alte Zuordnung von Bodenheim zu Hessen bestätigt. Denn vor dem Krieg war das hier Hessen (Regierungsbezirk Darmstadt) und die paar hessischen Orte hier wurden erst nach dem Krieg im Austausch für Kastel, Kostheim & Co Rheinland-Pfalz zugeschlagen. Die Siegermächte aber einfach den Rhein als Grenze genommen. Auf der rechten Seite Hessen, links Rheinland-Pfalz – egal, wie es vorher war. Das NAS widerspricht 😉

VirtualBox VM nachträglich vergrößern und neues Volume anlegen

Den Platz der virtuellen Maschine für meine Betaversion von Windows 10 habe ich – leider wie üblich – beim Aufsetzen zu knapp kalkuliert.
Da ich Windows 10 im Moment im Entwickleralltag teste und diverse Aktionen für die App-Entwicklung mit Cordova durchspiele, ist mir mal wieder der voreingestellte Platz der VirtualBox-VM von 30 GByte zugelaufen.
Leider ist es unter VirtualBox immer noch nicht ganz so trivial die VM nachträglich zu vergrößern. Zumindest ist mir kein Befehl in den Menüs vom VM VirutalBox Manager bekannt.

Macht aber nichts, denn in der Konsole kann man die Sache recht leicht bewerkstelligen und die VirtualBox Festplatte nachträglich vergrößern. Man muss einfach das Tool VBoxManage mit ein paar Parametern aufrufen.
Der Knabe ist manchmal etwas unwillig, weil er mit bestimmten Pfaden seine Probleme zu haben scheint. Zumindest bei mir.
Das einfachste ist es, wenn man in das Verzeichnis von VirtualBox wechselt (etwa C:ProgrammeOracleVirtualBox) und dann folgendes aufruft:

VBoxManage.exe modifyhd [Pfad zum Volume] -resize [Neue Größe in MByte] 

Sollte man den VBoxManage vollqualifiziert adressieren, muss man in der Regel mit Hochkommata arbeiten – besonders dann, wenn Verzeichnisnamen Leerzeichen enthalten. Also etwa so:

„C:ProgrammeOracleVirtualBoxVBoxManage.exe modifyhd“ „C:[Pfad zum Volume].vdi“ -resize 51200 

Vergrößern bei Windows langt nicht – ein neues Volume ist notwendig

Leider war es das dann unter Windows aber noch nicht, denn obwohl die VM dann eine neue Größe hat, kennt Windows die neue Größe nicht an. Man muss

  1. entweder das Volumen neu formatieren (dann sind alle Daten weg, was ziemlicher Blödsinn ist) 
  2. oder man legt einfach ein weiteres Volume an. 

Das kann man unter den meisten Windowsversionen mit der Computerverwaltung und dort der Datenträgerverwaltung machen.
In Windows bis zur Version 8.x öffnet man dazu die Computerverwaltung in der Systemsteuerung und dann auf System und Sicherheit -> Verwaltung -> Computerverwaltung klicken (Administratorberechtigung erforderlich). Dort findet man unter Speicher die Datenträgerverwaltung.

Dort klickt mit der rechten Maustaste auf einen nicht zugeordneten Bereich der Festplatte fügt ein neues einfaches Volume hin. Der nachfolgende Assistent lässt die Größe des zu erstellenden Volumes in MBytes angaben und man übernimmt den standardmäßigen Laufwerkbuchstaben.

Soweit, so gut. Leider habe ich die Datenträgerverwaltung unter Windows 10 in der Systemsteuerung nicht gefunden (vielleicht bin ich auch nur blind). Aber Sie ist natürlich noch da. Musste Sie nur in der Konsole mit diskmgmt.msc aufrufen. Jetzt ist wieder genug Platz in der VM.

Mein NAS ist da

Ich habe die Faxen dicke, meine Datensicherungen immer auf meinen externen USB-Festplatten ziehen zu müssen. Die sind meist nicht synchron mit dem aktuellesten Stand und kommen – trotz 1 bzw. 1,5 TByte – langsam an die Grenzen der Kapazität. Außerdem habe ich mehrere Rechner zu sichern, was ohne zentrales Backupsystem noch mühsamer ist.
Ich habe zwar schon eine Weile mit FreeNAS und einem ausgedienten NetBook und einem Raspberry Pi experimentiert, aber so richtig überzeugt hat mich das nicht. War zwar ok und interessant zum Lernen, aber irgendwo doch wieder zu viel gefrickelt und mir zu unbequem, um im täglichen Betrieb unauffällig im Hintergrund zu werkeln. Zudem hat das NetBook viel zu wenig internen Speicher (vom Raspberry ganz schweigen) ich müsste wieder externe USB-Platten anhängen, die irgendwo rumliegen.
Also habe ich mir ein einfaches Synology-NAS (DS214se) gekauft und mit zwei 4TByte-Platten für ein RAID 1 ausgerüstet. Da läuft – wie bei FreeNAS – als Betriebssystem ein Linux, aber die Bedienung über ein Web-Interface und die Integration in das Netzwerk sind einfach super konfiguriert. Dazu braucht das Teil extrem wenig Strom, was ja auch kein Fehler ist. Auch die Erweiterungen wie ein Mediacenter samt TV-Streaming, SVN-Server, GIT-Server etc. sind wirklich gut gemacht. Alles ganz einfach zu nutzen und das macht die Sache für die Praxis sehr brauchbar. Ich kann zwar wie gesagt für ein NAS ein Linux von Grund auf aufsetzen, die Hardware zusammenstellen und konfigurieren – aber ich will das nicht für den täglichen Betrieb. Ist mir einfach zu viel Aufwand. In dem Fall ziehe ich die Tiefkühlpizza vor.
Ich werde die nächste Zeit meine Erfahrungen mit dem NAS posten, aber der erste Eindruck ist schon gut. Meine Datensicherungen auf das NAS laufen im Moment und daneben streame ich TV-Sendungen in mein LAN. Geht alles ganz ohne Probleme. Die limitierende Größe ist mein Ethernet, dass mit 10/100 MBit/s nicht mehr auf dem besten Stand ist.