Problem mit der Übertragungsrate im lokalen Netzwerk wohl gelöst – Rätsel bleiben aber

Man sagt uns Mathematikern nach, dass wir zwar nicht viel wissen, sich aber an Problemem festbeißen und solange nicht loslassen, bis das Problem zur Strecke gebracht wurde. Dabei ist es unerheblich, ob es darum geht die Welt zu retten oder aber einfach nur etwas gelöst wird, was niemanden außer einem selbst interessiert. Praktischer Nutzen ist was für die anderen ;-).

  • Ungelöstes Problem. 
  • Geht nicht. 
  • Zubeißen und solange würgen, bis das Problem aufgibt.
  • Tag gerettet – wer auch immer mit der Lösung was anfangen kann.

Mein Tag ist insofern jetzt auch gerettet, weil wohl die Übertragungsrate von dem Windows-Rechner auf das NAS nun endlich den Wert erreicht, den sie haben sollte (wie unter Linux).
Es war ziemlich Aufwand alle Stellen abzuklopfen, die hier den Falschenhals bilden konnten. Ich habe mein eigenes Wissen natürlich mit ins Spiel gebracht, aber auch viel in Foren im Internet gesucht – bin ja Programmierer und kein Netzwerk- oder Windows-Admin.
Folgende Stellen habe ich als Falschenhälse lokalisiert und einen nach dem anderen ausgeschlossen:

  • Hardware: Router/Switch defekt oder Kabel beschädigt. Das scheint mir nach den Internet-Foren die häufigste Ursache zu sein. Ist bei mir ausgeschieden, denn mit Linux ging es von meinem Rechner ja schnell. Nur unter Windows nicht.
  • Netzwerk sonst zu langsam – konnte ich durch Messungen ausschließen. Trotzdem sitzt hier noch ein archithekturbedingter Falschenhals bei  mir – ich muss demnächst auf ein 1000MBit/s-Netzwerk hochrüsten. Für das konkrete Problem ist das allerdings irrelevant.
  • Große Hoffnung hatte ich auf die Deaktivierung der Firewall und des Antivirenprogramms gesetzt. Aber das war bei mir ohne Wirkung.
  • Die Netzwerkadapter prüfen und ggfls. neu installieren ist immer sinnvoll – auch wenn die Messwerte eine normale Funktion angezeigt haben. Schien bei mir auch alles im grünen Bereich und die Fehlerdiagnose hat keine Fehler ergeben. Seltsamerweise war die Übertragung nach der Diagnose wohl besser geworden. Zumindest war das der Schritt, nachdem ich wieder einen Quick-and-Dirty-Test gemacht und plötzlich besserer Übertragungsraten bekommen habe – sah zumindest danach aus. Kann aber auch an gewissen anderen Schritten gelegen haben, die ich vorher schon durchgeführt hatte.
  • Eine Sache habe ich aus dem Bauch heraus ausprobiert (und hinterher auch einen entsprechenden Tipp im Internet gefunden) – ich habe bei bestehender Ethernet-Verbindung das W-LAN explizit deaktiviert. Also keine zwei Netzwerkadapter parallel aktiv. Danach sieht mir die Übertragungsrate schneller geworden, aber was mich wieder verwirrt ist, dass das erneute Anstellen vom W-LAN keine Reduktion der Übertragungsrate gebracht hatte.
  • Ein paar Tipps haben auch das NAS selbst betroffen. Insbesondere sollte man die Ressourcenauslastung dort überwachen und ggfls. Dienste abstellen, wenn die CPU zu sehr unter Last fährt. Hab ich gemacht und die CPU-Last etwas runter genommen. Die Beobachtung hat mir gezeigt, dass die Daten in vernüftiger Geschwindigkeit rein gekommen sind, aber ich kann nicht sagen, welcher der vorherigen Schritte wirklich in meinem Fall dafür der entscheidende war.  Ich komm mir ein wenig vor wie ein Affe, der irgendwelchen Hebeln gespielt und dabei rein zufällig den richtigen erwischt hat.

Aber ich habe eine Vermutung, was wirklich das Problem gelöst hat und ich mir deshalb bis zum Schluss als Tipp aufhebe – Microsoft hatte mit Windows Vista eine Technologie zum Komprimieren von Daten im Netzwerk eingeführt – „Remote Differential Compression (RDC)“ – Remoteunterschiedskomprimierung. Damit soll das Übertragen von Dateien im Netzwerk im Grunde beschleunigt werden. Nun hat man aber festgestellt, dass das nur unter reinen Windows-Netzwerken ab Vista aufwärts auch prima funktioniert. In heterogenen Netzwerken mit mehreren Betriebssystemen (wie bei mir) bremst der Dienst die Übertragung in vielen Fällen aus (auch wenn Alt-Windows wie XP da mit drin sind). Gerade bei Kopieren von Dateien im Netzwerk soll das Abschalten von RDC viel nutzen. Das macht man in der Systemsteuerung unter Programme und Funktionen und dort Windows-Funktionen aktivieren oder deaktivieren. Dort deaktiviert man die Option Remoteunterschiedskomprimierung, die oft standardmäßig aktiviert ist. Es dauert es wenige Minuten, bis RDC im Netzwerk nicht mehr aktiv ist und es kann ein Windows-Neustart erforderlich sein. Ich vermute wirklich, dass RDC der Schweinehund war.

Wo ist die Windows-Bremse im Netzwerk? Bitte um Tipps

So langsam glaube ich an Windows-Gespenster. Ich komme nicht dahinter, warum die Übertragsrate bei Kopieraktionen von meinem Windows-Rechner auf eine anderer Ressource im LAN so elend niedrig ist. Ich habe jetzt die gemessene Übertragungsrate sowohl mit WiFi als auch Ethernet mal genommen und theoretisch notwendige Zeit für die Übertragung einer Testdatei berechnet (das bekomme ich als Mathematiker gerade noch hin). Die Zeitspanne hat ungefähr dem entsprochen, was von meinem Linux-Rechner auch notwendig war (etwa um den Faktor 1,3 – 1,5 war die Zeit länger, aber das ist im Rahmen und sollte bei größeren Dateien noch besser werden). Passt also.
Und bei dem Windows 7 – Rechner dauert die Dateiübertragung der Testdatei sogar 12x – 15x länger als es sein dürfte.
Interessanter Weise dauert die Überragung mit dem langsameren WiFI „nur“ gut 12x länger als wirklich notwendig, während das schnellere Ethernet noch langsamer ist. Es hängt also wohl in keiner Weise am Netzwerk – das langweilt sich in jedem Fall.
Die Geschichte wird noch besser – ich habe auf dem Rechner für einen weiteren Test ein Linux-Live-System gestartet und bekomme damit bei der Übertragung der Testdatei in etwa die errechnete Zeit hin, die die Übertragung dauern dürfte.
Da ist was komplett in meinem System verstellt, fürchte ich. Denn das Windows 7 so schlecht ist, will ich wirklich nicht behaupten.
PS: Bin für Tipps dankbar.
PPS: Dass Linux besser ist, ist mir klar. Aber der eine Rechner muss unter Windows weiter laufen.

Übertragungsraten in meinem lokalen Netzwerk – ungelöste Rätsel

Die Dauer der Datenübertragung von meinem Arbeitsrechner auf mein neues NAS ist unglaublich lang. Das kann einfach nicht sein. Ich habe mit ein paar Tools (u.a. IPerf) die Netzwerkgeschwindigkeit getestet und komme mit durchschnittlich 90000 KBit/s recht gut an das Limt meines Ethernets ran. Die Sache wird umso mysteriöser, da der Kopiervorgang von einem meiner Linux-Rechner etwa 5x – 10x weniger Zeit braucht. Ich muss das mal messen, aber es ist extrem signifikant. Keine Ahnung, ob die Bremse sitzt.

Legales Sabotieren von W-LAN-Hotspots in Hotels vor US-Gericht eingeklagt

Das ist ja ein Hammer – da wollen geldgeile Hotels in den USA die Nutzung des eigenen Internet-Zugangs technisch mit Sabotagetools verhindern und das gerichtlich legalisieren lassen. Denn nicht anderes bedeutet das, wenn auf dem Gelände von einem Hotel kein eigener W-LAN gestartet werden kann. Ich nutze mein SmartPhone im Hotel grundsätzlich so, um über Tethering mein Notebook ins Internet zu bringen. Das würde damit unterbunden und man müsste die teueren Internet-Zugänge des Hotels nutzen. Gut – man kann USB-Tethering machen, aber alleine die Vorstellung, dass Hotels die technischen Möglichkeiten eines Gastes einschränken dürften, ist grotesk. https://www.heise.de/newsticker/meldung/USA-Kampf-um-Recht-auf-WLAN-Sabotage-2506559.html

Cordova und Emulatoren-Erfahrungen

Ich habe die Woche komplett mit App-Entwicklung unter Cordova verbracht. Das Framework selbst macht die universelle Entwicklung für diverse Plattformen wirklich einfach. Aber die Konfigurationen, die zum Einrichten notwendig sind, sind teils sehr aufwändig. Und was mir total gegen den Strich geht ist die Startzeit von dem Android-Emulator. Das dauert in der Regel zig Minuten – auf einem i7 mit Mörderpower und superschneller SSD. Das geht gar nicht. Ich habe die Woche bei einem Kollegen mitbekommen, dass die Android-App im Emulator (zugegeben wohl eine sehr aufwändige App) erst nach Stunden (!!) gestartet ist. So macht Entwicklung auch keinen wirklichen Spass. Man kann auf Microsoft schimpfen wie man will – der Emulator dort startet im Sekundenbereich und auch der iOS-Simulator unter MacOS ist fix. Was treiben die bei Google da mit dem Android-Emulator nur?

Mein NAS ist fertig eingerichtet

Ich habe doch unterschätzt, wie lange das Kopieren der Daten von einer externen USB-Platte auf das NAS dauert. Gut – das NAS hat nur USB 2, aber dennoch sind gut 24 Stunden für 700 GByte ziemlich lang. Keine Ahnung, ob ich da irgendwo einen Fehler gemacht habe und die Daten einen Umweg über das Ethernet genommen haben. Ich hatte mich nur per SSH eingeloggt und direkt in der Linux-Konsole den Kopierbefehl abgeschickt. Sollte also bloß den kurzen Weg von der externen Platte zu internen Platte via 10 cm USB-Kabel genommen haben.
Ich habe dann die internen Verzeichnisstrukturen des NAS noch sinnvoll verschoben und strukturiert und auch da hat die Sache gut 16 Stunden im Hintergrund gewerkelt. Alles in Allem sind das Zeitfaktoren, die man nur am Anfang zum Einrichten akzeptieren kann.
Ansonsten habe ich diverse Server auf dem NAS nun erst einmal fertig eingerichtet. Ganz witzig am Rande – es gibt einen Videoserver, der auch DVB-T unterstützt. Sogar meinen einen DVT-T Stick, der unter Windows 7 nur kurzzeitig zwischen zwei Update-Zyklen mal gegangen war und jetzt wieder nicht einzurichten ist. Ebenso den ganz alten DVB-T-Stick, der nur unter Windows XP, aber nicht Windows 7 läuft. Für das Streaming von TV-Sendungen habe ich die beiden nun zu Wahl.
Beim Einrichten fand ich es sehr befriedigend, dass sich das NAS in Hessen wähnt. Obwohl Bodenheim auf der linken Rhein-Seite liegt. Wenn ich Sender mit Regionaleinstellung Rheinland-Pfalz scanne, bekomme ich keinen einzigen Sender rein. Mit Regionaleinstellung Hessen aber 23 Sender. Das freut mich als echten Hessen natürlich, dass das NAS die alte Zuordnung von Bodenheim zu Hessen bestätigt. Denn vor dem Krieg war das hier Hessen (Regierungsbezirk Darmstadt) und die paar hessischen Orte hier wurden erst nach dem Krieg im Austausch für Kastel, Kostheim & Co Rheinland-Pfalz zugeschlagen. Die Siegermächte aber einfach den Rhein als Grenze genommen. Auf der rechten Seite Hessen, links Rheinland-Pfalz – egal, wie es vorher war. Das NAS widerspricht 😉

VirtualBox VM nachträglich vergrößern und neues Volume anlegen

Den Platz der virtuellen Maschine für meine Betaversion von Windows 10 habe ich – leider wie üblich – beim Aufsetzen zu knapp kalkuliert.
Da ich Windows 10 im Moment im Entwickleralltag teste und diverse Aktionen für die App-Entwicklung mit Cordova durchspiele, ist mir mal wieder der voreingestellte Platz der VirtualBox-VM von 30 GByte zugelaufen.
Leider ist es unter VirtualBox immer noch nicht ganz so trivial die VM nachträglich zu vergrößern. Zumindest ist mir kein Befehl in den Menüs vom VM VirutalBox Manager bekannt.

Macht aber nichts, denn in der Konsole kann man die Sache recht leicht bewerkstelligen und die VirtualBox Festplatte nachträglich vergrößern. Man muss einfach das Tool VBoxManage mit ein paar Parametern aufrufen.
Der Knabe ist manchmal etwas unwillig, weil er mit bestimmten Pfaden seine Probleme zu haben scheint. Zumindest bei mir.
Das einfachste ist es, wenn man in das Verzeichnis von VirtualBox wechselt (etwa C:ProgrammeOracleVirtualBox) und dann folgendes aufruft:

VBoxManage.exe modifyhd [Pfad zum Volume] -resize [Neue Größe in MByte] 

Sollte man den VBoxManage vollqualifiziert adressieren, muss man in der Regel mit Hochkommata arbeiten – besonders dann, wenn Verzeichnisnamen Leerzeichen enthalten. Also etwa so:

„C:ProgrammeOracleVirtualBoxVBoxManage.exe modifyhd“ „C:[Pfad zum Volume].vdi“ -resize 51200 

Vergrößern bei Windows langt nicht – ein neues Volume ist notwendig

Leider war es das dann unter Windows aber noch nicht, denn obwohl die VM dann eine neue Größe hat, kennt Windows die neue Größe nicht an. Man muss

  1. entweder das Volumen neu formatieren (dann sind alle Daten weg, was ziemlicher Blödsinn ist) 
  2. oder man legt einfach ein weiteres Volume an. 

Das kann man unter den meisten Windowsversionen mit der Computerverwaltung und dort der Datenträgerverwaltung machen.
In Windows bis zur Version 8.x öffnet man dazu die Computerverwaltung in der Systemsteuerung und dann auf System und Sicherheit -> Verwaltung -> Computerverwaltung klicken (Administratorberechtigung erforderlich). Dort findet man unter Speicher die Datenträgerverwaltung.

Dort klickt mit der rechten Maustaste auf einen nicht zugeordneten Bereich der Festplatte fügt ein neues einfaches Volume hin. Der nachfolgende Assistent lässt die Größe des zu erstellenden Volumes in MBytes angaben und man übernimmt den standardmäßigen Laufwerkbuchstaben.

Soweit, so gut. Leider habe ich die Datenträgerverwaltung unter Windows 10 in der Systemsteuerung nicht gefunden (vielleicht bin ich auch nur blind). Aber Sie ist natürlich noch da. Musste Sie nur in der Konsole mit diskmgmt.msc aufrufen. Jetzt ist wieder genug Platz in der VM.

Mein NAS ist da

Ich habe die Faxen dicke, meine Datensicherungen immer auf meinen externen USB-Festplatten ziehen zu müssen. Die sind meist nicht synchron mit dem aktuellesten Stand und kommen – trotz 1 bzw. 1,5 TByte – langsam an die Grenzen der Kapazität. Außerdem habe ich mehrere Rechner zu sichern, was ohne zentrales Backupsystem noch mühsamer ist.
Ich habe zwar schon eine Weile mit FreeNAS und einem ausgedienten NetBook und einem Raspberry Pi experimentiert, aber so richtig überzeugt hat mich das nicht. War zwar ok und interessant zum Lernen, aber irgendwo doch wieder zu viel gefrickelt und mir zu unbequem, um im täglichen Betrieb unauffällig im Hintergrund zu werkeln. Zudem hat das NetBook viel zu wenig internen Speicher (vom Raspberry ganz schweigen) ich müsste wieder externe USB-Platten anhängen, die irgendwo rumliegen.
Also habe ich mir ein einfaches Synology-NAS (DS214se) gekauft und mit zwei 4TByte-Platten für ein RAID 1 ausgerüstet. Da läuft – wie bei FreeNAS – als Betriebssystem ein Linux, aber die Bedienung über ein Web-Interface und die Integration in das Netzwerk sind einfach super konfiguriert. Dazu braucht das Teil extrem wenig Strom, was ja auch kein Fehler ist. Auch die Erweiterungen wie ein Mediacenter samt TV-Streaming, SVN-Server, GIT-Server etc. sind wirklich gut gemacht. Alles ganz einfach zu nutzen und das macht die Sache für die Praxis sehr brauchbar. Ich kann zwar wie gesagt für ein NAS ein Linux von Grund auf aufsetzen, die Hardware zusammenstellen und konfigurieren – aber ich will das nicht für den täglichen Betrieb. Ist mir einfach zu viel Aufwand. In dem Fall ziehe ich die Tiefkühlpizza vor.
Ich werde die nächste Zeit meine Erfahrungen mit dem NAS posten, aber der erste Eindruck ist schon gut. Meine Datensicherungen auf das NAS laufen im Moment und daneben streame ich TV-Sendungen in mein LAN. Geht alles ganz ohne Probleme. Die limitierende Größe ist mein Ethernet, dass mit 10/100 MBit/s nicht mehr auf dem besten Stand ist.

Fast schon vergessen – Blue screen of death

Man, hat das eben gescheppert als ich bei Amazon eine Freisprechanlage in den Warenkorb gelegt habe. Ich hatte fast vergessen, dass es unter Windows den Blue Screen of death gibt. Mein Windows 7 läuft so stabil (pflege es aber auch regelmäßig), dass ich die ständig üblichen Abstürze älterer Windows-Versionen fast vergessen habe. Umso mehr bin ich erschrocken als es eben geknallt hat. Ob das an Amazon liegt? Eine Warnung nicht bei den bösen Preisdrückern einzukaufen? Muss ich zumindest testen … 🙂

Windows 10 im Entwickleralltag mit Cordova

Ich bin nächste Woche am Schaffen mit dem neuen Cordova/PhoneGap und muss im Moment dafür ein wenig vorbereiten. Da zudem in einer Online-Schulung, die ich betreue, ein Teilnehmer massive Probleme hat mit den Command-Line Interface (CLI) von Cordova, um da alle Installationen hinzubekommen und vor allen Dingen dann die Cordova-Projekte für die verschiedenen Apps für Android, iOS oder WP8 zu erstellen, habe ich heute Abend eine Aktion ausgeführt, um mehrere Fliegen mit einer Klappe zu schlagen. Ich wollte sowieso meine vorliegende Beta von Windows 10 wieder ein bisschen weiter testen. Da lag es nahe, das jungfräuliche Windows in meiner VirutalBox sukzessive von Null auf Cordova-Entwicklersystem auszubauen. Auf dem System gab es bisher noch nichts an Entwicklertools (vom Visual Studio 2013 mal abgesehen).

Ich habe also wirklich von 0 an alle Installationen und Einstellungen vorgenommen, um am Ende mit CLI die App-Projekte erstellten zu können.
Das bedeutet folgende Installationen:

  • JDK 8
  • ADT-SDK samt diverser Pakete, die nach der Installation mti dem ADT-SDK-Manager nachzuinstallieren sind (die Nachinstallation dauert schon mal ein paar Stunden, läuft aber ziemlich automatisiert ab)
  • Node.js
  • Git
  • Ant

Dazu musste die path-Angabe – teils von Hand – um die Toolverzeichnisse erweitert werden.

Aber dann ist auch unter Windows 10 alles gelaufen und in der Konsole konnte ich die Projekte für die Apps mit dem CLI erstellen. Windows 10 ist dabei erfreulich unauffällig. Und auch unter Cordova geht mittlerweile alles viel einfacher – sofern der Rechner richtig konfiguriert ist und alle Tools da sind (und das Einzurichten ist bei einem jungfräulichen Rechner eine Schweinearbeit, wie ich bei dem Test wieder gemerkt habe).

Der Winter steht in den Startlöchern

Ich habe einen Kunden im Taunus, für den ich seit über 10 Jahren regelmäßig Schulungen halte. Und ich habe das Gefühl, dass ich in jedem Jahr im Dezember da war und die Einleitung vom Winter da mitbekommen habe. Während es unten im Tal noch nichts mit Schnee ist, ist da oben knapp unter dem Feldberg Anfang Dezember schon eher Schnee zu erwarten.

So auch dieses Jahr. Ich habe gerade 2 Tage JavaFX und erweiterte Java-Themen geschult und für den Winter da den ersten Schnee gesehen. War noch nicht genug für einen Schneemann und die Straßen waren noch frei, aber die Farbklexe und die eingefärbten Bäume waren eindeutig.

Am kommenden Montag muss ich da nochmal für eine JSP/Servlets-Schulung hin und für das Wochenende sind richtige Schneefälle angekündigt. Wir werden sehen.

Ich bin mit guten Winterreifen und meinem Forester mit Allradantrieb zumindest gut gerüstet.

Piloten bei der Lufthansa streiken – schon wieder

Nein! Ich habe kein Verständnis mehr für diese ständigen Pilotenstreiks. Es langt einfach. Wie soll man seine eternen Aufträge noch zuverlässig planen, wenn entweder die Bahn oder die Lufthansa ihre Leistungen nicht bringen?
Beide Gesellschaften schaffen sich im Moment selbst ab. Glücklicher Weise kann ich mehr und mehr Aufträge online oder vom Büro aus erledigen und ich versuche diese Tendenz zu verstärken (auch wegen dieser absolut unbefriedigenden Transportmöglichkeiten im Moment).
Die externen Aufträge werde ich soweit wie möglich mit dem Auto erledigen (trotz der immer vorhandenen Staugefahr), wobei ich gerne öffentliche Verkehrsmittel nutzen würde. Es ist aber einfach zu unzuverlässig. Bei der Bahn kommen die massiven Verspätungen und Ausfälle noch dazu.

Der Hund bellt den Mond an, weil er nix Besseres zu tun hat

Oder anders ausgedrückt – das EU-Parlament möchte die Aufspaltung von Google. Zwar wird nur allgemein von Suchmaschinen gesprochen, aber es geht explizit nur um die Zerschlagung von Google.
Ich frage mich, was dieser Windbeutel soll?
Da sitzen in der EU hochbezahlte (sollte man vielleicht besser überbezahlte) Bürokraten und entsorgte Alt-Politiker und verschwenden Geld mit vollkommen unsinnigen Aktionen.
Gut – diese Sache verschwendet nur Geld und schadet nicht explizit, wie die meisten übrigen EU-Aktionen. Die populistische Forderung ist einfach nur lächerlich und geht am Leben vorbei, dass Null-komma-Nix rauskommen wird, wenn der Beutel geplatzt ist und die Leute ihre Langeweile mit anderen Dingen bekämpfen. Die Sache wird so vermarket:

Die Abgeordneten plädieren in einer nicht bindenden Resolution dafür, Unternehmen wie Google zur Trennung von Suchmaschinen- und anderen Geschäften zu zwingen.

„Nicht bindend“ sagt schon alles.

Aber mal ernsthaft: wie sollte auch etwas bindend sein, was in Europa für eine US-Firma beschlossen wird? Nur weil man in Europa was in einem Browser sehen kann, gibt es immer noch keine rechtlichen Handhaben Google vorzuschreiben, wie die das in den USA vorbereiten. Das ist sowas von weltfremd und vollkommen uninformiert über das Wesen des Internets – mich schüttelt es einfach.

Da kommen Stammtischsprüche wie

Die Kommission und die EU-Staaten müssen verhindern, dass Suchmaschinen ihre „dominierenden Stellung“ auf dem Markt missbrauchten.

Statt Zerschlagung kommt das (Un-)Wort einer Entflechtung von Google vor, bei der verschiedene Firmenteile so voneinander getrennt werden – selbst wenn sie unter einem Konzerndach bleiben –, dass sie sich nicht gegenseitig Vorteile verschaffen können.
Denn die EU wirft Google vor Treffer so anzuzeigen, dass bei bestimmten Suchen, die eigenen Ergebnisse aus dem Konzern gegenüber der Konkurrenz unfair bevorzugt werden.

Natürlich!!

Das machen andere Suchmaschinen auch und genauso würde ich es auch machen.

Das Problem ist einmal der Anwender, der das oft nicht kapiert. Die andere Seite ist, dass andere Suchmaschinen zu selten verwendet werden und vor allen Dingen, dass es in der EU keine gemeinsame Aktion gibt, eine vernünftige Alternative zu Google zu etablieren und auch den Leuten bekannt zu machen.Verbot und Zensur – mehr fällt der EU wie immer nicht ein. Hier sollte die EU ansetzen mit

  • Geld, 
  • Aufklärung, 
  • Marketing und 
  • politischen Maßnahmen (etwa eine solche EU-Suchmaschine als Standard in Browsern und Betriebssystemen vorschreiben, wenn die mal funktioniert). 

Das Geheule der Versager und Unwilligen, wie es im Moment geschieht, soll nur von der eigenen Unfähigkeit und Faulheit ablenken.
Google ist böse. Stimmt. Aber die anderen US-Suchmaschinen sind es auch. Wer in einen Löwenkäfig geht muss halt in der Lage sein die Tiere im Griff zu halten. Oder sich Hamster als Haustiere suchen.

System Volume Information ist verdammt hartnäckig

Die Tage hatte ich eine immense Platzverschwendung auf meiner externer USB-Festplatte entdeckt und beseitigt. Auf dieser wurden regelmäßig von Windows vollkommen unnötige Systemwiederherstellungsdaten angelegt. Das macht bei der eigentlichen Festplatte zur Wiederherstellung von Windows ganz viel Sinn, aber bei einer reinen externen Datenfestplatte, die fast ausschließlich für Backups verwendet wird, ist das total überflüssig. Leider zeigt sich Windows beratungsresistent und legt den Ordner System Volume Information immer wieder auf der externen Festplatte an. Und dieser wächst schnell auf 2- bis 3-stellige Gigabyte-Werte. Egal ob man in der Systemsteuerung festlegt, dass das nicht gemacht werden soll oder nicht. Und zudem weigert sich Windows das Verzeichnis oder dessen Inhalt zu löschen. Die ganzen Tricks mit zusätzlichen Zugriff für den Admin einzurichten und dann zu löschen hat die Tage wohl funktioniert, aber gestern ging auch das nicht.
Windows scheint zu lernen. Da will ein Anwender was und hat einen Weg gefunden. Dann mache ich auch zu!
Mir hat es dann gelangt. Der einzig zuverlässige Weg ist das Starten eines Linux-Live-Systems und dann weg mit dem Schrott. Das muss man halt alle paar Wochen machen, aber egal. Wegen den ganzen Mängeln in Windows muss man ja sowieso permanent sein System säubern und da ist so ein Zusatzschritt auch nicht so schlimm.

Mein neues Videotraining zu VB.NET ist veröffentlicht worden

Mein Video-Training Visual Basic für Einsteiger. Programmieren lernen in .NET und Visual Studio 2013. ist bei Video2Brain erschienen.

Kostenlose Beispielfilme und Trailer

Die folgenden Videos sind frei geschaltet.

Seltsame Kontaktanfragen auf XING häufen sich

Ich bin schon lange auf XING und habe über das Netzwerk auch schon einige gute Aufträge erhalten. Grundsätzlich bin ich mit dem Business-Netzwerk wirklich zufrieden.
Aber in der letzten Zeit erhalte ich immer mehr Kontaktanfragen, die ich überhaupt nicht zuordnen kann. Anfänglich habe ich Kontaktanfragen auf Xing fast immer bestätigt, aber so langsam werde ich durch auffällige Anfragen kritischer.
Ich frage mich, warum und welche Kontakte ich in Xing eigentlich annehmen sollte? Gewünschte Kontakte sind die mit

  • Menschen, die ich getroffen habe, 
  • frühere, aktuelle und zukünftige Kunden/Kooperationspartner/Teilnehmende an meinen Seminare und
  • Personen, mit denen ich (geschäftliche) Interessen teile. 

Bei diversen Anfragen im Moment kann ich keinen dieser Schnittpunkte erkennen. Ich will niemanden Unrecht tun, aber ich habe im Moment mehrere Anfragen von Personen, die als sich als Head of Organisation von einem Einzelunternehmung aus Meißen bezeichnen. Meist haben die bisher auch noch keine große Anzahl an Kontakten.
Das werte ich entweder als Spam oder eine willkürliche Massenkontaktaufnahme über Xing (sieht mir fast als Reaktion auf ein Seminar für Existenzgründer oder so aus).
Solche Anfragen werde ich nicht mehr annehmen und meine Kontaktliste auch durchforsten, um bisher bereits unüberlegt angenommene Kontakte zu löschen. Qualität ist besser als Quantität.

Platzverschwendung auf externer USB-Festplatte beseitigen

Ich habe eine externe USB-Festplatte mit einem TByte in meinem System, auf der ich regelmäßige Backups fahre und zudem meine ganzen Mulitmediadateien ablege (insbesondere die ganze Videos, die ich beim Gleitschirmfliegen mit der GoPro mitschneide). So langsam wird es verdammt eng auf der Platte, aber bei einem Check mit einem Tool ist mir aufgefallen, dass ein Ordner System Volume Information zwar im Explorer mit der Größe 0 Byte angezeigt wird, tatsächlich aber fast 230 GByte groß ist.
Ein bisschen nachgeforscht und festgestellt, dass das vollkommen unnötige Systemwiederherstellungsdaten sind, die Windows idiotischer Weise auch für eine externe USB-Festplatte anlegt.
Es ist jetzt ein bisschen tricky die Datei überhaupt zu löschen (gibt aber einige ganz brauchbare Anleitungen im Internet) und da mir Windows bei der Aktion immer wieder gehangen hat, bin ich gar nicht sicher, welche der Schritte den Müll letztendlich gelöscht hat. Aber der Kram ist jetzt zumindest weg. Zwar gibt es den Ordner nach einem Neustart schon wieder, aber jetzt nimmt er nur wenige Byte ein. Praktisch habe ich folgendes gemacht:

  • Standardmäßig hat nur System Zugriff auf den Ordner. Ich habe für den Admin Zugriff eingerichtet und den Ordner gelöscht. Das schien zwar nicht zu funktionieren, aber ich denke, dass Windows da einfach falsche Rückmeldungen gegeben hat. 
  • Die zweite Maßnahme ging über die Systemsteuerung und dort die Systemwiederherstellung. Aber die war seltsamerweise schon für das USB-Laufwerk sowieso deaktiviert. 

Egal – Hauptsache, dass der Platz auf der Festplatte frei ist und ich den Kauf einer neuer Festplatte noch ein paar Wochen rausschieben kann.