Auf der Suche nach der Bohne

Ich schule gerade in Wiesbaden bei einer Unternehmensberatung und da gibt es eine Kaffeeküche mit kostenlosem Kaffeeautomat. Aber was da rauskommt, hat im Leben noch keine Bohne aus der Nähe gesehen. Irgendein Pulver ist da oben eingefüllt und irgendwas Dunkles kommt in warmer, flüssiger Form unten raus. Aber das ist alles, was es an Ähnlichkeiten zu einem Kaffee da gibt. Ob sich Koffein dazu hergibt, in diesen Suhd einzutauchen, kann ich auch nicht sagen.

Live Long and Prosper

Mit Leonard Nimoy ist wieder ein ganz bekannter Schauspieler gestorben. Aber in seiner Rolle als Spock war er viel mehr – wie die ganze Enterprise-Serie. Kaum eine TV-Serie hat die Physik, Astronomie, Raumfahrt, aber auch EDV so geprägt wie Star Trek.
Nicht nur wurden zig Geräte des derzeitigen Lebens zuerst in der Serie als Fiktion erdacht und dann von Leuten entwickelt, die diese Fiktion einfach wahr werden lassen wollten. Als Beispielen braucht man nur an den Kommunikator (Handy/Smartphone) oder den  sprechenden Computer denken.
Viele Kinder wurden von der Serie angeregt sich mit Raumfahrt, Naturwissenschaften und/oder Computern zu beschäftigen. Ich gehöre selbst dazu. Wegen Enterprise wollte ich Astronaut werden. Und da hielt ich die Beschäftigung mit Astronomie als Jugendlicher für einen guten Einstieg. Darüber kam ich dann zum Physik-Studium, weil das ja alles so irgendwie und irgendwas mit Raumfahrt und Star Trek zu tun hatte.
Ich bin dann zwar während des Studiums in Richtung Mathematik abgebogen und dann letzendlich bei der EDV gelandet. Aber auch die war ja in Enterprise so verdammt fiktiv fortschrittlich – aus damaliger Sicht. Und in dem Bereich haben wir die Fiktion mittlerweile massiv überholt. Der Wrap-Antrieb hängt dagegen immer noch hinterher. Aber egal – Ihr habt uns Kinder damals eine Idee eingepflanzt und die trägt jetzt Früchte. Deshalb – Spock „Lebe lange und in Frieden“.

Aschermittwoch und das Chaos ist da – auf Dauer

Am Faschingsdienstag bin ich Einiges vor 7:00 Uhr noch recht gut über den Rhein zu meiner Schulung in Wiesbaden gekommen. Es war ob der ganzen Arbeitsausfälle wegen Schnappsüberschuss im Blut doch kaum jemand auf dem Weg zur Arbeit. Aber ich hatte schon erwartet, dass wegen der Sperrung der Schiersteiner Brücke die Lage ab heute wieder sehr kritisch wird, wenn die normale Anzahl an Pendlern zur Arbeit will. Deshalb bin ich über Nacht in meinem Zweitstandort im Taunus geblieben und heute von da zu der 2. Session die Woche nach Wiesbaden gefahren. Vollkommen problemlos in 20 Minuten da gewesen. Wie schlimm das Chaos am Morgen im Berufsverkehr war, habe ich gar nicht mitbekommen. Es muss aber hart an Kriegszuständen gewesen sein.
Und bei meinem Rückweg über den Rhein war bereits vor Beginn des eigentlichen Berufsverkehrs 4 Kilometer Stau vor der Weisenauer Brücke. Nachdem ich da durch war (noch erträgliche Verzögerung – nur etwa 3x so lange wie normal), muss der Stau aber richtig gewachsen sein. Dazu war angeblich die 2. noch verbliebene Brücke wegen eines Unfalls auch eine gewisse Zeit zu. Schätze mal, dass die Pendler für eine übliche 10-Minuten-Strecke zwischen 2 – 3 Stunden gebraucht haben.
Tja – und nun kommt noch vermutlich ein Streik der Bahn dazu. Die Schiersteiner Brücke soll auf jeden Fall noch 6 Wochen zu sein und dann auch immer noch nicht für Schwerverkehr freigegeben werden (es sei denn, es geht was schief – dann wird die Sperrung unabsehbar lang).
Die nächsten zwei Wochen muss ich jeden Tag in Wiesbaden oder dem Taunus schulen. Ich richte mich auf Dauerübernachtungen in meiner Zweitwohnung ein. Oder aber ich werde für die Fahrten nach Wiesbaden das Rad nehmen, wenn ich doch da nicht bleiben kann oder will. Die knapp 25 Kilometer kann ich damit in einem Drittel der Zeit fahren, die ich vermutlich mit dem Auto bräuchte. So müssen in Entwicklungsländern die Zustände auch sein …

Erste Praxiserfahrungen mit meiner neuen Workstation

Ich konnte mittlerweile die Workstation ein wenig in der Praxis testen. Bei den Aufnahmen zu meinem C-Videotraining wird sie noch nicht ausreichend gefordert, um wirklich die Möglichkeiten zu erkennen. Aber die Programme starten schon verdammt schnell.
Der erste richtig beeindruckende Test war, als ich 3 Betriebssysteme parallel ausgeführt habe. Das Mainboard unterstützt direkt Virtualisierung und unter Windows 8.1 habe ich noch zusätzlich – jeweils in einer VirtualBox – Mint Linux und Windows 10 gestartet. Alle drei Betriebssysteme und darunter gestartet Programme sind dabei vollkommen flüssig gelaufen.
Es hat aber auch schon was, wenn man einer VM mal eben so 4 Prozessoren und 8 GByte RAM zuweisen kann und das Hostsystem das Abzweigen der Ressourcen scheinbar nicht mal merkt.
Ich habe bei meiner neuen Workstation keinen Fertig-PC von Ich-bin-blöd, Ich-bin-geizig oder einem PC-Handler aus dem Internet genommen, sondern den Rechner nach meinen geplanten Anforderungen selbst ausgesucht und bei PK Computer zusammenbauen lassen. Das ein Anbieter, der sich auf Industrierechner und professionelle Workstations spezialisiert hat. Dabei ist mir das eigentlich eher beiläufig eingefallen, denn PC Computer sitzt in Eppstein genau auf der anderen Straßenseite von meinem Elternhaus bzw. meiner Zweitwohnung/Zweitbüro. Wir sind also seit zig Jahren mehr oder weniger Nachbarn und per Du, aber ich kam erst die Tage auf die Idee, mir dort meinen Rechner zusammenbauen zu lassen, als ich eine Weinlieferung von hier zu ihm mitgenommen und dort abgeliefert hatte. Raus kam aus der Aktion folgende Konfiguration:

  • Miditower mit dem Mainboard Asus Z9PA-UB, 
  • Intel Xeon E5-2620V2, 6x 2,1 GHz, 
  • 32 GB DDR3-1600 RAM Kit, 
  • Grafikkarte Sapphire Radeon R7 265 Dual-X 2 GB, 
  • 250 GB SSD SATA/600 2,5” und 2 TB Festplatte SATA3, 
  • DVD-Brenner sowie 
  • extra leise Gehäuselüfter und CPU-Lüfter. 

Die Kiste hab ich für einen fairen Preis bekommen, wenn ich vergleichbare Angebote im Internet sehe. Nicht unbedingt billiger, aber definitiv nicht teurer. Und wenn was dran ist, hab ich direkt einen lokalen Ansprechpartner.

Verkehrskollaps durch Sperrung einer der wichtigsten Verkehrsadern im Rhein-Main-Gebiet

Vorgestern Nacht ist die Schiersteiner Brücke zwischen Mainz und Wiesbaden gesperrt worden. Aus Sicherheitsgründen, denn die Fahrbahn hatte sich abgesenkt.
Das ist aber nicht nur einfach eine Straße bzw. Autobahn, sondern eine von nur drei Brücken über den Rhein zwischen Koblenz und Worms. Es gibt also auf einer Strecke von über 100 Kilometern nicht mehr als 3 lächerliche Brücken, über die sich täglich Hunderttausende von Autos quälen müssen. Wenn nun eine davon wegbricht kann man sich vorstellen, was mit dem Verkehr rund um Mainz und Wiesbaden passiert. Absolutes Chaos und Stillstand im Berufsverkehr am Morgen und Abend.
Schon mit 3 intakten Brücken und ohne Unfälle auf den Strecken braucht man im Berufsverkehr in der Gegend gut 2 – 3x so lange für Fahrten über den Rhein wie zu normalen Zeiten. Gestern und heute muss es teils zu einer Verzehnfachung der Zeit für Fahrten gekommen sein. 3 Stunden statt 20 Minuten habe ich von einer Fahrt mitbekommen.
Und da die öffentlichen Verkehrsmittel entweder selbst im Stau stehen (Busse) oder meist nicht zuverlässig gehen (Bahnen), ist die gesamte Verkehrsinfrastruktur im Moment zusammengebrochen. Ein Höhepunkt heute war auch noch, dass sich in Mainz jemand vor einen Zug geworfen hatte und damit auch diese (theoretische) Beförderungsmöglichkeit für Stunden ausgefallen war. Die Zustände im Moment sind hier einfach unfassbar.
Wobei ich glücklicher Weise nur an manchen Tagen von dem Chaos betroffen sein werde. Denn zwar nehmen Vorortschulungen in meiner Arbeit immer noch einen großen Raum ein, aber immer mehr bestätigt sich meine Anstrengung Arbeit möglichst von meinem Büro im Haus aus und/oder über Internet zu erledigen. Der Teil meiner Arbeit wächst und wächst und das ist verdammt gut so.
Es ist als Selbständiger kaum noch zu kalkulieren, ob, wie und wann man zu externen Jobs anreisen kann. Schon bei dem normalen Verkehrschaos in Ballungsgebieten, den extrem unzuverlässigen Bahnverbindungen und den ständigen Streiks bei Bahnen und der Lufthansa. Aber diese Ausnahmesituation treibt die Sache wirklich auf die Spitze.
Im Moment muss ich immer wieder einige Tage die Woche in Wiesbaden ganz früh eine Schulung anfangen und ich muss sehen, wie ich meine pünktliche Ankunft sicherstelle. Hängt auch massiv davon ab, ob die Schiersteiner Brücke bald wieder freigegeben wird. Da ist von ein paar Tagen Sperrung die Rede (ich muss erst wieder am kommenden Dienstag ran), aber auch von mehreren Monaten und das wäre eine Katastrophe – vor allen Dingen für die ganzen Pendler und die Wirtschaft hier in der Gegend.

Meine Workstation ist da

Gestern abend habe ich meine neue Workstation abgeholt und dabei etwas mehr in die Vollen gegriffen.
Wenn ich so die Rechner in meinem näheren Umfeld betrachte, war ich meinen immer noch im Netzwerk eingesetzten Uralt-PCs und selbst mit meinem i5-Notebook der ersten Generation klar am unteren Ende der Leistungsskala. Schon krass – ich verdiene mein Geld mit den Dingern und all die Spieler und Hobby-Anwender sind besser ausgestattet.
Damit ist jetzt Schluss. Die Workstation ist zwar nur mit 2,1 GHz getacket, aber von den nur mittelmäßigen schnellen CPUs gibt es gleich 6 physikalische, die auf 12 virtuelle Kerne aufgespalten werden. Ich habe mich für einen halbwegs bezahlbaren 6-Kern-Xeon und ein Servermotherboard entschieden, bei dem Zuverlässigkeit vor maximaler Leistung geht.
Ganz sicher bin ich nicht, ob ich nicht eine höher getackteten Prozessor mit weniger Kernen (etwa einen i7 oder einen 4-Core-Xeon) hätte nehmen sollen. Ich bin halt bei Hardware im Grunde auch nur ein Laie. Zumal die ganzen Gamer immer auf maximale CPU-Frequenz schwören und die Dinger auch noch übertackten. Aber ich bin kein Gamer und da ich meist zig Programme gleichzeitig offen habe (inklusive virtuellen Maschinen), die auch aktiv arbeiten, hoffe ich, dass die 6 Kerne mir mehr nutzen. Und schnellere 6-Core- oder gar 8-Core-Xeons gehen gleich so ins Geld, dass sich für das Geld viele Leute bereits einen vollständigen Gamer-Rechner kaufen.
Beim RAM habe ich klein angefangen und erstmal nur 😉 32 GByte reingehauen. Aber durch das Serverboard kann ich das noch um ein Vielfaches aufrüsten. Hier zeigt sich halt die Xeon-Serverarchitektur. Die 64 GByte werde ich wohl dieses Jahr noch einrichten, wenn die 32 GByte wirklich eng werden sollten.
Eine schnelle SSD als erste Festplatte war natürlich Pflicht und auch bei der Grafikkarte habe ich eine einigermaßen preiswerte Gamerkarte mit 2GByte reingehauen, die 4 Monitore versorgen kann – 3 Bildschirme kommen auf jeden Fall dran.
Ich bin gespannt, wie der Knabe sich jetzt in der Praxis schlägt und wie der Vergleich mit meinem Notebook ausfällt (das wird auf Schulungen und externe Einsätze degradiert). Nach dem ersten Eindruck ist der Rechner ziemlich fix.

Flashplayer aktualisiert – die Not erzwingt es

Bekanntermaßen ist Flash schon seit Jahren eine große – wenn nicht die(!) größte – Sicherheitslücke im Internet. Die letzten Sicherheitslücken im Flashplayer haben mich veranlasst, in meine Browser einen Flashblocker einzubauen. Leider wird damit aber viel von der Faszination des Webs weggenommen, denn es gibt immer noch zahlreiche Webseiten, die bei Animationen und vor allen Dingen Filmen auf Flash statt moderner Techniken setzen. Interessanter Weise sogar bei Medien, die in einem Atemzug über die Sicherheitprobleme des Flashplayers berichten und zur Deaktivierung raten (wie dumm ist das denn?). Ich habe nun mehr oder weniger gezwungenermaßen (ja – ist mir klar, dass ich nicht unbedingt Videos über das Internet sehen muss – aber ich will halt manchmal) das Risiko wieder akzeptiert, das neuste Sicherheitsupdate von Adobe eingespielt und lasse zumindest wieder das Abspielen auf expliziten Klick auf den Startbutton zu, wenn ich dem Anbieter halbwegs traue. Das automatische Abspielen von Flash gehört natürlich deaktiviert und ich hoffe, dass auch die rückständigen Anbieter von Videos endlich auf Flash verzichten und unkritischere Medienformaten wählen.

GBit-Switch

Ich habe lange meine Hardware nicht mehr erneuert, aber langsam muss ich wirklich aufrüsten. Mit dem NAS hat das begonnen und heute kam ein GBit-Switch an. Mein alter Switch scheint mir das Netzwerk doch extrem ausgebremst zu haben. Ich muss die nächsten Tage ein bisschen ausprobieren und konfigurieren, aber nach meinem ersten Eindruck bringt der Wechsel eine Menge. VNC-Zugriff auf der Raspberry PI geht jetzt fast ohne Ruckeln und auch die Sicherung auf dem NAS scheint gefühlt viel schneller zu gehen. Wäre auch dumm, wenn dem nicht so wäre…

Mein Onlinetraining zu Cordova/PhoneGap ist erschienen

Im Dezember war ich in Graz bei Video2Brain und habe dort ein Onlinetraining zur Entwicklung von Apps mit Cordova (auch unter PhoneGap bekannt) aufgenommen.

Gestern wurde es veröffentlicht.

Wie immer gibt es auch dazu kostenlose Beispielfilme und Trailer:
Die folgenden Videos sind frei geschaltet:
       Trailer: https://youtu.be/1sLDWWCAbek
       Allgemeine Ressourcen verwenden:https://www.video2brain.com/de/tutorial/allgemeine-ressourcen-verwenden

Schulung im winterlichen Hochtaunus

Letzte Woche war ich zwei Tage in Darmstadt am Schulen (Fortsetzungkurs von JavaFX, bei dem ich letzten Dezember in Nürnberg die Einführung gehalten habe). Und am Dienstag in Wiesbaden (Ausbildung Fachinformatiker). Da war jeweils von Winter nicht viel zu sehen.

Aber kaum geht es wieder zu meinem Standardkunden im Hochtaunus (fortgeschrittene Java-Techniken), kommt der Schnee. War es am Mittwoch nur leicht gezuckert, war es am Donnerstag auf der Fahrt da hoch schon teils richtig glatt. Allerdings noch mehr Eis als Schnee.

In der Nacht von Donnerstag auf Freitag hat es dann aber richtig geschneit und wegen Schneebruch waren im Taunus mehrere Straßen gesperrt. Auch zwei von den vier vernünftigen Strecken, die ich von meinem Zweitwohnsitz in Eppstein hoch zu meinem Kunde fahren kann. Die Hauptstrecke war aber einigermaßen frei, wobei ich mir teils wie auf der Fahrt in den Winterurlaub vorkam. Vor allen Dingen zwischen Ehlhalten  und Heftrich sah das bei der Fahrt durch die eng stehenden, verschneiten Bäume schon klasse aus.

Grundsätzlich bin ich bei so Bedingungen aber froh, dass mein Forester Allradantrieb hat und ich richtig gute Winterreifen aufgezogen habe.

Damit geht das dann auch bei winterlichen Bedingungen problemlos, zumal ich mit Winterbedingungen beim Autofahren im Taunus groß geworden und das damit gewohnt bin.

Mein Teilnehmer hatte hingegen nur Sommerreifen auf seinem Auto und hat sich am Freitag nicht mehr fahren getraut. Musste statt dessen ein Taxi nehmen.

BMW erbringt den Beweis – Computer und Elektronik in Autos bedeuten nur Probleme und Gefahr

Ich bin natürlich etwas zwiegespalten, weil ich immer wieder Programmierer schule, die direkt oder indirekt in der Automobilindustrie arbeiten. Wenn ich jetzt lästere, säge ich mehr oder weniger an einem Ast, auf dem ich sitze. Aber diese unglaubliche Sicherheitslücke bei BMW in ihrem ConnectedDrive-System (Beitrag dazu bei Heise.de) zeigt nur zu deutlich, dass Computertechnik im Speziellen und (unnötig viel) Elektronik im Allgemeinen in Autos nur Probleme macht. Ich denke mit Wehmut an meine Enten und die DS zurück, in der keinerlei Elektronik im Auto das Leben schwer gemacht hat. Meist nerven die ganzen elektronischen (angeblichen) Helfer nur (Gurtwarner, Reifendruckkontrolle, Inspektionsanzeige, …), aber außer dass man vielleicht unkonzentrierter oder aggressiver fährt, weil man sich über den Mist ärgert, ist das Zeug nicht sicherheitskritisch. Wenn aber ein Auto nicht mehr halbwegs scicher abgeschlossen werden kann, weil jeder Baby-Hacker mit einem Smartphone und einem Hackertool aus dem Internet das Auto aufschließen und auch starten kann, ist der Spass vorbei. Es ist in keiner Weise paranoid, wenn man das Deaktivieren von ABS oder gleich der ganzen Bremse, das Abschalten des Motors während der Fahrt, das Stören von Sensoren bei vorbeifahrenden Autos etc. auf die Liste der demnächst beliebtesten Anschlagstechniken von Terroristen einfügt. Wozu sich selbst in die Luft sprengen, wenn man mit einem Smartphone Massenunfälle auslösen kann, bei denen viel mehr Menschen den Tot finden? Mein nächstes Auto wird ganz sicher diesen Mist nicht enthalten. Und wenn ich halt auf einen gut erhaltenen Youngtimer umsteigen muss. Leider kann ich damit aber nicht ausschließen, dass ich von anderen Autos abgeschossen werde, deren Computertechnik zum Versagen gebracht wird. Man muss diese Technik verbieten – sonst wird doch in Deutschland auch alles verboten, was irgendwie nach Gefahr riecht ….

Neue Nutzungsbedingungen bei Facebook

Im Moment gibt es ja heftige Aufregung um die neuen AGBs von Facebook. Ich finde den Wind darum überzogen.

Natürlich findet Krieg von Facebook gegen die Interessen seiner Nutzer bzw. deren Privatssphäre statt. Und wie in jedem Krieg versuchen die Gegner Vorteile zu erreichen. Mit allen Mitteln.
Facebook zieht halt die Datenschrauben an und trackt auf Teufel komm raus die Nutzer. Aber jeder Nutzer kann Facebook ja verlassen und wenn man sich auskennt, kann man dem Tracking auch einen Riegel vorschieben. Oder nur das tracken lassen, was im eigenen Interesse ist.

Wer immer noch nicht kapiert hat, dass das Internet kein Ponyhof, sondern ein Haifischbecken ist, dem ist nicht zu helfen und mit solchen Leuten habe ich kein Mitleid. Beschäftigt Euch mit Computern und der Funktionsweise vom Internet oder lasst die Finger davon. Kein Laie würde sich ohne Ausbildung an das Steuer von einem Flugzeug setzen und losfliegen. Aber an einen Computer schon und ab ins Internet. Ohne Ahnung von irgendwas.

Es gibt ganz einfache Regeln, wie man das Tracken von Facebook reduzieren bis ganz verhindern kann.

  1. Die Einstellungen von Facebook. Alle auf maximal privat. Klar – Facebook selbst wird das natürlich ignorieren und auf Teufel komm raus dennoch tracken. Aber sie dürfen diesen Missbrauch dann nicht ganz so offen zeigen und es wird schwerer für die.
  2. Niemals, niemals in Facebook angemeldet sein und weitere Seiten im Browser öffnen. Immer abmelden und dann natürlich alle Cookies (insbesondere die Flash-Cookies) etc. löschen. Dazu gibt es genug Tools, die das auch automatisiert machen.
  3. Niemals Facebook auf dem Smartphone nutzen!!!
  4. Mehrfach am Tag CCleaner oder so ausführen.
  5. In Facebook niemals Werbung anklicken oder irgendwelche obscuren Einladungen annehmen. Alles ignorieren, was da vorgeschlagen wird.

Ist doch ganz einfach und im Grunde reiner Menschenverstand. Oder würde man auf dem Spielplatz eine halbvolle Flasche mit einer gelblichen Flüssigkeit drin einfach austrinken? Denn nicht anders ist die Missachtung solcher selbstverständlichen Verhaltensweisen.
Und wenn mit Facebook dann doch noch – eingeschränkt – trackt? Was ist so schlimm daran, wenn Werbung eher meinen Interessen entspricht als irgendwelche Dummbeutelwerbung für Bezahlfernsehen oder Apple-Produkten?

autoren-net.de relaunched

Ich betreibe ja mit WordPress unter https://www.autoren-net.de/ ein Portal für Autoren, wo diese kostenlos Auszüge aus Büchern oder auch nur Vorstellungen eines Buchs präsentieren können. Oder aber „normale Leute“ veröffentlichen ihr Wissen, ihre Ideen, Erfahrungen, Leidenschaften, Träume, Gedichte, Geschichten, Kurzgeschichten, Liedertexte oder was auch immer in Form eines Artikels/Beitrags.
Ich habe die Seite von Design gerade umgebaut und damit die Beiträge der Autoren an mehreren Stellen präsenter gemacht. Ebenso habe ich die Möglichkeit zum Einstellen von Beiträgen für Autoren deutlich entschlackt und (hoffentlich) damit vereinfacht.

Und schon wieder steht die Vorratsspeicherung vor der Tür

Ich will es einfach nicht glauben – schon wieder wird die Vorratspeicherung diskutiert. Als Anlass wird auch noch der Anschlag auf charlie hebdo in Paris vorgeschoben. Gerade auf eine Satirezeitung.

Wenn man zu Verschwörungstheorien neigt, kann man leicht annehmen, dass radikale Befürworter der Vorratsdatenspeicherung bzw. Generalverdächtigung der gesamten Bevölkerung den Anschlag gesteuert haben. Sie brauchten bloß ein paar Dumme mit Islamisten-Hintergrund zu belügen und anzustacheln und als Ziel ein Medium auszuwählen, was sich radikal für die Freiheit einsetzt.

Damit hätten die für sich eine perverse Win-Win-Stiuation geschaffen.

Und die Radikalen auf allen Seiten trimuphieren. Die Islamisten, die Rechten, die Überwacher. Alles Gegner der Freiheit und mündiger Bürger, nur sind die Überwacher wohl die gefährlichsten, weil sie sich einen „ehrenwerten“ Deckmantel überziehen, dem Parteien und das manipulierbare Stimmvolk möglicherweise folgen.

Raspberry Pi übertakten

Vor geraumer Zeit habe ich mir einen Raspberry PI als Spielzeug zugelegt. Ich finde es schon faszinierend, was man aus so einer kleine Platine für knapp 35 EUR rausholen kann. Obgleich ich – außer für Experimente – immer noch keinen praktischen Nutzen für mich habe. Dazu habe ich zuviele alternative Rechner zur Verfügung, die mehr Bumms unter der CPU haben. Spass macht das Teil dennoch.
Damit der Kleine aber zumindest ein bisschen mit den großen Hunden pinkeln kann, habe ich ihn jetzt auf den Maximalwert übertacktet, was aber gleichzeitig die Spannung anhebt und die Temperatur im Dauerbetrieb auf Heizung stellen kann. Ist ein Risiko für die Lebensdauer.
Egal – so teuer ist der Kleine nicht und mit der Übertacktung auf 1000 MHz merkt man den Leistungsschup gewaltig. Wo bisher sich die X-Oberfläche über einen VNC-Viewer im Schneckentempo geändert hat, läuft das jetzt nahezu smart. Auch die Webseiten im Midori bauen sich durchaus flott auf.
Auf dem Raspberry Pi mit dem Raspian Image gibt es standardmäßig verschiedene Profile zum Übertakten. Das geht von der Basisfrequenz mit 700 MHz bis eben einem Turbomodus mit 1000 MHz und Overvolting.
Um die Profile umzustellen, nutzt man zum Beispiel das Raspberry Pi Software Configuration Tool. Das wird über raspi-config aufgerufen:
sudo raspi-config
Im Menüpinkt 7, “Overclock”, kannst man das Übertakten anpassen. Damit die Einstellung auch wirksam wird, Raspberry Pi neustarten.

Synchronisierung mit dem NAS

Zum Backup-Ziehen meiner Daten auf dem NAS genügt die Backup-Software von Windows. Von den Linux-Rechnern komprimiere und kopiere ich einfach in gewissen Abständen das documents-Verzeichnis und überschreibe das vorhandene Backup.
Aber ich möchte eigentlich nicht immer mit Kanonen auf Spatzen schießen und habe mich jetzt durch verschiedene Tools zum reinen Synchronisieren von ausgewählten Verzeichnissen auf meinen Rechnern und entsprechenden Spiegelverzeichnissen auf dem NAS gequält. In der Tat gequält, denn so richtig überzeugt hat mich keines der Tools. Die Standardsoftware von Synology, die beim NAS dabei war, bekomme ich einfach nicht in Griff. Liegt vermutlich an mir, aber eigentlich sollte ich mich mit sowas auskennen. Das Teil macht immer ein komplettes Backup, synchronisiert aber nie – wie gewünscht – nur vorhandene Verzeichnisse auf beiden Seiten.
Es gibt aber diverse Synchronisationstools als Alternativen. Mit SyncToy von Microsoft (kostenlos) habe ich mich jetzt auf dem Windows-System für eine der vielen Angebote entschieden. Das Teil ist einfach zu konfigurieren und hat in den ersten Tests von mir ganz sauber und schnell alle von mir ausgewählten Verzeichnisse synchronisiert.
Von Linux aus ist rsync meine Wahl, was ja standardmäßig unter Linux vorhanden ist. Ein bisschen auf Konsolenebene konfigurieren und gut ist.

Problem mit der Übertragungsrate im lokalen Netzwerk wohl gelöst – Rätsel bleiben aber

Man sagt uns Mathematikern nach, dass wir zwar nicht viel wissen, sich aber an Problemem festbeißen und solange nicht loslassen, bis das Problem zur Strecke gebracht wurde. Dabei ist es unerheblich, ob es darum geht die Welt zu retten oder aber einfach nur etwas gelöst wird, was niemanden außer einem selbst interessiert. Praktischer Nutzen ist was für die anderen ;-).

  • Ungelöstes Problem. 
  • Geht nicht. 
  • Zubeißen und solange würgen, bis das Problem aufgibt.
  • Tag gerettet – wer auch immer mit der Lösung was anfangen kann.

Mein Tag ist insofern jetzt auch gerettet, weil wohl die Übertragungsrate von dem Windows-Rechner auf das NAS nun endlich den Wert erreicht, den sie haben sollte (wie unter Linux).
Es war ziemlich Aufwand alle Stellen abzuklopfen, die hier den Falschenhals bilden konnten. Ich habe mein eigenes Wissen natürlich mit ins Spiel gebracht, aber auch viel in Foren im Internet gesucht – bin ja Programmierer und kein Netzwerk- oder Windows-Admin.
Folgende Stellen habe ich als Falschenhälse lokalisiert und einen nach dem anderen ausgeschlossen:

  • Hardware: Router/Switch defekt oder Kabel beschädigt. Das scheint mir nach den Internet-Foren die häufigste Ursache zu sein. Ist bei mir ausgeschieden, denn mit Linux ging es von meinem Rechner ja schnell. Nur unter Windows nicht.
  • Netzwerk sonst zu langsam – konnte ich durch Messungen ausschließen. Trotzdem sitzt hier noch ein archithekturbedingter Falschenhals bei  mir – ich muss demnächst auf ein 1000MBit/s-Netzwerk hochrüsten. Für das konkrete Problem ist das allerdings irrelevant.
  • Große Hoffnung hatte ich auf die Deaktivierung der Firewall und des Antivirenprogramms gesetzt. Aber das war bei mir ohne Wirkung.
  • Die Netzwerkadapter prüfen und ggfls. neu installieren ist immer sinnvoll – auch wenn die Messwerte eine normale Funktion angezeigt haben. Schien bei mir auch alles im grünen Bereich und die Fehlerdiagnose hat keine Fehler ergeben. Seltsamerweise war die Übertragung nach der Diagnose wohl besser geworden. Zumindest war das der Schritt, nachdem ich wieder einen Quick-and-Dirty-Test gemacht und plötzlich besserer Übertragungsraten bekommen habe – sah zumindest danach aus. Kann aber auch an gewissen anderen Schritten gelegen haben, die ich vorher schon durchgeführt hatte.
  • Eine Sache habe ich aus dem Bauch heraus ausprobiert (und hinterher auch einen entsprechenden Tipp im Internet gefunden) – ich habe bei bestehender Ethernet-Verbindung das W-LAN explizit deaktiviert. Also keine zwei Netzwerkadapter parallel aktiv. Danach sieht mir die Übertragungsrate schneller geworden, aber was mich wieder verwirrt ist, dass das erneute Anstellen vom W-LAN keine Reduktion der Übertragungsrate gebracht hatte.
  • Ein paar Tipps haben auch das NAS selbst betroffen. Insbesondere sollte man die Ressourcenauslastung dort überwachen und ggfls. Dienste abstellen, wenn die CPU zu sehr unter Last fährt. Hab ich gemacht und die CPU-Last etwas runter genommen. Die Beobachtung hat mir gezeigt, dass die Daten in vernüftiger Geschwindigkeit rein gekommen sind, aber ich kann nicht sagen, welcher der vorherigen Schritte wirklich in meinem Fall dafür der entscheidende war.  Ich komm mir ein wenig vor wie ein Affe, der irgendwelchen Hebeln gespielt und dabei rein zufällig den richtigen erwischt hat.

Aber ich habe eine Vermutung, was wirklich das Problem gelöst hat und ich mir deshalb bis zum Schluss als Tipp aufhebe – Microsoft hatte mit Windows Vista eine Technologie zum Komprimieren von Daten im Netzwerk eingeführt – „Remote Differential Compression (RDC)“ – Remoteunterschiedskomprimierung. Damit soll das Übertragen von Dateien im Netzwerk im Grunde beschleunigt werden. Nun hat man aber festgestellt, dass das nur unter reinen Windows-Netzwerken ab Vista aufwärts auch prima funktioniert. In heterogenen Netzwerken mit mehreren Betriebssystemen (wie bei mir) bremst der Dienst die Übertragung in vielen Fällen aus (auch wenn Alt-Windows wie XP da mit drin sind). Gerade bei Kopieren von Dateien im Netzwerk soll das Abschalten von RDC viel nutzen. Das macht man in der Systemsteuerung unter Programme und Funktionen und dort Windows-Funktionen aktivieren oder deaktivieren. Dort deaktiviert man die Option Remoteunterschiedskomprimierung, die oft standardmäßig aktiviert ist. Es dauert es wenige Minuten, bis RDC im Netzwerk nicht mehr aktiv ist und es kann ein Windows-Neustart erforderlich sein. Ich vermute wirklich, dass RDC der Schweinehund war.

Wo ist die Windows-Bremse im Netzwerk? Bitte um Tipps

So langsam glaube ich an Windows-Gespenster. Ich komme nicht dahinter, warum die Übertragsrate bei Kopieraktionen von meinem Windows-Rechner auf eine anderer Ressource im LAN so elend niedrig ist. Ich habe jetzt die gemessene Übertragungsrate sowohl mit WiFi als auch Ethernet mal genommen und theoretisch notwendige Zeit für die Übertragung einer Testdatei berechnet (das bekomme ich als Mathematiker gerade noch hin). Die Zeitspanne hat ungefähr dem entsprochen, was von meinem Linux-Rechner auch notwendig war (etwa um den Faktor 1,3 – 1,5 war die Zeit länger, aber das ist im Rahmen und sollte bei größeren Dateien noch besser werden). Passt also.
Und bei dem Windows 7 – Rechner dauert die Dateiübertragung der Testdatei sogar 12x – 15x länger als es sein dürfte.
Interessanter Weise dauert die Überragung mit dem langsameren WiFI „nur“ gut 12x länger als wirklich notwendig, während das schnellere Ethernet noch langsamer ist. Es hängt also wohl in keiner Weise am Netzwerk – das langweilt sich in jedem Fall.
Die Geschichte wird noch besser – ich habe auf dem Rechner für einen weiteren Test ein Linux-Live-System gestartet und bekomme damit bei der Übertragung der Testdatei in etwa die errechnete Zeit hin, die die Übertragung dauern dürfte.
Da ist was komplett in meinem System verstellt, fürchte ich. Denn das Windows 7 so schlecht ist, will ich wirklich nicht behaupten.
PS: Bin für Tipps dankbar.
PPS: Dass Linux besser ist, ist mir klar. Aber der eine Rechner muss unter Windows weiter laufen.

Übertragungsraten in meinem lokalen Netzwerk – ungelöste Rätsel

Die Dauer der Datenübertragung von meinem Arbeitsrechner auf mein neues NAS ist unglaublich lang. Das kann einfach nicht sein. Ich habe mit ein paar Tools (u.a. IPerf) die Netzwerkgeschwindigkeit getestet und komme mit durchschnittlich 90000 KBit/s recht gut an das Limt meines Ethernets ran. Die Sache wird umso mysteriöser, da der Kopiervorgang von einem meiner Linux-Rechner etwa 5x – 10x weniger Zeit braucht. Ich muss das mal messen, aber es ist extrem signifikant. Keine Ahnung, ob die Bremse sitzt.