Vorgestern Nacht ist die Schiersteiner Brücke zwischen Mainz und Wiesbaden gesperrt worden. Aus Sicherheitsgründen, denn die Fahrbahn hatte sich abgesenkt.
Das ist aber nicht nur einfach eine Straße bzw. Autobahn, sondern eine von nur drei Brücken über den Rhein zwischen Koblenz und Worms. Es gibt also auf einer Strecke von über 100 Kilometern nicht mehr als 3 lächerliche Brücken, über die sich täglich Hunderttausende von Autos quälen müssen. Wenn nun eine davon wegbricht kann man sich vorstellen, was mit dem Verkehr rund um Mainz und Wiesbaden passiert. Absolutes Chaos und Stillstand im Berufsverkehr am Morgen und Abend.
Schon mit 3 intakten Brücken und ohne Unfälle auf den Strecken braucht man im Berufsverkehr in der Gegend gut 2 – 3x so lange für Fahrten über den Rhein wie zu normalen Zeiten. Gestern und heute muss es teils zu einer Verzehnfachung der Zeit für Fahrten gekommen sein. 3 Stunden statt 20 Minuten habe ich von einer Fahrt mitbekommen.
Und da die öffentlichen Verkehrsmittel entweder selbst im Stau stehen (Busse) oder meist nicht zuverlässig gehen (Bahnen), ist die gesamte Verkehrsinfrastruktur im Moment zusammengebrochen. Ein Höhepunkt heute war auch noch, dass sich in Mainz jemand vor einen Zug geworfen hatte und damit auch diese (theoretische) Beförderungsmöglichkeit für Stunden ausgefallen war. Die Zustände im Moment sind hier einfach unfassbar.
Wobei ich glücklicher Weise nur an manchen Tagen von dem Chaos betroffen sein werde. Denn zwar nehmen Vorortschulungen in meiner Arbeit immer noch einen großen Raum ein, aber immer mehr bestätigt sich meine Anstrengung Arbeit möglichst von meinem Büro im Haus aus und/oder über Internet zu erledigen. Der Teil meiner Arbeit wächst und wächst und das ist verdammt gut so.
Es ist als Selbständiger kaum noch zu kalkulieren, ob, wie und wann man zu externen Jobs anreisen kann. Schon bei dem normalen Verkehrschaos in Ballungsgebieten, den extrem unzuverlässigen Bahnverbindungen und den ständigen Streiks bei Bahnen und der Lufthansa. Aber diese Ausnahmesituation treibt die Sache wirklich auf die Spitze.
Im Moment muss ich immer wieder einige Tage die Woche in Wiesbaden ganz früh eine Schulung anfangen und ich muss sehen, wie ich meine pünktliche Ankunft sicherstelle. Hängt auch massiv davon ab, ob die Schiersteiner Brücke bald wieder freigegeben wird. Da ist von ein paar Tagen Sperrung die Rede (ich muss erst wieder am kommenden Dienstag ran), aber auch von mehreren Monaten und das wäre eine Katastrophe – vor allen Dingen für die ganzen Pendler und die Wirtschaft hier in der Gegend.
Meine Workstation ist da
Gestern abend habe ich meine neue Workstation abgeholt und dabei etwas mehr in die Vollen gegriffen.
Wenn ich so die Rechner in meinem näheren Umfeld betrachte, war ich meinen immer noch im Netzwerk eingesetzten Uralt-PCs und selbst mit meinem i5-Notebook der ersten Generation klar am unteren Ende der Leistungsskala. Schon krass – ich verdiene mein Geld mit den Dingern und all die Spieler und Hobby-Anwender sind besser ausgestattet.
Damit ist jetzt Schluss. Die Workstation ist zwar nur mit 2,1 GHz getacket, aber von den nur mittelmäßigen schnellen CPUs gibt es gleich 6 physikalische, die auf 12 virtuelle Kerne aufgespalten werden. Ich habe mich für einen halbwegs bezahlbaren 6-Kern-Xeon und ein Servermotherboard entschieden, bei dem Zuverlässigkeit vor maximaler Leistung geht.
Ganz sicher bin ich nicht, ob ich nicht eine höher getackteten Prozessor mit weniger Kernen (etwa einen i7 oder einen 4-Core-Xeon) hätte nehmen sollen. Ich bin halt bei Hardware im Grunde auch nur ein Laie. Zumal die ganzen Gamer immer auf maximale CPU-Frequenz schwören und die Dinger auch noch übertackten. Aber ich bin kein Gamer und da ich meist zig Programme gleichzeitig offen habe (inklusive virtuellen Maschinen), die auch aktiv arbeiten, hoffe ich, dass die 6 Kerne mir mehr nutzen. Und schnellere 6-Core- oder gar 8-Core-Xeons gehen gleich so ins Geld, dass sich für das Geld viele Leute bereits einen vollständigen Gamer-Rechner kaufen.
Beim RAM habe ich klein angefangen und erstmal nur 😉 32 GByte reingehauen. Aber durch das Serverboard kann ich das noch um ein Vielfaches aufrüsten. Hier zeigt sich halt die Xeon-Serverarchitektur. Die 64 GByte werde ich wohl dieses Jahr noch einrichten, wenn die 32 GByte wirklich eng werden sollten.
Eine schnelle SSD als erste Festplatte war natürlich Pflicht und auch bei der Grafikkarte habe ich eine einigermaßen preiswerte Gamerkarte mit 2GByte reingehauen, die 4 Monitore versorgen kann – 3 Bildschirme kommen auf jeden Fall dran.
Ich bin gespannt, wie der Knabe sich jetzt in der Praxis schlägt und wie der Vergleich mit meinem Notebook ausfällt (das wird auf Schulungen und externe Einsätze degradiert). Nach dem ersten Eindruck ist der Rechner ziemlich fix.
Flashplayer aktualisiert – die Not erzwingt es
Bekanntermaßen ist Flash schon seit Jahren eine große – wenn nicht die(!) größte – Sicherheitslücke im Internet. Die letzten Sicherheitslücken im Flashplayer haben mich veranlasst, in meine Browser einen Flashblocker einzubauen. Leider wird damit aber viel von der Faszination des Webs weggenommen, denn es gibt immer noch zahlreiche Webseiten, die bei Animationen und vor allen Dingen Filmen auf Flash statt moderner Techniken setzen. Interessanter Weise sogar bei Medien, die in einem Atemzug über die Sicherheitprobleme des Flashplayers berichten und zur Deaktivierung raten (wie dumm ist das denn?). Ich habe nun mehr oder weniger gezwungenermaßen (ja – ist mir klar, dass ich nicht unbedingt Videos über das Internet sehen muss – aber ich will halt manchmal) das Risiko wieder akzeptiert, das neuste Sicherheitsupdate von Adobe eingespielt und lasse zumindest wieder das Abspielen auf expliziten Klick auf den Startbutton zu, wenn ich dem Anbieter halbwegs traue. Das automatische Abspielen von Flash gehört natürlich deaktiviert und ich hoffe, dass auch die rückständigen Anbieter von Videos endlich auf Flash verzichten und unkritischere Medienformaten wählen.
GBit-Switch
Ich habe lange meine Hardware nicht mehr erneuert, aber langsam muss ich wirklich aufrüsten. Mit dem NAS hat das begonnen und heute kam ein GBit-Switch an. Mein alter Switch scheint mir das Netzwerk doch extrem ausgebremst zu haben. Ich muss die nächsten Tage ein bisschen ausprobieren und konfigurieren, aber nach meinem ersten Eindruck bringt der Wechsel eine Menge. VNC-Zugriff auf der Raspberry PI geht jetzt fast ohne Ruckeln und auch die Sicherung auf dem NAS scheint gefühlt viel schneller zu gehen. Wäre auch dumm, wenn dem nicht so wäre…
Mein Onlinetraining zu Cordova/PhoneGap ist erschienen
Im Dezember war ich in Graz bei Video2Brain und habe dort ein Onlinetraining zur Entwicklung von Apps mit Cordova (auch unter PhoneGap bekannt) aufgenommen.
Gestern wurde es veröffentlicht.
Schulung im winterlichen Hochtaunus
Letzte Woche war ich zwei Tage in Darmstadt am Schulen (Fortsetzungkurs von JavaFX, bei dem ich letzten Dezember in Nürnberg die Einführung gehalten habe). Und am Dienstag in Wiesbaden (Ausbildung Fachinformatiker). Da war jeweils von Winter nicht viel zu sehen.
Aber kaum geht es wieder zu meinem Standardkunden im Hochtaunus (fortgeschrittene Java-Techniken), kommt der Schnee. War es am Mittwoch nur leicht gezuckert, war es am Donnerstag auf der Fahrt da hoch schon teils richtig glatt. Allerdings noch mehr Eis als Schnee.
In der Nacht von Donnerstag auf Freitag hat es dann aber richtig geschneit und wegen Schneebruch waren im Taunus mehrere Straßen gesperrt. Auch zwei von den vier vernünftigen Strecken, die ich von meinem Zweitwohnsitz in Eppstein hoch zu meinem Kunde fahren kann. Die Hauptstrecke war aber einigermaßen frei, wobei ich mir teils wie auf der Fahrt in den Winterurlaub vorkam. Vor allen Dingen zwischen Ehlhalten und Heftrich sah das bei der Fahrt durch die eng stehenden, verschneiten Bäume schon klasse aus.
Grundsätzlich bin ich bei so Bedingungen aber froh, dass mein Forester Allradantrieb hat und ich richtig gute Winterreifen aufgezogen habe.
Damit geht das dann auch bei winterlichen Bedingungen problemlos, zumal ich mit Winterbedingungen beim Autofahren im Taunus groß geworden und das damit gewohnt bin.
Mein Teilnehmer hatte hingegen nur Sommerreifen auf seinem Auto und hat sich am Freitag nicht mehr fahren getraut. Musste statt dessen ein Taxi nehmen.
BMW erbringt den Beweis – Computer und Elektronik in Autos bedeuten nur Probleme und Gefahr
Ich bin natürlich etwas zwiegespalten, weil ich immer wieder Programmierer schule, die direkt oder indirekt in der Automobilindustrie arbeiten. Wenn ich jetzt lästere, säge ich mehr oder weniger an einem Ast, auf dem ich sitze. Aber diese unglaubliche Sicherheitslücke bei BMW in ihrem ConnectedDrive-System (Beitrag dazu bei Heise.de) zeigt nur zu deutlich, dass Computertechnik im Speziellen und (unnötig viel) Elektronik im Allgemeinen in Autos nur Probleme macht. Ich denke mit Wehmut an meine Enten und die DS zurück, in der keinerlei Elektronik im Auto das Leben schwer gemacht hat. Meist nerven die ganzen elektronischen (angeblichen) Helfer nur (Gurtwarner, Reifendruckkontrolle, Inspektionsanzeige, …), aber außer dass man vielleicht unkonzentrierter oder aggressiver fährt, weil man sich über den Mist ärgert, ist das Zeug nicht sicherheitskritisch. Wenn aber ein Auto nicht mehr halbwegs scicher abgeschlossen werden kann, weil jeder Baby-Hacker mit einem Smartphone und einem Hackertool aus dem Internet das Auto aufschließen und auch starten kann, ist der Spass vorbei. Es ist in keiner Weise paranoid, wenn man das Deaktivieren von ABS oder gleich der ganzen Bremse, das Abschalten des Motors während der Fahrt, das Stören von Sensoren bei vorbeifahrenden Autos etc. auf die Liste der demnächst beliebtesten Anschlagstechniken von Terroristen einfügt. Wozu sich selbst in die Luft sprengen, wenn man mit einem Smartphone Massenunfälle auslösen kann, bei denen viel mehr Menschen den Tot finden? Mein nächstes Auto wird ganz sicher diesen Mist nicht enthalten. Und wenn ich halt auf einen gut erhaltenen Youngtimer umsteigen muss. Leider kann ich damit aber nicht ausschließen, dass ich von anderen Autos abgeschossen werde, deren Computertechnik zum Versagen gebracht wird. Man muss diese Technik verbieten – sonst wird doch in Deutschland auch alles verboten, was irgendwie nach Gefahr riecht ….
Neue Nutzungsbedingungen bei Facebook
Im Moment gibt es ja heftige Aufregung um die neuen AGBs von Facebook. Ich finde den Wind darum überzogen.
Natürlich findet Krieg von Facebook gegen die Interessen seiner Nutzer bzw. deren Privatssphäre statt. Und wie in jedem Krieg versuchen die Gegner Vorteile zu erreichen. Mit allen Mitteln.
Facebook zieht halt die Datenschrauben an und trackt auf Teufel komm raus die Nutzer. Aber jeder Nutzer kann Facebook ja verlassen und wenn man sich auskennt, kann man dem Tracking auch einen Riegel vorschieben. Oder nur das tracken lassen, was im eigenen Interesse ist.
Wer immer noch nicht kapiert hat, dass das Internet kein Ponyhof, sondern ein Haifischbecken ist, dem ist nicht zu helfen und mit solchen Leuten habe ich kein Mitleid. Beschäftigt Euch mit Computern und der Funktionsweise vom Internet oder lasst die Finger davon. Kein Laie würde sich ohne Ausbildung an das Steuer von einem Flugzeug setzen und losfliegen. Aber an einen Computer schon und ab ins Internet. Ohne Ahnung von irgendwas.
Es gibt ganz einfache Regeln, wie man das Tracken von Facebook reduzieren bis ganz verhindern kann.
- Die Einstellungen von Facebook. Alle auf maximal privat. Klar – Facebook selbst wird das natürlich ignorieren und auf Teufel komm raus dennoch tracken. Aber sie dürfen diesen Missbrauch dann nicht ganz so offen zeigen und es wird schwerer für die.
- Niemals, niemals in Facebook angemeldet sein und weitere Seiten im Browser öffnen. Immer abmelden und dann natürlich alle Cookies (insbesondere die Flash-Cookies) etc. löschen. Dazu gibt es genug Tools, die das auch automatisiert machen.
- Niemals Facebook auf dem Smartphone nutzen!!!
- Mehrfach am Tag CCleaner oder so ausführen.
- In Facebook niemals Werbung anklicken oder irgendwelche obscuren Einladungen annehmen. Alles ignorieren, was da vorgeschlagen wird.
Ist doch ganz einfach und im Grunde reiner Menschenverstand. Oder würde man auf dem Spielplatz eine halbvolle Flasche mit einer gelblichen Flüssigkeit drin einfach austrinken? Denn nicht anders ist die Missachtung solcher selbstverständlichen Verhaltensweisen.
Und wenn mit Facebook dann doch noch – eingeschränkt – trackt? Was ist so schlimm daran, wenn Werbung eher meinen Interessen entspricht als irgendwelche Dummbeutelwerbung für Bezahlfernsehen oder Apple-Produkten?
autoren-net.de relaunched
Ich betreibe ja mit WordPress unter https://www.autoren-net.de/ ein Portal für Autoren, wo diese kostenlos Auszüge aus Büchern oder auch nur Vorstellungen eines Buchs präsentieren können. Oder aber „normale Leute“ veröffentlichen ihr Wissen, ihre Ideen, Erfahrungen, Leidenschaften, Träume, Gedichte, Geschichten, Kurzgeschichten, Liedertexte oder was auch immer in Form eines Artikels/Beitrags.
Ich habe die Seite von Design gerade umgebaut und damit die Beiträge der Autoren an mehreren Stellen präsenter gemacht. Ebenso habe ich die Möglichkeit zum Einstellen von Beiträgen für Autoren deutlich entschlackt und (hoffentlich) damit vereinfacht.
Und schon wieder steht die Vorratsspeicherung vor der Tür
Ich will es einfach nicht glauben – schon wieder wird die Vorratspeicherung diskutiert. Als Anlass wird auch noch der Anschlag auf charlie hebdo in Paris vorgeschoben. Gerade auf eine Satirezeitung.
Wenn man zu Verschwörungstheorien neigt, kann man leicht annehmen, dass radikale Befürworter der Vorratsdatenspeicherung bzw. Generalverdächtigung der gesamten Bevölkerung den Anschlag gesteuert haben. Sie brauchten bloß ein paar Dumme mit Islamisten-Hintergrund zu belügen und anzustacheln und als Ziel ein Medium auszuwählen, was sich radikal für die Freiheit einsetzt.
Damit hätten die für sich eine perverse Win-Win-Stiuation geschaffen.
Und die Radikalen auf allen Seiten trimuphieren. Die Islamisten, die Rechten, die Überwacher. Alles Gegner der Freiheit und mündiger Bürger, nur sind die Überwacher wohl die gefährlichsten, weil sie sich einen „ehrenwerten“ Deckmantel überziehen, dem Parteien und das manipulierbare Stimmvolk möglicherweise folgen.
JE SUIS CHARLIE
🙁
Keine Macht den Radikalen – gleich welcher Art.
Raspberry Pi übertakten
Vor geraumer Zeit habe ich mir einen Raspberry PI als Spielzeug zugelegt. Ich finde es schon faszinierend, was man aus so einer kleine Platine für knapp 35 EUR rausholen kann. Obgleich ich – außer für Experimente – immer noch keinen praktischen Nutzen für mich habe. Dazu habe ich zuviele alternative Rechner zur Verfügung, die mehr Bumms unter der CPU haben. Spass macht das Teil dennoch.
Damit der Kleine aber zumindest ein bisschen mit den großen Hunden pinkeln kann, habe ich ihn jetzt auf den Maximalwert übertacktet, was aber gleichzeitig die Spannung anhebt und die Temperatur im Dauerbetrieb auf Heizung stellen kann. Ist ein Risiko für die Lebensdauer.
Egal – so teuer ist der Kleine nicht und mit der Übertacktung auf 1000 MHz merkt man den Leistungsschup gewaltig. Wo bisher sich die X-Oberfläche über einen VNC-Viewer im Schneckentempo geändert hat, läuft das jetzt nahezu smart. Auch die Webseiten im Midori bauen sich durchaus flott auf.
Auf dem Raspberry Pi mit dem Raspian Image gibt es standardmäßig verschiedene Profile zum Übertakten. Das geht von der Basisfrequenz mit 700 MHz bis eben einem Turbomodus mit 1000 MHz und Overvolting.
Um die Profile umzustellen, nutzt man zum Beispiel das Raspberry Pi Software Configuration Tool. Das wird über raspi-config aufgerufen:
sudo raspi-config
Im Menüpinkt 7, “Overclock”, kannst man das Übertakten anpassen. Damit die Einstellung auch wirksam wird, Raspberry Pi neustarten.
Synchronisierung mit dem NAS
Zum Backup-Ziehen meiner Daten auf dem NAS genügt die Backup-Software von Windows. Von den Linux-Rechnern komprimiere und kopiere ich einfach in gewissen Abständen das documents-Verzeichnis und überschreibe das vorhandene Backup.
Aber ich möchte eigentlich nicht immer mit Kanonen auf Spatzen schießen und habe mich jetzt durch verschiedene Tools zum reinen Synchronisieren von ausgewählten Verzeichnissen auf meinen Rechnern und entsprechenden Spiegelverzeichnissen auf dem NAS gequält. In der Tat gequält, denn so richtig überzeugt hat mich keines der Tools. Die Standardsoftware von Synology, die beim NAS dabei war, bekomme ich einfach nicht in Griff. Liegt vermutlich an mir, aber eigentlich sollte ich mich mit sowas auskennen. Das Teil macht immer ein komplettes Backup, synchronisiert aber nie – wie gewünscht – nur vorhandene Verzeichnisse auf beiden Seiten.
Es gibt aber diverse Synchronisationstools als Alternativen. Mit SyncToy von Microsoft (kostenlos) habe ich mich jetzt auf dem Windows-System für eine der vielen Angebote entschieden. Das Teil ist einfach zu konfigurieren und hat in den ersten Tests von mir ganz sauber und schnell alle von mir ausgewählten Verzeichnisse synchronisiert.
Von Linux aus ist rsync meine Wahl, was ja standardmäßig unter Linux vorhanden ist. Ein bisschen auf Konsolenebene konfigurieren und gut ist.
Problem mit der Übertragungsrate im lokalen Netzwerk wohl gelöst – Rätsel bleiben aber
Man sagt uns Mathematikern nach, dass wir zwar nicht viel wissen, sich aber an Problemem festbeißen und solange nicht loslassen, bis das Problem zur Strecke gebracht wurde. Dabei ist es unerheblich, ob es darum geht die Welt zu retten oder aber einfach nur etwas gelöst wird, was niemanden außer einem selbst interessiert. Praktischer Nutzen ist was für die anderen ;-).
- Ungelöstes Problem.
- Geht nicht.
- Zubeißen und solange würgen, bis das Problem aufgibt.
- Tag gerettet – wer auch immer mit der Lösung was anfangen kann.
Mein Tag ist insofern jetzt auch gerettet, weil wohl die Übertragungsrate von dem Windows-Rechner auf das NAS nun endlich den Wert erreicht, den sie haben sollte (wie unter Linux).
Es war ziemlich Aufwand alle Stellen abzuklopfen, die hier den Falschenhals bilden konnten. Ich habe mein eigenes Wissen natürlich mit ins Spiel gebracht, aber auch viel in Foren im Internet gesucht – bin ja Programmierer und kein Netzwerk- oder Windows-Admin.
Folgende Stellen habe ich als Falschenhälse lokalisiert und einen nach dem anderen ausgeschlossen:
- Hardware: Router/Switch defekt oder Kabel beschädigt. Das scheint mir nach den Internet-Foren die häufigste Ursache zu sein. Ist bei mir ausgeschieden, denn mit Linux ging es von meinem Rechner ja schnell. Nur unter Windows nicht.
- Netzwerk sonst zu langsam – konnte ich durch Messungen ausschließen. Trotzdem sitzt hier noch ein archithekturbedingter Falschenhals bei mir – ich muss demnächst auf ein 1000MBit/s-Netzwerk hochrüsten. Für das konkrete Problem ist das allerdings irrelevant.
- Große Hoffnung hatte ich auf die Deaktivierung der Firewall und des Antivirenprogramms gesetzt. Aber das war bei mir ohne Wirkung.
- Die Netzwerkadapter prüfen und ggfls. neu installieren ist immer sinnvoll – auch wenn die Messwerte eine normale Funktion angezeigt haben. Schien bei mir auch alles im grünen Bereich und die Fehlerdiagnose hat keine Fehler ergeben. Seltsamerweise war die Übertragung nach der Diagnose wohl besser geworden. Zumindest war das der Schritt, nachdem ich wieder einen Quick-and-Dirty-Test gemacht und plötzlich besserer Übertragungsraten bekommen habe – sah zumindest danach aus. Kann aber auch an gewissen anderen Schritten gelegen haben, die ich vorher schon durchgeführt hatte.
- Eine Sache habe ich aus dem Bauch heraus ausprobiert (und hinterher auch einen entsprechenden Tipp im Internet gefunden) – ich habe bei bestehender Ethernet-Verbindung das W-LAN explizit deaktiviert. Also keine zwei Netzwerkadapter parallel aktiv. Danach sieht mir die Übertragungsrate schneller geworden, aber was mich wieder verwirrt ist, dass das erneute Anstellen vom W-LAN keine Reduktion der Übertragungsrate gebracht hatte.
- Ein paar Tipps haben auch das NAS selbst betroffen. Insbesondere sollte man die Ressourcenauslastung dort überwachen und ggfls. Dienste abstellen, wenn die CPU zu sehr unter Last fährt. Hab ich gemacht und die CPU-Last etwas runter genommen. Die Beobachtung hat mir gezeigt, dass die Daten in vernüftiger Geschwindigkeit rein gekommen sind, aber ich kann nicht sagen, welcher der vorherigen Schritte wirklich in meinem Fall dafür der entscheidende war. Ich komm mir ein wenig vor wie ein Affe, der irgendwelchen Hebeln gespielt und dabei rein zufällig den richtigen erwischt hat.
Aber ich habe eine Vermutung, was wirklich das Problem gelöst hat und ich mir deshalb bis zum Schluss als Tipp aufhebe – Microsoft hatte mit Windows Vista eine Technologie zum Komprimieren von Daten im Netzwerk eingeführt – „Remote Differential Compression (RDC)“ – Remoteunterschiedskomprimierung. Damit soll das Übertragen von Dateien im Netzwerk im Grunde beschleunigt werden. Nun hat man aber festgestellt, dass das nur unter reinen Windows-Netzwerken ab Vista aufwärts auch prima funktioniert. In heterogenen Netzwerken mit mehreren Betriebssystemen (wie bei mir) bremst der Dienst die Übertragung in vielen Fällen aus (auch wenn Alt-Windows wie XP da mit drin sind). Gerade bei Kopieren von Dateien im Netzwerk soll das Abschalten von RDC viel nutzen. Das macht man in der Systemsteuerung unter Programme und Funktionen und dort Windows-Funktionen aktivieren oder deaktivieren. Dort deaktiviert man die Option Remoteunterschiedskomprimierung, die oft standardmäßig aktiviert ist. Es dauert es wenige Minuten, bis RDC im Netzwerk nicht mehr aktiv ist und es kann ein Windows-Neustart erforderlich sein. Ich vermute wirklich, dass RDC der Schweinehund war.
Wo ist die Windows-Bremse im Netzwerk? Bitte um Tipps
So langsam glaube ich an Windows-Gespenster. Ich komme nicht dahinter, warum die Übertragsrate bei Kopieraktionen von meinem Windows-Rechner auf eine anderer Ressource im LAN so elend niedrig ist. Ich habe jetzt die gemessene Übertragungsrate sowohl mit WiFi als auch Ethernet mal genommen und theoretisch notwendige Zeit für die Übertragung einer Testdatei berechnet (das bekomme ich als Mathematiker gerade noch hin). Die Zeitspanne hat ungefähr dem entsprochen, was von meinem Linux-Rechner auch notwendig war (etwa um den Faktor 1,3 – 1,5 war die Zeit länger, aber das ist im Rahmen und sollte bei größeren Dateien noch besser werden). Passt also.
Und bei dem Windows 7 – Rechner dauert die Dateiübertragung der Testdatei sogar 12x – 15x länger als es sein dürfte.
Interessanter Weise dauert die Überragung mit dem langsameren WiFI „nur“ gut 12x länger als wirklich notwendig, während das schnellere Ethernet noch langsamer ist. Es hängt also wohl in keiner Weise am Netzwerk – das langweilt sich in jedem Fall.
Die Geschichte wird noch besser – ich habe auf dem Rechner für einen weiteren Test ein Linux-Live-System gestartet und bekomme damit bei der Übertragung der Testdatei in etwa die errechnete Zeit hin, die die Übertragung dauern dürfte.
Da ist was komplett in meinem System verstellt, fürchte ich. Denn das Windows 7 so schlecht ist, will ich wirklich nicht behaupten.
PS: Bin für Tipps dankbar.
PPS: Dass Linux besser ist, ist mir klar. Aber der eine Rechner muss unter Windows weiter laufen.
Übertragungsraten in meinem lokalen Netzwerk – ungelöste Rätsel
Die Dauer der Datenübertragung von meinem Arbeitsrechner auf mein neues NAS ist unglaublich lang. Das kann einfach nicht sein. Ich habe mit ein paar Tools (u.a. IPerf) die Netzwerkgeschwindigkeit getestet und komme mit durchschnittlich 90000 KBit/s recht gut an das Limt meines Ethernets ran. Die Sache wird umso mysteriöser, da der Kopiervorgang von einem meiner Linux-Rechner etwa 5x – 10x weniger Zeit braucht. Ich muss das mal messen, aber es ist extrem signifikant. Keine Ahnung, ob die Bremse sitzt.
Legales Sabotieren von W-LAN-Hotspots in Hotels vor US-Gericht eingeklagt
Das ist ja ein Hammer – da wollen geldgeile Hotels in den USA die Nutzung des eigenen Internet-Zugangs technisch mit Sabotagetools verhindern und das gerichtlich legalisieren lassen. Denn nicht anderes bedeutet das, wenn auf dem Gelände von einem Hotel kein eigener W-LAN gestartet werden kann. Ich nutze mein SmartPhone im Hotel grundsätzlich so, um über Tethering mein Notebook ins Internet zu bringen. Das würde damit unterbunden und man müsste die teueren Internet-Zugänge des Hotels nutzen. Gut – man kann USB-Tethering machen, aber alleine die Vorstellung, dass Hotels die technischen Möglichkeiten eines Gastes einschränken dürften, ist grotesk. https://www.heise.de/newsticker/meldung/USA-Kampf-um-Recht-auf-WLAN-Sabotage-2506559.html
Cordova und Emulatoren-Erfahrungen
Ich habe die Woche komplett mit App-Entwicklung unter Cordova verbracht. Das Framework selbst macht die universelle Entwicklung für diverse Plattformen wirklich einfach. Aber die Konfigurationen, die zum Einrichten notwendig sind, sind teils sehr aufwändig. Und was mir total gegen den Strich geht ist die Startzeit von dem Android-Emulator. Das dauert in der Regel zig Minuten – auf einem i7 mit Mörderpower und superschneller SSD. Das geht gar nicht. Ich habe die Woche bei einem Kollegen mitbekommen, dass die Android-App im Emulator (zugegeben wohl eine sehr aufwändige App) erst nach Stunden (!!) gestartet ist. So macht Entwicklung auch keinen wirklichen Spass. Man kann auf Microsoft schimpfen wie man will – der Emulator dort startet im Sekundenbereich und auch der iOS-Simulator unter MacOS ist fix. Was treiben die bei Google da mit dem Android-Emulator nur?
Gastbeitrag im Blog von Video2Brain
Im Blog von Video2Brain ist ein Gastbeitrag von mir veröffentlicht worden (https://blog.video2brain.com/de/back-the-roots-visual-basic-10710.htm). Geht um meine Erfahrungen zu Basic und Visual Basic anlässlich meines letzten Trainings zu dem Thema.