Update auf Windows 10 bei meinem Dual-Boot-Notebook

Nachdem ich auf meiner Workstation mit Windows 10 ganz zufrieden bin, habe ich mich auch bei meinem Notebook (bisher immer noch mit Windows 7 bestückt) zu einem Update entschlossen. Zumal Windows 7 wirklich in die Jahre kommt und es über kurz oder lang mit Updates eng werden wird. Und mit der Classic Shell kann man auch unter Windows 10 das Look an Feel von Windows 7 wiederherstellen und muss sich nicht mit den Verirrungen der Oberflächengestaltung und extremen Behinderung bei der Bedienung über Kacheln  ab Windows 8 quälen. Mit der neuen SSD sollte die Hardware von dem Notebook auch ausreichend leistungsfähig sein.

Microsoft kennt immer noch kein Dual-Boot 🙁

Dummerweise verwende ich auf dem Notebook Windows parallel mit einem Linux und Dual-Boot über Grub. Tja – ich hatte gedacht, dass es Microsoft endlich geregelt bekommt, wenn es außer Windows noch weitere Betriebssysteme auf dem Rechner gibt. Falsch gedacht :-(. Die Upgrade-Routine haut Grub dermaßen in die Tonne, dass danach gar nichts mehr geht. Windows muss beim Update mehrfach neu starten und beim 2. Neustartversuch konnte weder Windows noch Linux starten. Ganz toll – nur noch Grub rescue war da. Klar gibt es die üblichen Befehle (von ls über set bis insmod), um Grub manuell wiederzubeleben. Aber leider gab es auch dabei ständig die Meldung, dass das Dateisystem nicht zu erkennen sei. Ich hab dann schnell die Faxen dicke gehabt und mein Mint Linux als Live-Version vom USB-Stick gestartet und dann einfach nochmal neu installiert. Da hatte ich sowieso keine wichtigen Daten drauf und das repariert ganz nebenbei und vollkommen problemlos Grub. Danach konnte sich dann Windows weiter aktualisieren.

Wir warten auf das Christkind

Das gesamte Update hat gefühlte Ewigkeiten gedauert. Als ich vor einigen Monaten meine Workstation von Windows 8.1 auf Windows 10 aktualisiert hatte, war das erheblich schneller abgelaufen. So genau kann ich das nicht mehr sagen, aber für dieses Update hat die Setuproutine die 3 – 4-fache Zeit gebraucht, denke ich. Das war der nächste Punkt im Updateprozess, den ich für mich als grottenschlecht bewerte.

Als dann aber die Geschichte endlich durch war, schien soweit alles erhalten geblieben zu sein und das System zu laufen. Muss jetzt in der Praxis ausprobieren, ob der Umstieg wirklich sinnvoll war.

Hitzefrei für das Notebook

Gestern in der Schulung hat sich mein Notebook schlagartig verabschiedet. Beim Neustart hat es dann jämmerlich gepiept, um zwar wieder zu starten, aber dann immer wieder direkt auszugehen. Nach ein paar Experimenten habe ich rausbekommen, dass der Lüfter seinen Dienst nicht mehr versehen wollte und deshalb das Notebook hitzefrei genommen hat.
Mit abkühlen lassen, luftigem Hinstellen und CPU nur wenig belasten ist das Teilchen zumindest temporär weiter zu nutzen gewesen. Das abendliche gründliche Reinigen von Lüfter und Auslassschlitzen hat das Problem beseitigt. Jetzt gilt wieder „Cool man“ für das Gerät.

Kostenlose Beispielfilme und Trailer zu meinem neuen Video-Training „JavaFX-Diagramme mit Netbeans“

JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern. Mit Ralph Steyer
JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern. Mit Ralph Steyer

Die Tage ist ja mein Video-Training JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern erschienen.

Mittlerweile sind dazu auch eine Reihe an kostenlosen Beispielfilmen und der Trailer freigegeben worden.

Mein neuste Java-Buch ist erschienen

Jetzt lerne ich Java - Für Einsteiger und Fortgeschrittene - von Ralph Steyer
Jetzt lerne ich Java – Für Einsteiger und Fortgeschrittene – von Ralph Steyer

Mein neues Buch zu Java ist beim Verlag Markt+Technik erschienen. Das ist für mich ein „Back-to-the-roots“ in reinster Form. Mein aller erstes Buch habe ich zwar 1996 beim Data Becker Verlag veröffentlicht (zu HTML), aber bereits 1997 war ich dann bei Markt+Technik gelandet. Dort (und beim Schwesterverlag Addison-Wesley) habe ich über die Jahre dann zig Bücher veröffentlicht. Ich muss mal an mein Regal mit den Belegexemplaren gehen, aber es sollten um die 40 Bücher sein, wenn am alle Auflagen und Übersetzungen einzeln zählt. Auf jeden Fall eine Menge Holz (auch im eigentlichen Sinn), was mit Markt+Technik und Addions Wesley bedruckt wurde.

Der Mutterkonzern Pearson hatte nun vor wenigen Jahren den Vertrieb von EDV-Büchern und samt der beiden Buchverlage weitgehend eingestellt. Allerdings wurde Markt+Technik unter neuer Führung recht bald wieder belebt. Die Marke hat sich ja die über Jahre etabliert und von daher habe ich gerne zugegriffen, als ich das Angebot bekam, mein altes Java-Buch für Markt+Technik zu überarbeiten. Da ich dieses Thema aktuell nicht bei anderen Verlagen beackere, mache ich mir damit selbst keine (verbotene) Konkurrenz .

Wie gesagt – es geht zurück zu den Ursprüngen. Interessanter Weise auch bei diversen anderen Aufträgen (nicht nur beim Schreiben von Büchern). Es kommt immer alles wieder ….

Java-Schulung im verschneiten Taunus

Ich war mal wieder für 3 Tage bei einem Stammkunden im Hochtaunus, für den ich deutlich über 12 Jahre schon Schulungen halte.
Und rechtzeitig zum Job im Hochtaunus hat sich auch der diesjährige Winter angemeldet.

Wobei die Straßen frei waren und insbesondere heute der Winter sich von der schönsten Seite gezeigt hat.

Der Spaziergang in der sonnendurchfluteten Winterlandschaft in der Mittagspause hatte fast was von Urlaub.

Dreimal umgezogen ist wie einmal abgebrannt

Meine Domain rjs.de samt den beiden Blogs, die ich unter den Subdomain fliegerblog.rjs.de und blog.rjs.de betreibe, sind die letzten zwei Tage umgezogen. Ich habe die Seiten auf meinen V-Server verlagert, auf dem ich bereits Autoren-net.de sowie ein paar Subdomains wie rb.autoren-net.de betreibe. Die Seiten, die ich bisher auf dem V-Server hoste, machen den Betrieb eines eigenen V-Servers nicht notwendig. Mit der Verlagerung nutze ich die Kapazitäten und Möglichkeiten besser. Aber das war gar nicht der Grund für den Umzug – für meine Domain rjs.de hatte ich noch ein uraltes (wirklich uralt – von 1996, wenn ich das recht entsinne) und gesponsertes Hosting (vom Provider für Multiplikatoren im IT-Bereich eingerichtet) beim gleichen Provider meines V-Servers, das der Provider die letzten Monate mit indirektem Druck zum Auslaufen gebracht hatte. Die Zugänge zu gewissen Features wie Zugang zum Kundenbereich, FTP, Web-Mail, direkter Datenbankzugriff, Systemaktualisierungen etc. waren irgendwann nicht mehr offen und vor ein paar Tagen ist dann auch noch meine erste Subdomain nicht mehr erreichbar gewesen. Dem Provider mache ich keinen Vorwurf, denn ich habe lange genug von dem Angebot profitiert und die paar EUR für eine Domain sind nicht der Rede wert (wäre nur netter und vor allen Dingen einfacher gewesen, wenn ich vom Provider irgendwann die direkte Aufforderung zum Umzug bekommen hätte). Auf jeden Fall war eine Reaktion von mir jetzt unabdingbar und musste schnell erfolgen. Denn wenn meine Hauptdomain rjs.de nicht mehr zugänglich gewesen wäre, wäre auch meine Haupt-E-Mail nicht mehr nutzbar. Und das wäre sehr, sehr schlecht gewesen.

Der Umzug an und für sich

Der Umzug an sich ging mittelprächtig. Einerseits bin ich ja bei meinem Provider geblieben und die Übertragung musste nur von einem Vertrag zu einem anderen Vertrag erfolgen. Dazu die Anpassung des DNS-Namens an die IP des V-Servers. Da ich aber nicht mehr an meinen alten Kundenbereich herankam, konnte ich die Bestätigung für den Auftrag des internens Umzug nicht liefern. Es gibt verschiedene Wege, die der Provider anbietet. Aber bei allen war halt dieser Zugang zum alten Kundenbereich Voraussetzung. Das Zusenden des Auth-Codes per E-Mail hat auch nicht funktioniert, denn die alte E-Mail-Adresse hat nicht mehr existiert (das habe ich erst nach vielen Kontakten rausbekommen – es wurde im neuen Kundenbereich nirgends angezeigt, wohin die zu bestätigende Mail geschickt wurde) und eine Umstellung war aus besagtem Grund nicht machbar. Daher habe ich die letzten 2 – 3 Monate mit halben Dampf versucht den Umzug anzustoßen. Aber noch nicht mit Nachdruck, weil die wichtigsten Dinge der Seiten samt E-Mail noch gingen. Nach dem Abschalten der Subdomain ist mir dann aber die Muffe gegangen und ich habe schriftlich den Umzug beauftragt. Als Antwort kam wieder der Hinweis auf die Sache mit E-Mail etc. Wir haben uns im Kreis gedreht. Ich wurde dann aber etwas deutlicher und habe das Problem genau geschildert. Im Folgeschritt ging dann der Umzug doch. Innerhalb von einem Tag war der DNS-Name meiner IP des V-Servers zugeordnet. War also alles in Allem etwas blöd gelaufen, weil bei mir eine ziemlich außergewöhnliche Sondersituation vorlag. Aber der Provider hat mit sich reden lassen und dann ging die Geschichte doch durch.

Probleme und Chancen

Wie ich in der Überschrift schon angedeutet habe – bei einem Umzug geht viel Zeug verloren oder kaputt. Kann man wohl niemals verhindern. So auch bei meinem Umzug. Ich hatte den Umzug letztendlich etwas überstürzt eingeleitet, aber im Grunde über Monate vorbereitet. Es ist schon faszinierend, was man dann doch alles vergessen kann zu sichern oder aufzuschreiben oder was beim finalen Schritt schief geht, wenn man das durchzieht.

Denn sämtliche Daten auf dem alten Hostingangebot sind weg, wenn die Domain auf die neue Adresse umgeleitet ist! Natürlich war mir das klar und ich hatte vorher mit dem Standard-Plugin alle Daten aus den WordPress-Systemen (es waren drei WordPress-Systeme und sonst nichts) exportiert. Das hatte ich schon vor einigen Wochen gemacht und sogar die Imports in lokalen Systemen simuliert. Also da schien mir alles im grünen Bereich. Leider kam ich an die Datenbanken selbst nicht mehr direkt ran und die Exports der gesamten Datenbanken würden doch Fehlerkorrekturen erheblich erleichter. Dazu habe ich am Wochenende mit HTTrack Website Copier die drei Websites lokal gesichert (mache ich eigentlich immer mal wieder) und damit standen mir auch alle Dateien, wie sie im Browser ankommen, in aktuellen Versionen zur Verfügung. Zu guter Letzt habe ich von den beiden Blogsystemen noch jeweils eine Douplette bei Blogger, die vollkommen synchronisiert sind. Eigentlich alles gut vorbereitet, dachte ich.

Was ging trotzdem schief? Und warum ist das nicht unbedingt eine Katastrophe?

Es ging (natürlich) doch Einiges beim Umzug schief.

  • Erstes Problem: Bei meinem Import des Blogs hat das WordPress-Importer-Plugin abgebrochen. Die Beiträge der letzten Jahre sind nicht importiert worden. Fehler des Plugins (entweder für den Ex- oder Import) würde ich sagen. Aber das hilft mir auch nicht. Der Export der Beiträge des synchronisierten Blogs bei Blogger und Import in das neue WordPress hat aber funktioniert. Also alle Beiträge gerettet.
  • Zweites Problem: Diverse Bildreferenzen haben nicht mehr funktioniert. Sowohl interne (klar, denn die gehen auf Mediendateien, die erst einmal auf WordPress geladen werden müssen und zudem muss man die Referenzen anpassen), aber auch externe – da wurden die Werte von src-Attributen beim Bild-Tag nicht erhalten). Wie und warum kaum nachvollziehbar, aber die Korrekturen waren viel Handarbeit :-(. Seltsamer Weise scheint die Wahl eines Themes zu beeinflussen, ob und wie die Bildreferenzen funktionieren. Zum Teil sind auch die Permalinks wichtig.
  • Drittes Problem und mein Fehler: ich kann die Themes nicht mehr reproduzieren. Ich habe sogar ganz vergessen, wie die hießen. Das zumindest hätte ich mir vorher aufschreiben sollen :-(. Aber da ich diverse Anpassungen in den Themes (Einstellungen bis runter in den Code) vorgenommen hatte, hätte mir das sowieso wenig genutzt. Ich hätte die Dateien sichern müssen und das ging ohne FTP-Zugang ja sowieso nicht. Dazu habe ich ebenso nicht aufgeschrieben, welche Plugins ich installiert hatte :-(. Selbst die Widgets habe ich nicht aufgeschrieben, aber da hatte ich ja den gesicherten Client-Code. Trotzdem ist die Sache keine Katastrophe. Ich hatte sowieso vor die Seiten neu zu machen, zu entmisten und verschlanken und letztendlich auch das Design von Webseite und Blog zu vereinheitlichen, um diese besser zu synchronisieren. Also gilt hier nur „Alles neu, macht der Januar“. Halt einige Arbeit, aber das hatte ich schon lange so geplant. Zumal ich ein richtig geiles neues Theme entdeckt habe, das ich für alle drei Seiten einsetzen werde.
  • Viertes Problem: leider sind viele Benutzerdaten und Kommentare verloren gegangen, denn hier sind die Blogs nicht mit den Bloggersystemen synchron :-(. Das ist echt ärgerlich. Aber bisher registrierte Benutzer bitte ich sich neu anzumelden. Die Kommentare sind leider verloren (aber sowieso zu alten Beiträgen), wobei ich einige Inhalte noch habe (HTTrack Website Copier).

Ich muss den Fliegerblog jetzt noch neu einrichten und bitte um Rückmeldungen, wenn noch Fehler auf den neu eingerichteten Seiten gefunden werden.

Fortschritte beim Raspberry mit der Einrichtung einer Überwachungskamera

Eine durchaus nützliche Anwendung mit dem Raspberry Pi ist die Einrichtung einer Überwachungskamera. Denn der kleine RasPi braucht kaum Strom und selbst mit einer Webcam und einem WLAN-Adapter und ggfls. einem kleinen Gehäuse (falls man die Sachen noch kaufen muss und nicht sowieso irgendwo noch übrig hat) ist man billiger als bei den meisten Kauflösungen. Zumal man die genialen Programme im Linux-Umfeld nutzen kann. Ich brauche zwar eigentlich keine Überwachungskamera, aber die Neugier und der Spieltrieb (letztendlich aber auch Know How-Aufbau als Investition in meinen Job) haben mich zum Fertigstellen gebracht.

Schritt 1 – WLAN einrichten

Bisher hatte mein RasPi an der Leitung (sprich Ethernet-Kabel) gehangen und erstmal musste der WLAN-Adapter für den Raspberry Pi eingerichtet werden. Zuerst habe ich rein physikalisch den WLAN-Adapter an einen der beiden freien USB-Ports eingesteckt (USB-Port 2 brauche ich für die Cam). Mit lsusb kann man herauszufinden, ob der WLAN-Adapter überhaupt erkannt wurde. Das ging bei meinem RasPi problemlos und die Netzwerk-Schnittstelle mit der Bezeichnung wlan0 war sofort vorhanden. Danach habe ich iw bzw. iwlist als Tool installiert (sudo apt-get install iw). Mit sudo iwlist wlan0 scan kann man dann ganz bequem die WLAN in der Gegend scannen. Um die Verbindung einzurichten muss man die Netzwerk-Konfigurationsdatei bearbeiten. Dazu öffnet man die interfaces-Datei: sudo nano /etc/network/interfaces Hier gibt es vermutlich bereits einen WLAN-Bereich, wenn der Adapter erkannt wurde (war bei mir auf jeden Fall da). Und da trägt man so was wie das ein: # WLAN auto wlan0 allow-hotplug wlan0 iface wlan0 inet manual wpa-ssid „WLAN-Name wpa-psk „WLAN-Passwort Da habe ich ein bisschen rumspielen müssen, denn ein paar Einträge bei mir haben wohl kollidiert. Der Adapter wollte einfach keine IP-Nummer vom DHCP-Server beziehen. Aber mit dem Code ist mein WLAN-Zugriff dann gegangen. Natürlich muss man die Netzwerkschnittstelle nach jeder Änderung neu starten: sudo ifconfig down wlan0 sudo ifconfig up wlan0

Schritt 2 – Motion einrichten

Die Open-Source-Software Motion befindet sich in den Repositories der Linux-Distribution Raspbian. Als Kamera verwende ich eine alte USB-Webcam, die mit etwas Mühe auch unter Raspian endlich gelaufen ist. Allgemein sollte jede Kamera gehen, die mit dem V4L-Treiber (Video for Linux) kompatibel ist und als Gerät unter Linux in der Form /dev/videoX auftaucht. Mit dem folgenden Befehl kann man schauen, ob die Cam ordnungsgemäß funktioniert: dmesg | tail Noch besser: ls -ltrh /dev/video* Allerdings hat das bei mir von Anfang an funktioniert, aber der Video-Device ließ sich dennoch nicht öffnen. Erst nach dem komplette Upgrade der Distribution und Bereinigung ging das plötzlich. Motion spricht nun die Cam über eben /dev/video0, /dev/video1, etc. an und beobachtet den Video-Stream. Das Spannende ist nun der Bewegungsmelder. Man kann dazu einfach bei Motion ein Limit für sich ändernde Pixel in einem Bild festlegen. Wird die Grenze dieser Pixelzahl überschritten, wertet Motion das als Bewegung und kann je nach Konfiguration entsprechend reagieren. In der Regel wird dann ein Bild gespeichert. Geniale und einfache Lösung. Man installiert Motion so: sudo apt-get update sudo apt-get install motion Motion lässt sich dann über ein Init-Script starten, das nach der Installation des Programms bei Raspian unter /etc/init.d/motion zu finden ist. Für den automatischen Start zusammen mit dem System bearbeiten man die Datei /etc/default/motion und ersetzt das no hinter start_motion_ daemon durch yes. Ansonsten startet man Motion einfach manuel: sudo motion Nach Aufruf des Befehls erzeugt Motion diverse Bildschirmausgaben. Besonders wichtig ist Started stream webcam server in port 8081. Das sind die Infos, um die Bilder live abzugreifen. Das Bild kann man mit jedem Streaming-Client oder in einem beliebigen Webbrowser betrachten – über https://localhost:8081. Wenn sich jetzt was für der Cam bewegt, sieht man in der Konsole, dass Bilder gespeichert werden. In der Standardkonfiguration legt Motion diese unter /tmp/motion ab.

Konfigurieren

Per Standard ist Motion auf localhost beschränkt. Das kann man in der Standardkonfigurationsdatei /etc/motion/motion.conf anpassen. Die Zeile webcam_ localhost on ( Sektion „Live Webcam Server“) muss geändert werden auf: webcam_ localhost off An anderer Stelle findet man die Bildbreite und Bildhöhe. width 320 height 240 Kann man natürlich anpassen, soweit das die Cam unterstützt und der Platz auf dem Datenträger ausreicht. Sehr spannend – die Anzahl der Bilder/Sekunde framerate 2 Kann man bei Überwachung eher niedriger wählen, damit die Datenmenge nicht zu hoch wird. Bei einem Livestream hingegen sollte man den Wert eher hochsetzen. Muss ich auch noch ausprobieren. Die Sektion „Motion Detection Settings“ ist dazu da festzulegen, wie viele Pixel sich ändern müssen, damit Motion dies als Bewegung erkennt. Der erste Parameter threshold bestimmt, wie viele Pixel sich in einem Bild ändern müssen, um als Bewegung wahrgenommen zu werden. Per Standard steht das auf 1500 und das ist auf die vorgegebene Breite und Höhe des Bildes gemünzt. Setzt man die Bildgröße hoch, wird die Sache viel sensibler, da Motion früher reagiert. Will man das eher unempfindlicher, muss man den Wert erhöhen. Sobald Motion eine Bewegung erkennt, speichert das Programm die Dateien per Standard im JPG-Format. Ganz klasse – zusätzlich wird nach jeder Bewegungssequenz per Standard eine SWF-Datei als kleiner Film erstellt. Wo diese Dateien hinterlegt werden, konfigurieren man über den Parameter target_dir. Per Standard ist das /tmp/motion. Das Verzeichnis wird jedoch bei jedem Neustart des RasPi gelöscht. Sollte man die Dateien erhalten wollen, ändert man das Verzeichnis besser.

Spielchen mit der Raspberry Pi

Da ich die Woche hauptsächlich neue Schulungen und Projekt vorbereite und ansonsten Zeit habe [natürlich ist dann das Wetter schlecht ;-( ], habe ich mal wieder meinen kleinen Raspberry Pi (1. Generation) hochgefahren. Ich habe immer noch keinen wirklichen Nutzen für mich gefunden, was ich lieber mit dem RasPi statt mit einem normalen Linux-Rechner machen sollte. Aber reizt mich wieder mit diesem ultraschwachen Platinenkleinstrechner zu spielen und zu schauen, was da so geht.

Versuch 1 

Eine alte USB-Webcam am RasPi zum Laufen zu bekommen. An meinen Mint Linux-Rechnern geht die einwandfrei. Aber an dem RasPi gab es wohl Treiberprobleme. Zuerst konnte /dev/videoX nicht geöffnet werden.
Gerade mal ein Upgrade der gesamten Raspian-Distri samt Bereinigung durchgeführt. Das hat zumindest dazu geführt, dass VLC als Medieneingabegerät gerade die Webcam öffnen konnte. Nach ein paar Sekunden friert das Bild ein, aber grundsätzlich geht das jetzt schon mal. Ich plane mit Motion eine kleine Überwachungskamera zu simulieren. Da sollte ich voran kommen.

Versuch 2 

Vernünftiger mit der RasPi surfen. Der Standardbrowser Midori ist ziemlich mau. Der Epihany-Browser soll bedeutend besser sein. Nach dem Update von Raspbian steht das Paket epiphany-browser zur Verfügung und den habe ich mit apt-get installiert. Epiphany wird öfter als Midori aktualisiert und enthält deshalb immer eine deutlich aktuellere Version von WebKit mit besserer Unterstützung neuer Webtechniken und einem JIT-Compiler für schnelleres JavaScript. Außerdem nutzt der Browser die schwachbrüstige Hardware auf Grundlage von ARMv6 besser – angeblich sogar Hardware-beschleunigtes Dekodieren von Videos. Meine ersten Surfversuche sind auf jeden Fall deutlich smarter als mit dem alten Midori.

Versuch 3 

Verschleierung des Originalrechners beim Surfen. Ich habe mal eine Kaskade zum Surfen im Internet aufgebaut, an deren Ende zwar mein Router steht (und damit natürlich meine aktuelle IP), aber dahinter wird es ein Versteckspiel mit dem RasPi an der Front. Ich nutze einen Windows-10-PC und starte dort in einer VirtualBox erstmal ein Mint Linux. Von da logge ich mich mit SSH auf dem RasPi ein und dort starte ich dann den Browser für den Zugriff nach draußen. Würde lustig sein, wenn ein Angreifer versucht bis zu meinem tatsächlichen System durchzudringen. Aber das soll keine Aufforderung sein, weil ich die Sache ja nur als Spiel mit ein bisschen Reaktivierung von Linux- und Netzwerkkenntnissen betrachte.

Jungbrunnen SSD

Ich habe jetzt nach dem Aufrüsten meines Notebooks mit der SSD weitere Erfahrungen gemacht und muss sagen, dass mich der Gewinn an Performance immer mehr erstaunt. Ich ärge mich fast, dass ich nicht schon früher umgerüstet habe. Das hätte manche Wartezeit gespart.
Da ich die nächsten Tage ziemlich viel mit MySQL machen muss und in der Schulung auch Replikationssystem mit einem Master-Client-MySQL-Serversystem aufsetzen will, habe ich gerade unter VirtualBox ein Gastsystem eingerichtet und gestartet. Ich hatte es vollkommen aufgegeben, auf meinem Notebook virtuelle Maschinen zu starten. Das war bislang grausam träge. Mit der SSD als Backbone ist selbst das wieder smart machbar. Trotz nur 4 GB RAM.

Umzug auf SSD und erste Erfahrungen

Nachdem mein Notebook eine Frischzellenkur ganz, ganz dringend benötigt und ich am Montagabend gesehen hatte, dass die SanDisk Ultra II SSD 960GB bei Amazon als Deal des Tages gut 50 EUR unter Normalpreis angeboten wurde, habe ich zugeschlagen. Ich bin in der letzten Zeit immer unzufriedener mit Amazon, aber die Lieferzeiten sind schon gut. Bereits heute morgen war die SSD da. Das muss man wirklich loben.
Sofort Notebook aufgeschraubt, alte HDD raus, SDD rein, mit CloneZilla das Image der alten Platte vom NAS eingespielt und Rechner neu gestartet. Alles sofort ohne irgendwelche weiteren Anpassungen gelaufen :-). Absolut sauber.
Over all hat das keine Stunde gedauert. Schon beim Recovern des alten Systems habe ich den Zuwachs der Schreibgeschwindigkeit bemerkt. Alleine das Sichern auf dem NAS hat gut 3 Stunden gedauert, wobei da natürlich das Netzwerk ein zusätzlicher Flaschenhals war. Aber der war auch beim Rückspielen im Weg. Insgesamt bin ich total positiv überrascht, wie einfach das Clonen und Austauschen ganzer Festplatten mit CloneZilla geht. Bisher habe ich immer nur die Daten gesichert und das System lieber gleich neu aufgesetzt.
Doch zurück zur SSD. Ein kleines Problem habe ich beim Rückspielen des Images übersehen – die alte HDD war nur 500 GB groß und nach dem einfachen Rückspielen wurden auch auf der neuen SSD nur diese 500 GB verwendet. Also gut 460 MB waren erstmal nicht zugänglich.
Natürlich kann man mit Tools wie GParted die Partition wieder vergrößern. Aber ich habe aus der Not lieber eine Tugend gemacht und einfach wieder ein Linux als paralleles Betriebssystem installiert. Das hatte ich früher auch, aber irgendwann aus Platzgründen aufgegeben. Mit den gut 1 TB habe ich jetzt wieder mehr als genug Platz, um zwei OS auf dem Notebook zu halten.
Was nun das Verhalten von dem Notebook mit der neuen SSD angeht – das Teil scheint plöztlich gefühlt fast so schnell wie meine Workstation zu sein. Gut – die spielt mit 6 echten bzw 12 virtuellen Kernen und 32 GB RAM in einer ganz anderen Liga als der i5 der ersten Generation mit nur 4 GB RAM. Aber zumindest der Start der Programme auf dem Notebook geht jetzt total fix. Angeblich erreicht die neue SSD bis zu 550 MB/s Lese- und bis zu 500 MB/s Schreibgeschwindigkeit. So ganz auf dem neusten Stand ist sie wohl nicht (aus 2014), aber das ist mein Notebook ja auch nicht. Eine noch bessere SSD würde vermutlich gar nichts bringen. Die Flaschenhälse sitzen jetzt an den übrigen Bauteilen des Notebooks. Vor allen Dingen die Grafikkarte ist lahm und mehr wie 4 GB RAM bekomme ich am Mainboard nicht zu erkennen, was ich gerade mit 2 4GB-Riegeln aus einem anderen Notebook, das ich zur Reparatur da habe, testen konnte (auch damit werden nur 4 GB RAM erkannt ;-( ).
Also von daher war der Austausch der Festplatte wohl das optimale Tuning für das Notebook. Ich bin mit der Performanceverbesserung im Moment total zufrieden und hoffe, dass ich mit dem Gerät jetzt noch 2 – 3 Jahre arbeiten und für Schulungen nutzen kann.

Einen USB Stick bootfähig machen & Platte sichern

Mein Notebook ist mittlerweile so grottenlangsam, dass ich kaum noch damit arbeiten kann. Das Gerät startet in gefühlten Ewigkeiten und auch die Programme scheinen in Honig eingebettet. Ich brauche aber das Notebook immer wieder in Schulungen und da ich dort auch mit recht anspruchsvollen Entwicklungsumgebungen wie Eclipse, NetBeans oder dem Visual Studio arbeite, ist das nicht mehr spassig. Da es sich aber ein solides Terra-Business-Notebook handelt und ich im Büro auch eine speziell dafür gedachte Dockingstation eingerichtet habe, will ich das Notebook nicht einfach ersetzen. Also ist Aufrüsten eine Option. Für mich kommen da 2 Varianten infrage:

  • Mehr RAM
  • SSD

Alles was ich bisher mitbekommen habe, ist vor allen Dingen der Austausch der Festplatte das Turbomittel für lahme Rechner und deshalb gehe ich das an. Zumal bei Amazon gestern ein m.E. ziemlich guter Sonderdeal für eine große SSD gelaufen ist (ja, ja – ich will Amazon weniger verwenden und mache das auch schon – aber ganz boykotieren muss ja auch nicht sein – wenn es günstig ist, kann man vereinzelt zuschlagen). Bis die SSD da ist, muss ich erstmal meine alte Festplatte sichern und da greife ich auf CloneZilla zurück. Im Moment schiebe ich gerade ein ISO der alten Festplate auf das NAS. Aber das Problem war, wie ich ich CloneZilla erstmal zum Starten bringe. Die Zeit von Boot-CDs oder Boot-DVDs ist endgültig vorbei, denke ich. Man startet heute vom USB-Stick. Und da fängt das Problem an. Das Teil muss ja startfähig gemacht werden. Ich wollte zuerst mal den oft empfohlenen Weg in Windows über Diskpart in der Konsole probieren. Geht ja im Grunde ganz einfach.

  1. Eingabeaufforderung als Administrator ausführen
  2. diskpart
  3. list disk
  4. Auswahl USB-Stick über select disk #
  5. clean
  6. create partition primary
  7. select partition 1
  8. active
  9. format fs=fat32
  10. assign
  11. exit

Dann einfach das Betriebssystem auf den Stick kopieren und neu starten. Alles kein Hexenwerk. Nur bei mir startet der Rechner einfach nicht vom USB-Stick. Bei mehreren Rechner probiert. Also doch wieder das geniale Tool UNetbootin genommen, mit dem ich schon früher verschiedene Linux auf USB-Sticks gezogen habe. Damit geht das alles wunderbar. Man kann ein eigenes ISO (in meinem Fall von CloneZilla) drauf brennen und bei Bedarf lädt das Tool diverse Linux-Distris automatisch aus dem Netz und macht einen USB-Stick damit startfähig.

Neue Datenschutz-Reform der EU

Wenn die EU irgendeine Gesetzgebung oder etwas ähnliches aushandelt, kam m.E. bisher so gut wie nie etwas Gutes heraus. Auch die neue Datenschutz-Reform ist auf den ersten Blick eine Maßnahme, die vielleicht gut gemeint, aber vollkommen an der Realität vorbei zielt und die eigentlichen Probleme verkennt – soweit ich das verstanden habe. Das Ziel der neuen Reform ist wohl, dass Internet-Nutzer in Europa einheitlich behandelt und vor allen Dingen mehr Kontrolle über ihre persönlichen Daten bekommen. In Zukunft sollen überall in der EU die selben Datenschutz-Standards gelten. Das zielt explizit gegen Auswüchse wie die Ansiedelung von Facebook Europa in Irland mit seinen extrem niedrigen Datenschutzstandard. In Zukunft sollen Kunden – wenn sie das wollen – mehr Klarheit darüber bekommen, was mit ihren persönlichen Daten genau passiert. Dazu gehört, dass sich Unternehmen explizit die Zustimmung der Nutzer einholen, wenn sie deren Daten verwenden wollen. Unternehmen sollen ihre Angebote im Web so voreinstellen, dass sie datenschutz-freundlich sind (muss mal schnell lachen). Erst einmal hört sich das auch alles vielleicht ganz gut an. Aber warum lehne ich als alter Datenschützer (nach meinem Selbstverständnis) den Kram dann ab?

  1. Die ganze Reform ist viel, viel zu kompliziert. Aber was kann man von der EU auch anderes erwarten?
  2. Die Reform blockiert das Web. Schon jetzt ärgere ich mich über Seiten, die immer wieder auf die Verwendung von Cookies hinweisen und meine Zustimmung einfordern. Das ist lästig und wird durch den Massengebrauch sowieso nur ignoriert. Leute – jeder wird im Web nach Strich und Faden getrackt. Wer das nicht will, muss sich schützen (wenn er das kann) oder soll nicht ins Internet gehen.
  3. Firmen mit Web-Ausrichtung werden gegenüber Konkurrenten außerhalb der EU massiv benachteiligt. Das ist wie beim Dopping – alle machen das und diejenigen, die selbstgerecht sauber sind, verlieren. Toll – dafür kann man sich nichts kaufen außer der Schadenfreunde der anderen. Diese Selbstbestrafung der EU ist mal wieder ganz toll. Die sollen lieber gegen TIPP kämpfen und endlich mal die wirklichen Interessen von Europa und seiner Bürger im Auge behalten.
  4. Die Reform geht am Problem vorbei. Das Problem sind nicht Firmen, die Daten sammeln und verwerten. Das Problem sind dumme Anwender, die diese Daten bereitwillig bereitstellen und hinterher jammern. Wer laut aus dem Fenster ruft, kann ja auch nicht fordern, dass niemand zuhört. In Deutschland braucht man für alles und jedes einen Schein oder Zertifikat. Nur das Internet kann Hinz und Kunz ohne Sinn und Verstand benutzen und sich dann beschweren, dass man ausspioniert oder geschädigt wurde. Leute – das Internet ist kein Ponyhof, sondern eine Schlangegrube und so muss man sich da bewegen. Wir brauchen keine Gesetze, die vor dem Trocknen der Katze in der Mikrowelle oder der Feuergefahr bei Streichhölzern warnen. Wir brauchen eine grundlegende Ausbildung von Anwendern, die das Internet nutzen wollen. Vielleicht nach dem Verfahren bei Winterreifen – wer die grundlegenden Prozesse im Internet nicht verstanden hat (mit einem Nachweis oder einer Prüfung), surft vollkommen auf eigene Gefahr und hat im Schadensfall die Konsequenzen zu tragen.

Firefox und die Schweiz

Sehr seltsam. Seit einigen Versionen des Firefox werde ich jedesmal zu gmx.ch umgeleitet, wenn ich gmx.de eingebe. Es gibt gar keine Chance, dass ich gmx.de erreiche.
Ich habe die erweiterten Konfigurationen von Firefox mit about:config durchsucht, die Registry (soweit nachvollziehbar), alle gespeicherten Daten etc. Kein Hinweis, warum das passiert.
Zumal es nur bei der Kombination von Firefox unter meinem Windows10 und eben gmx.de dazu kommt. Andere Browser auf dem Rechner oder andere Firefox auf meinen anderen Rechnern laden die richtige Seite. Ich hab natürlich auch im Internet geforscht und anscheinend bin ich nicht der Einzige, der das Problem hat. Wirklich sehr seltsam.
Andererseits ist die Seite von GMX auch nicht wirklich interessant – nur zum Einloggen in das Webmail, wenn gerade das eigene E-Mail-Programm nicht vorhanden ist.

Deadstream statt Livestream bei der ARD

Ich verstehe es einfach nicht, dass der sogenannte Livestream bei der ARD immer Probleme macht. Mir scheint, die bekommen es einfach nicht hin. So schlecht die Mediathek vom ZDF auch ist (im Vergleich zu Youtube oder anderen professionellen Angeboten), das Medienangebot der ARD toppt das noch in negativer Hinsicht. Mir ist es schon mehrfach passiert, dass der Livestream der ARD bei mir nicht geht. Wenn ich parallel in Zattoo das Zeug ansehe, geht das problemlos. Was sind da denn für Amateure am Werk?

Erinnerungen an die Buchmesse 2001 mit einem Buch von mir in prominenter Umgebung

Mein damaliger Lektor bei Markt & Technik postet auf Facebook gerade Erinnerungen an die Buchmesse 2001 in Frankfurt. Damals war Markt & Technik richtig dick im Geschäft und mit dem Heyne-Verlag verbundelt.

Was dazu geführt hat, dass mein JavaScript-Buch unmittelbar nebem dem Buch unseres ehemaligen Außenministers Joschka Fischer stand (2 Reihen links oberhalb).

Diese prominente Umgebung ist mir damals definitiv nicht aufgefallen, aber im Nachhinein bin ich jetzt richtig stolz 😉

Google+ komplett neu gemacht – und in China ist ein Sack Reis umgefallen

Wow – über Nacht ist ein neues Google+ aufgetaucht. Angeblich „Einfacher, schneller, besser“. Aber wen interessiert das? Ich bin zwar auch auf G+, aber eigentlich nur, weil man das als IT-ler irgendwie muss. Wie ein Atheist, der zur Sicherheit doch ein Kreuz dabei hat. Man kann ja nie wissen… Selbst Google dementiert nur gebremst die Gerüchte, dass G+ tot ist. Der neue Anstrich könnte der letzte Versuch sein, doch noch etwas Leben in diese Geisterstadt zu bekommen. Angeblich hat sich nicht nur optisch viel verändert. Auch konzeptionell und unter der Haube wurden angeblich massive Änderungen vorgenommen. Der Fokus soll verstärkt auf Communities und Sammlungen liegen. Ich habe das neue G+ gerade mal ausprobiert und bin dann sofort zur alten Version zurückgekehrt. Man sieht ja noch weniger Beiträge auf einen Blick als vorher. Sieht auf den Desktop aus wie die Mobilversion :-(. Naja – vielleicht muss man sich halt Zeit lassen, die neue Idee zu verstehen. Aber dazu finde ich G+ zu unwichtig.

Lager & mehr

Über die Jahre haben sich so viele Belegexemplare von meinen Büchern, aber auch unzählige Materialen rund um die IT bis hin zu Hardware angesammelt – das soll nicht alles im Büro rumliegen.
Bei meinem Zweitstandort in Eppstein habe ich seit zig Jahren eine Gartenhütte auf unserem Grundstück am Waldrand zum Lager umfunktioniert, wo ich das Zeug horte. Und da die schön in der Natur liegt, sitze ich im Sommer häufiger davor mit dem Notebook unter dem Sonnenschirm. Zig Bücher von mir sind da in großen Teilen entstanden. Im Moment ist allerdings triste Novembermode angesagt.

Fire gefeuert

Eben das Fire-Tablet eingetütet und zum Rückversand an Amazon fertig gemacht. Die Hardware ist wirklich gut – für das geringe Geld allemal, aber auch sonst.

Das nutzt aber nichts, denn das Amazon-Android und die installierten Apps sind einfach nur indiskutabel. Selbst der Standardbrowser taugt nicht viel und im App Store gibt es gar keine Alternative.

Überhaupt der App Store von Amazon – eine einzige Lücke hinsichtlich notwendiger Apps und dafür Werbung und anderes überflüssiges Zeug. Grauenvoll.
Das Rooten von dem Teil ist nun auch ziemlich schwierig. Zumindest konnte ich unter Windows 10 gar kein ADB-Kontakt zum Device herstellen. Unter Linux zwar sofort, aber das Fire hat sich dann nicht gemeldet. Kurz und gut – das Rooten hat bei mir bisher nicht geklappt (das erste Android-Gerät, bei dem ich ein Scheitern zugeben muss) und ich habe keinen Bock mehr. Das Installieren von einem alternativen Android bin ich somit gar nicht mehr angegangen.

Die Frage, ob man ein Tablet wirklich braucht, geht mehr und mehr zur Antwort : Nein!