Java-Schulung im verschneiten Taunus

Ich war mal wieder für 3 Tage bei einem Stammkunden im Hochtaunus, für den ich deutlich über 12 Jahre schon Schulungen halte.
Und rechtzeitig zum Job im Hochtaunus hat sich auch der diesjährige Winter angemeldet.

Wobei die Straßen frei waren und insbesondere heute der Winter sich von der schönsten Seite gezeigt hat.

Der Spaziergang in der sonnendurchfluteten Winterlandschaft in der Mittagspause hatte fast was von Urlaub.

Dreimal umgezogen ist wie einmal abgebrannt

Meine Domain rjs.de samt den beiden Blogs, die ich unter den Subdomain fliegerblog.rjs.de und blog.rjs.de betreibe, sind die letzten zwei Tage umgezogen. Ich habe die Seiten auf meinen V-Server verlagert, auf dem ich bereits Autoren-net.de sowie ein paar Subdomains wie rb.autoren-net.de betreibe. Die Seiten, die ich bisher auf dem V-Server hoste, machen den Betrieb eines eigenen V-Servers nicht notwendig. Mit der Verlagerung nutze ich die Kapazitäten und Möglichkeiten besser. Aber das war gar nicht der Grund für den Umzug – für meine Domain rjs.de hatte ich noch ein uraltes (wirklich uralt – von 1996, wenn ich das recht entsinne) und gesponsertes Hosting (vom Provider für Multiplikatoren im IT-Bereich eingerichtet) beim gleichen Provider meines V-Servers, das der Provider die letzten Monate mit indirektem Druck zum Auslaufen gebracht hatte. Die Zugänge zu gewissen Features wie Zugang zum Kundenbereich, FTP, Web-Mail, direkter Datenbankzugriff, Systemaktualisierungen etc. waren irgendwann nicht mehr offen und vor ein paar Tagen ist dann auch noch meine erste Subdomain nicht mehr erreichbar gewesen. Dem Provider mache ich keinen Vorwurf, denn ich habe lange genug von dem Angebot profitiert und die paar EUR für eine Domain sind nicht der Rede wert (wäre nur netter und vor allen Dingen einfacher gewesen, wenn ich vom Provider irgendwann die direkte Aufforderung zum Umzug bekommen hätte). Auf jeden Fall war eine Reaktion von mir jetzt unabdingbar und musste schnell erfolgen. Denn wenn meine Hauptdomain rjs.de nicht mehr zugänglich gewesen wäre, wäre auch meine Haupt-E-Mail nicht mehr nutzbar. Und das wäre sehr, sehr schlecht gewesen.

Der Umzug an und für sich

Der Umzug an sich ging mittelprächtig. Einerseits bin ich ja bei meinem Provider geblieben und die Übertragung musste nur von einem Vertrag zu einem anderen Vertrag erfolgen. Dazu die Anpassung des DNS-Namens an die IP des V-Servers. Da ich aber nicht mehr an meinen alten Kundenbereich herankam, konnte ich die Bestätigung für den Auftrag des internens Umzug nicht liefern. Es gibt verschiedene Wege, die der Provider anbietet. Aber bei allen war halt dieser Zugang zum alten Kundenbereich Voraussetzung. Das Zusenden des Auth-Codes per E-Mail hat auch nicht funktioniert, denn die alte E-Mail-Adresse hat nicht mehr existiert (das habe ich erst nach vielen Kontakten rausbekommen – es wurde im neuen Kundenbereich nirgends angezeigt, wohin die zu bestätigende Mail geschickt wurde) und eine Umstellung war aus besagtem Grund nicht machbar. Daher habe ich die letzten 2 – 3 Monate mit halben Dampf versucht den Umzug anzustoßen. Aber noch nicht mit Nachdruck, weil die wichtigsten Dinge der Seiten samt E-Mail noch gingen. Nach dem Abschalten der Subdomain ist mir dann aber die Muffe gegangen und ich habe schriftlich den Umzug beauftragt. Als Antwort kam wieder der Hinweis auf die Sache mit E-Mail etc. Wir haben uns im Kreis gedreht. Ich wurde dann aber etwas deutlicher und habe das Problem genau geschildert. Im Folgeschritt ging dann der Umzug doch. Innerhalb von einem Tag war der DNS-Name meiner IP des V-Servers zugeordnet. War also alles in Allem etwas blöd gelaufen, weil bei mir eine ziemlich außergewöhnliche Sondersituation vorlag. Aber der Provider hat mit sich reden lassen und dann ging die Geschichte doch durch.

Probleme und Chancen

Wie ich in der Überschrift schon angedeutet habe – bei einem Umzug geht viel Zeug verloren oder kaputt. Kann man wohl niemals verhindern. So auch bei meinem Umzug. Ich hatte den Umzug letztendlich etwas überstürzt eingeleitet, aber im Grunde über Monate vorbereitet. Es ist schon faszinierend, was man dann doch alles vergessen kann zu sichern oder aufzuschreiben oder was beim finalen Schritt schief geht, wenn man das durchzieht.

Denn sämtliche Daten auf dem alten Hostingangebot sind weg, wenn die Domain auf die neue Adresse umgeleitet ist! Natürlich war mir das klar und ich hatte vorher mit dem Standard-Plugin alle Daten aus den WordPress-Systemen (es waren drei WordPress-Systeme und sonst nichts) exportiert. Das hatte ich schon vor einigen Wochen gemacht und sogar die Imports in lokalen Systemen simuliert. Also da schien mir alles im grünen Bereich. Leider kam ich an die Datenbanken selbst nicht mehr direkt ran und die Exports der gesamten Datenbanken würden doch Fehlerkorrekturen erheblich erleichter. Dazu habe ich am Wochenende mit HTTrack Website Copier die drei Websites lokal gesichert (mache ich eigentlich immer mal wieder) und damit standen mir auch alle Dateien, wie sie im Browser ankommen, in aktuellen Versionen zur Verfügung. Zu guter Letzt habe ich von den beiden Blogsystemen noch jeweils eine Douplette bei Blogger, die vollkommen synchronisiert sind. Eigentlich alles gut vorbereitet, dachte ich.

Was ging trotzdem schief? Und warum ist das nicht unbedingt eine Katastrophe?

Es ging (natürlich) doch Einiges beim Umzug schief.

  • Erstes Problem: Bei meinem Import des Blogs hat das WordPress-Importer-Plugin abgebrochen. Die Beiträge der letzten Jahre sind nicht importiert worden. Fehler des Plugins (entweder für den Ex- oder Import) würde ich sagen. Aber das hilft mir auch nicht. Der Export der Beiträge des synchronisierten Blogs bei Blogger und Import in das neue WordPress hat aber funktioniert. Also alle Beiträge gerettet.
  • Zweites Problem: Diverse Bildreferenzen haben nicht mehr funktioniert. Sowohl interne (klar, denn die gehen auf Mediendateien, die erst einmal auf WordPress geladen werden müssen und zudem muss man die Referenzen anpassen), aber auch externe – da wurden die Werte von src-Attributen beim Bild-Tag nicht erhalten). Wie und warum kaum nachvollziehbar, aber die Korrekturen waren viel Handarbeit :-(. Seltsamer Weise scheint die Wahl eines Themes zu beeinflussen, ob und wie die Bildreferenzen funktionieren. Zum Teil sind auch die Permalinks wichtig.
  • Drittes Problem und mein Fehler: ich kann die Themes nicht mehr reproduzieren. Ich habe sogar ganz vergessen, wie die hießen. Das zumindest hätte ich mir vorher aufschreiben sollen :-(. Aber da ich diverse Anpassungen in den Themes (Einstellungen bis runter in den Code) vorgenommen hatte, hätte mir das sowieso wenig genutzt. Ich hätte die Dateien sichern müssen und das ging ohne FTP-Zugang ja sowieso nicht. Dazu habe ich ebenso nicht aufgeschrieben, welche Plugins ich installiert hatte :-(. Selbst die Widgets habe ich nicht aufgeschrieben, aber da hatte ich ja den gesicherten Client-Code. Trotzdem ist die Sache keine Katastrophe. Ich hatte sowieso vor die Seiten neu zu machen, zu entmisten und verschlanken und letztendlich auch das Design von Webseite und Blog zu vereinheitlichen, um diese besser zu synchronisieren. Also gilt hier nur „Alles neu, macht der Januar“. Halt einige Arbeit, aber das hatte ich schon lange so geplant. Zumal ich ein richtig geiles neues Theme entdeckt habe, das ich für alle drei Seiten einsetzen werde.
  • Viertes Problem: leider sind viele Benutzerdaten und Kommentare verloren gegangen, denn hier sind die Blogs nicht mit den Bloggersystemen synchron :-(. Das ist echt ärgerlich. Aber bisher registrierte Benutzer bitte ich sich neu anzumelden. Die Kommentare sind leider verloren (aber sowieso zu alten Beiträgen), wobei ich einige Inhalte noch habe (HTTrack Website Copier).

Ich muss den Fliegerblog jetzt noch neu einrichten und bitte um Rückmeldungen, wenn noch Fehler auf den neu eingerichteten Seiten gefunden werden.

Fortschritte beim Raspberry mit der Einrichtung einer Überwachungskamera

Eine durchaus nützliche Anwendung mit dem Raspberry Pi ist die Einrichtung einer Überwachungskamera. Denn der kleine RasPi braucht kaum Strom und selbst mit einer Webcam und einem WLAN-Adapter und ggfls. einem kleinen Gehäuse (falls man die Sachen noch kaufen muss und nicht sowieso irgendwo noch übrig hat) ist man billiger als bei den meisten Kauflösungen. Zumal man die genialen Programme im Linux-Umfeld nutzen kann. Ich brauche zwar eigentlich keine Überwachungskamera, aber die Neugier und der Spieltrieb (letztendlich aber auch Know How-Aufbau als Investition in meinen Job) haben mich zum Fertigstellen gebracht.

Schritt 1 – WLAN einrichten

Bisher hatte mein RasPi an der Leitung (sprich Ethernet-Kabel) gehangen und erstmal musste der WLAN-Adapter für den Raspberry Pi eingerichtet werden. Zuerst habe ich rein physikalisch den WLAN-Adapter an einen der beiden freien USB-Ports eingesteckt (USB-Port 2 brauche ich für die Cam). Mit lsusb kann man herauszufinden, ob der WLAN-Adapter überhaupt erkannt wurde. Das ging bei meinem RasPi problemlos und die Netzwerk-Schnittstelle mit der Bezeichnung wlan0 war sofort vorhanden. Danach habe ich iw bzw. iwlist als Tool installiert (sudo apt-get install iw). Mit sudo iwlist wlan0 scan kann man dann ganz bequem die WLAN in der Gegend scannen. Um die Verbindung einzurichten muss man die Netzwerk-Konfigurationsdatei bearbeiten. Dazu öffnet man die interfaces-Datei: sudo nano /etc/network/interfaces Hier gibt es vermutlich bereits einen WLAN-Bereich, wenn der Adapter erkannt wurde (war bei mir auf jeden Fall da). Und da trägt man so was wie das ein: # WLAN auto wlan0 allow-hotplug wlan0 iface wlan0 inet manual wpa-ssid „WLAN-Name wpa-psk „WLAN-Passwort Da habe ich ein bisschen rumspielen müssen, denn ein paar Einträge bei mir haben wohl kollidiert. Der Adapter wollte einfach keine IP-Nummer vom DHCP-Server beziehen. Aber mit dem Code ist mein WLAN-Zugriff dann gegangen. Natürlich muss man die Netzwerkschnittstelle nach jeder Änderung neu starten: sudo ifconfig down wlan0 sudo ifconfig up wlan0

Schritt 2 – Motion einrichten

Die Open-Source-Software Motion befindet sich in den Repositories der Linux-Distribution Raspbian. Als Kamera verwende ich eine alte USB-Webcam, die mit etwas Mühe auch unter Raspian endlich gelaufen ist. Allgemein sollte jede Kamera gehen, die mit dem V4L-Treiber (Video for Linux) kompatibel ist und als Gerät unter Linux in der Form /dev/videoX auftaucht. Mit dem folgenden Befehl kann man schauen, ob die Cam ordnungsgemäß funktioniert: dmesg | tail Noch besser: ls -ltrh /dev/video* Allerdings hat das bei mir von Anfang an funktioniert, aber der Video-Device ließ sich dennoch nicht öffnen. Erst nach dem komplette Upgrade der Distribution und Bereinigung ging das plötzlich. Motion spricht nun die Cam über eben /dev/video0, /dev/video1, etc. an und beobachtet den Video-Stream. Das Spannende ist nun der Bewegungsmelder. Man kann dazu einfach bei Motion ein Limit für sich ändernde Pixel in einem Bild festlegen. Wird die Grenze dieser Pixelzahl überschritten, wertet Motion das als Bewegung und kann je nach Konfiguration entsprechend reagieren. In der Regel wird dann ein Bild gespeichert. Geniale und einfache Lösung. Man installiert Motion so: sudo apt-get update sudo apt-get install motion Motion lässt sich dann über ein Init-Script starten, das nach der Installation des Programms bei Raspian unter /etc/init.d/motion zu finden ist. Für den automatischen Start zusammen mit dem System bearbeiten man die Datei /etc/default/motion und ersetzt das no hinter start_motion_ daemon durch yes. Ansonsten startet man Motion einfach manuel: sudo motion Nach Aufruf des Befehls erzeugt Motion diverse Bildschirmausgaben. Besonders wichtig ist Started stream webcam server in port 8081. Das sind die Infos, um die Bilder live abzugreifen. Das Bild kann man mit jedem Streaming-Client oder in einem beliebigen Webbrowser betrachten – über https://localhost:8081. Wenn sich jetzt was für der Cam bewegt, sieht man in der Konsole, dass Bilder gespeichert werden. In der Standardkonfiguration legt Motion diese unter /tmp/motion ab.

Konfigurieren

Per Standard ist Motion auf localhost beschränkt. Das kann man in der Standardkonfigurationsdatei /etc/motion/motion.conf anpassen. Die Zeile webcam_ localhost on ( Sektion „Live Webcam Server“) muss geändert werden auf: webcam_ localhost off An anderer Stelle findet man die Bildbreite und Bildhöhe. width 320 height 240 Kann man natürlich anpassen, soweit das die Cam unterstützt und der Platz auf dem Datenträger ausreicht. Sehr spannend – die Anzahl der Bilder/Sekunde framerate 2 Kann man bei Überwachung eher niedriger wählen, damit die Datenmenge nicht zu hoch wird. Bei einem Livestream hingegen sollte man den Wert eher hochsetzen. Muss ich auch noch ausprobieren. Die Sektion „Motion Detection Settings“ ist dazu da festzulegen, wie viele Pixel sich ändern müssen, damit Motion dies als Bewegung erkennt. Der erste Parameter threshold bestimmt, wie viele Pixel sich in einem Bild ändern müssen, um als Bewegung wahrgenommen zu werden. Per Standard steht das auf 1500 und das ist auf die vorgegebene Breite und Höhe des Bildes gemünzt. Setzt man die Bildgröße hoch, wird die Sache viel sensibler, da Motion früher reagiert. Will man das eher unempfindlicher, muss man den Wert erhöhen. Sobald Motion eine Bewegung erkennt, speichert das Programm die Dateien per Standard im JPG-Format. Ganz klasse – zusätzlich wird nach jeder Bewegungssequenz per Standard eine SWF-Datei als kleiner Film erstellt. Wo diese Dateien hinterlegt werden, konfigurieren man über den Parameter target_dir. Per Standard ist das /tmp/motion. Das Verzeichnis wird jedoch bei jedem Neustart des RasPi gelöscht. Sollte man die Dateien erhalten wollen, ändert man das Verzeichnis besser.

Spielchen mit der Raspberry Pi

Da ich die Woche hauptsächlich neue Schulungen und Projekt vorbereite und ansonsten Zeit habe [natürlich ist dann das Wetter schlecht ;-( ], habe ich mal wieder meinen kleinen Raspberry Pi (1. Generation) hochgefahren. Ich habe immer noch keinen wirklichen Nutzen für mich gefunden, was ich lieber mit dem RasPi statt mit einem normalen Linux-Rechner machen sollte. Aber reizt mich wieder mit diesem ultraschwachen Platinenkleinstrechner zu spielen und zu schauen, was da so geht.

Versuch 1 

Eine alte USB-Webcam am RasPi zum Laufen zu bekommen. An meinen Mint Linux-Rechnern geht die einwandfrei. Aber an dem RasPi gab es wohl Treiberprobleme. Zuerst konnte /dev/videoX nicht geöffnet werden.
Gerade mal ein Upgrade der gesamten Raspian-Distri samt Bereinigung durchgeführt. Das hat zumindest dazu geführt, dass VLC als Medieneingabegerät gerade die Webcam öffnen konnte. Nach ein paar Sekunden friert das Bild ein, aber grundsätzlich geht das jetzt schon mal. Ich plane mit Motion eine kleine Überwachungskamera zu simulieren. Da sollte ich voran kommen.

Versuch 2 

Vernünftiger mit der RasPi surfen. Der Standardbrowser Midori ist ziemlich mau. Der Epihany-Browser soll bedeutend besser sein. Nach dem Update von Raspbian steht das Paket epiphany-browser zur Verfügung und den habe ich mit apt-get installiert. Epiphany wird öfter als Midori aktualisiert und enthält deshalb immer eine deutlich aktuellere Version von WebKit mit besserer Unterstützung neuer Webtechniken und einem JIT-Compiler für schnelleres JavaScript. Außerdem nutzt der Browser die schwachbrüstige Hardware auf Grundlage von ARMv6 besser – angeblich sogar Hardware-beschleunigtes Dekodieren von Videos. Meine ersten Surfversuche sind auf jeden Fall deutlich smarter als mit dem alten Midori.

Versuch 3 

Verschleierung des Originalrechners beim Surfen. Ich habe mal eine Kaskade zum Surfen im Internet aufgebaut, an deren Ende zwar mein Router steht (und damit natürlich meine aktuelle IP), aber dahinter wird es ein Versteckspiel mit dem RasPi an der Front. Ich nutze einen Windows-10-PC und starte dort in einer VirtualBox erstmal ein Mint Linux. Von da logge ich mich mit SSH auf dem RasPi ein und dort starte ich dann den Browser für den Zugriff nach draußen. Würde lustig sein, wenn ein Angreifer versucht bis zu meinem tatsächlichen System durchzudringen. Aber das soll keine Aufforderung sein, weil ich die Sache ja nur als Spiel mit ein bisschen Reaktivierung von Linux- und Netzwerkkenntnissen betrachte.

Jungbrunnen SSD

Ich habe jetzt nach dem Aufrüsten meines Notebooks mit der SSD weitere Erfahrungen gemacht und muss sagen, dass mich der Gewinn an Performance immer mehr erstaunt. Ich ärge mich fast, dass ich nicht schon früher umgerüstet habe. Das hätte manche Wartezeit gespart.
Da ich die nächsten Tage ziemlich viel mit MySQL machen muss und in der Schulung auch Replikationssystem mit einem Master-Client-MySQL-Serversystem aufsetzen will, habe ich gerade unter VirtualBox ein Gastsystem eingerichtet und gestartet. Ich hatte es vollkommen aufgegeben, auf meinem Notebook virtuelle Maschinen zu starten. Das war bislang grausam träge. Mit der SSD als Backbone ist selbst das wieder smart machbar. Trotz nur 4 GB RAM.

Umzug auf SSD und erste Erfahrungen

Nachdem mein Notebook eine Frischzellenkur ganz, ganz dringend benötigt und ich am Montagabend gesehen hatte, dass die SanDisk Ultra II SSD 960GB bei Amazon als Deal des Tages gut 50 EUR unter Normalpreis angeboten wurde, habe ich zugeschlagen. Ich bin in der letzten Zeit immer unzufriedener mit Amazon, aber die Lieferzeiten sind schon gut. Bereits heute morgen war die SSD da. Das muss man wirklich loben.
Sofort Notebook aufgeschraubt, alte HDD raus, SDD rein, mit CloneZilla das Image der alten Platte vom NAS eingespielt und Rechner neu gestartet. Alles sofort ohne irgendwelche weiteren Anpassungen gelaufen :-). Absolut sauber.
Over all hat das keine Stunde gedauert. Schon beim Recovern des alten Systems habe ich den Zuwachs der Schreibgeschwindigkeit bemerkt. Alleine das Sichern auf dem NAS hat gut 3 Stunden gedauert, wobei da natürlich das Netzwerk ein zusätzlicher Flaschenhals war. Aber der war auch beim Rückspielen im Weg. Insgesamt bin ich total positiv überrascht, wie einfach das Clonen und Austauschen ganzer Festplatten mit CloneZilla geht. Bisher habe ich immer nur die Daten gesichert und das System lieber gleich neu aufgesetzt.
Doch zurück zur SSD. Ein kleines Problem habe ich beim Rückspielen des Images übersehen – die alte HDD war nur 500 GB groß und nach dem einfachen Rückspielen wurden auch auf der neuen SSD nur diese 500 GB verwendet. Also gut 460 MB waren erstmal nicht zugänglich.
Natürlich kann man mit Tools wie GParted die Partition wieder vergrößern. Aber ich habe aus der Not lieber eine Tugend gemacht und einfach wieder ein Linux als paralleles Betriebssystem installiert. Das hatte ich früher auch, aber irgendwann aus Platzgründen aufgegeben. Mit den gut 1 TB habe ich jetzt wieder mehr als genug Platz, um zwei OS auf dem Notebook zu halten.
Was nun das Verhalten von dem Notebook mit der neuen SSD angeht – das Teil scheint plöztlich gefühlt fast so schnell wie meine Workstation zu sein. Gut – die spielt mit 6 echten bzw 12 virtuellen Kernen und 32 GB RAM in einer ganz anderen Liga als der i5 der ersten Generation mit nur 4 GB RAM. Aber zumindest der Start der Programme auf dem Notebook geht jetzt total fix. Angeblich erreicht die neue SSD bis zu 550 MB/s Lese- und bis zu 500 MB/s Schreibgeschwindigkeit. So ganz auf dem neusten Stand ist sie wohl nicht (aus 2014), aber das ist mein Notebook ja auch nicht. Eine noch bessere SSD würde vermutlich gar nichts bringen. Die Flaschenhälse sitzen jetzt an den übrigen Bauteilen des Notebooks. Vor allen Dingen die Grafikkarte ist lahm und mehr wie 4 GB RAM bekomme ich am Mainboard nicht zu erkennen, was ich gerade mit 2 4GB-Riegeln aus einem anderen Notebook, das ich zur Reparatur da habe, testen konnte (auch damit werden nur 4 GB RAM erkannt ;-( ).
Also von daher war der Austausch der Festplatte wohl das optimale Tuning für das Notebook. Ich bin mit der Performanceverbesserung im Moment total zufrieden und hoffe, dass ich mit dem Gerät jetzt noch 2 – 3 Jahre arbeiten und für Schulungen nutzen kann.

Einen USB Stick bootfähig machen & Platte sichern

Mein Notebook ist mittlerweile so grottenlangsam, dass ich kaum noch damit arbeiten kann. Das Gerät startet in gefühlten Ewigkeiten und auch die Programme scheinen in Honig eingebettet. Ich brauche aber das Notebook immer wieder in Schulungen und da ich dort auch mit recht anspruchsvollen Entwicklungsumgebungen wie Eclipse, NetBeans oder dem Visual Studio arbeite, ist das nicht mehr spassig. Da es sich aber ein solides Terra-Business-Notebook handelt und ich im Büro auch eine speziell dafür gedachte Dockingstation eingerichtet habe, will ich das Notebook nicht einfach ersetzen. Also ist Aufrüsten eine Option. Für mich kommen da 2 Varianten infrage:

  • Mehr RAM
  • SSD

Alles was ich bisher mitbekommen habe, ist vor allen Dingen der Austausch der Festplatte das Turbomittel für lahme Rechner und deshalb gehe ich das an. Zumal bei Amazon gestern ein m.E. ziemlich guter Sonderdeal für eine große SSD gelaufen ist (ja, ja – ich will Amazon weniger verwenden und mache das auch schon – aber ganz boykotieren muss ja auch nicht sein – wenn es günstig ist, kann man vereinzelt zuschlagen). Bis die SSD da ist, muss ich erstmal meine alte Festplatte sichern und da greife ich auf CloneZilla zurück. Im Moment schiebe ich gerade ein ISO der alten Festplate auf das NAS. Aber das Problem war, wie ich ich CloneZilla erstmal zum Starten bringe. Die Zeit von Boot-CDs oder Boot-DVDs ist endgültig vorbei, denke ich. Man startet heute vom USB-Stick. Und da fängt das Problem an. Das Teil muss ja startfähig gemacht werden. Ich wollte zuerst mal den oft empfohlenen Weg in Windows über Diskpart in der Konsole probieren. Geht ja im Grunde ganz einfach.

  1. Eingabeaufforderung als Administrator ausführen
  2. diskpart
  3. list disk
  4. Auswahl USB-Stick über select disk #
  5. clean
  6. create partition primary
  7. select partition 1
  8. active
  9. format fs=fat32
  10. assign
  11. exit

Dann einfach das Betriebssystem auf den Stick kopieren und neu starten. Alles kein Hexenwerk. Nur bei mir startet der Rechner einfach nicht vom USB-Stick. Bei mehreren Rechner probiert. Also doch wieder das geniale Tool UNetbootin genommen, mit dem ich schon früher verschiedene Linux auf USB-Sticks gezogen habe. Damit geht das alles wunderbar. Man kann ein eigenes ISO (in meinem Fall von CloneZilla) drauf brennen und bei Bedarf lädt das Tool diverse Linux-Distris automatisch aus dem Netz und macht einen USB-Stick damit startfähig.

Neue Datenschutz-Reform der EU

Wenn die EU irgendeine Gesetzgebung oder etwas ähnliches aushandelt, kam m.E. bisher so gut wie nie etwas Gutes heraus. Auch die neue Datenschutz-Reform ist auf den ersten Blick eine Maßnahme, die vielleicht gut gemeint, aber vollkommen an der Realität vorbei zielt und die eigentlichen Probleme verkennt – soweit ich das verstanden habe. Das Ziel der neuen Reform ist wohl, dass Internet-Nutzer in Europa einheitlich behandelt und vor allen Dingen mehr Kontrolle über ihre persönlichen Daten bekommen. In Zukunft sollen überall in der EU die selben Datenschutz-Standards gelten. Das zielt explizit gegen Auswüchse wie die Ansiedelung von Facebook Europa in Irland mit seinen extrem niedrigen Datenschutzstandard. In Zukunft sollen Kunden – wenn sie das wollen – mehr Klarheit darüber bekommen, was mit ihren persönlichen Daten genau passiert. Dazu gehört, dass sich Unternehmen explizit die Zustimmung der Nutzer einholen, wenn sie deren Daten verwenden wollen. Unternehmen sollen ihre Angebote im Web so voreinstellen, dass sie datenschutz-freundlich sind (muss mal schnell lachen). Erst einmal hört sich das auch alles vielleicht ganz gut an. Aber warum lehne ich als alter Datenschützer (nach meinem Selbstverständnis) den Kram dann ab?

  1. Die ganze Reform ist viel, viel zu kompliziert. Aber was kann man von der EU auch anderes erwarten?
  2. Die Reform blockiert das Web. Schon jetzt ärgere ich mich über Seiten, die immer wieder auf die Verwendung von Cookies hinweisen und meine Zustimmung einfordern. Das ist lästig und wird durch den Massengebrauch sowieso nur ignoriert. Leute – jeder wird im Web nach Strich und Faden getrackt. Wer das nicht will, muss sich schützen (wenn er das kann) oder soll nicht ins Internet gehen.
  3. Firmen mit Web-Ausrichtung werden gegenüber Konkurrenten außerhalb der EU massiv benachteiligt. Das ist wie beim Dopping – alle machen das und diejenigen, die selbstgerecht sauber sind, verlieren. Toll – dafür kann man sich nichts kaufen außer der Schadenfreunde der anderen. Diese Selbstbestrafung der EU ist mal wieder ganz toll. Die sollen lieber gegen TIPP kämpfen und endlich mal die wirklichen Interessen von Europa und seiner Bürger im Auge behalten.
  4. Die Reform geht am Problem vorbei. Das Problem sind nicht Firmen, die Daten sammeln und verwerten. Das Problem sind dumme Anwender, die diese Daten bereitwillig bereitstellen und hinterher jammern. Wer laut aus dem Fenster ruft, kann ja auch nicht fordern, dass niemand zuhört. In Deutschland braucht man für alles und jedes einen Schein oder Zertifikat. Nur das Internet kann Hinz und Kunz ohne Sinn und Verstand benutzen und sich dann beschweren, dass man ausspioniert oder geschädigt wurde. Leute – das Internet ist kein Ponyhof, sondern eine Schlangegrube und so muss man sich da bewegen. Wir brauchen keine Gesetze, die vor dem Trocknen der Katze in der Mikrowelle oder der Feuergefahr bei Streichhölzern warnen. Wir brauchen eine grundlegende Ausbildung von Anwendern, die das Internet nutzen wollen. Vielleicht nach dem Verfahren bei Winterreifen – wer die grundlegenden Prozesse im Internet nicht verstanden hat (mit einem Nachweis oder einer Prüfung), surft vollkommen auf eigene Gefahr und hat im Schadensfall die Konsequenzen zu tragen.

Firefox und die Schweiz

Sehr seltsam. Seit einigen Versionen des Firefox werde ich jedesmal zu gmx.ch umgeleitet, wenn ich gmx.de eingebe. Es gibt gar keine Chance, dass ich gmx.de erreiche.
Ich habe die erweiterten Konfigurationen von Firefox mit about:config durchsucht, die Registry (soweit nachvollziehbar), alle gespeicherten Daten etc. Kein Hinweis, warum das passiert.
Zumal es nur bei der Kombination von Firefox unter meinem Windows10 und eben gmx.de dazu kommt. Andere Browser auf dem Rechner oder andere Firefox auf meinen anderen Rechnern laden die richtige Seite. Ich hab natürlich auch im Internet geforscht und anscheinend bin ich nicht der Einzige, der das Problem hat. Wirklich sehr seltsam.
Andererseits ist die Seite von GMX auch nicht wirklich interessant – nur zum Einloggen in das Webmail, wenn gerade das eigene E-Mail-Programm nicht vorhanden ist.

Deadstream statt Livestream bei der ARD

Ich verstehe es einfach nicht, dass der sogenannte Livestream bei der ARD immer Probleme macht. Mir scheint, die bekommen es einfach nicht hin. So schlecht die Mediathek vom ZDF auch ist (im Vergleich zu Youtube oder anderen professionellen Angeboten), das Medienangebot der ARD toppt das noch in negativer Hinsicht. Mir ist es schon mehrfach passiert, dass der Livestream der ARD bei mir nicht geht. Wenn ich parallel in Zattoo das Zeug ansehe, geht das problemlos. Was sind da denn für Amateure am Werk?

Erinnerungen an die Buchmesse 2001 mit einem Buch von mir in prominenter Umgebung

Mein damaliger Lektor bei Markt & Technik postet auf Facebook gerade Erinnerungen an die Buchmesse 2001 in Frankfurt. Damals war Markt & Technik richtig dick im Geschäft und mit dem Heyne-Verlag verbundelt.

Was dazu geführt hat, dass mein JavaScript-Buch unmittelbar nebem dem Buch unseres ehemaligen Außenministers Joschka Fischer stand (2 Reihen links oberhalb).

Diese prominente Umgebung ist mir damals definitiv nicht aufgefallen, aber im Nachhinein bin ich jetzt richtig stolz 😉

Google+ komplett neu gemacht – und in China ist ein Sack Reis umgefallen

Wow – über Nacht ist ein neues Google+ aufgetaucht. Angeblich „Einfacher, schneller, besser“. Aber wen interessiert das? Ich bin zwar auch auf G+, aber eigentlich nur, weil man das als IT-ler irgendwie muss. Wie ein Atheist, der zur Sicherheit doch ein Kreuz dabei hat. Man kann ja nie wissen… Selbst Google dementiert nur gebremst die Gerüchte, dass G+ tot ist. Der neue Anstrich könnte der letzte Versuch sein, doch noch etwas Leben in diese Geisterstadt zu bekommen. Angeblich hat sich nicht nur optisch viel verändert. Auch konzeptionell und unter der Haube wurden angeblich massive Änderungen vorgenommen. Der Fokus soll verstärkt auf Communities und Sammlungen liegen. Ich habe das neue G+ gerade mal ausprobiert und bin dann sofort zur alten Version zurückgekehrt. Man sieht ja noch weniger Beiträge auf einen Blick als vorher. Sieht auf den Desktop aus wie die Mobilversion :-(. Naja – vielleicht muss man sich halt Zeit lassen, die neue Idee zu verstehen. Aber dazu finde ich G+ zu unwichtig.

Lager & mehr

Über die Jahre haben sich so viele Belegexemplare von meinen Büchern, aber auch unzählige Materialen rund um die IT bis hin zu Hardware angesammelt – das soll nicht alles im Büro rumliegen.
Bei meinem Zweitstandort in Eppstein habe ich seit zig Jahren eine Gartenhütte auf unserem Grundstück am Waldrand zum Lager umfunktioniert, wo ich das Zeug horte. Und da die schön in der Natur liegt, sitze ich im Sommer häufiger davor mit dem Notebook unter dem Sonnenschirm. Zig Bücher von mir sind da in großen Teilen entstanden. Im Moment ist allerdings triste Novembermode angesagt.

Fire gefeuert

Eben das Fire-Tablet eingetütet und zum Rückversand an Amazon fertig gemacht. Die Hardware ist wirklich gut – für das geringe Geld allemal, aber auch sonst.

Das nutzt aber nichts, denn das Amazon-Android und die installierten Apps sind einfach nur indiskutabel. Selbst der Standardbrowser taugt nicht viel und im App Store gibt es gar keine Alternative.

Überhaupt der App Store von Amazon – eine einzige Lücke hinsichtlich notwendiger Apps und dafür Werbung und anderes überflüssiges Zeug. Grauenvoll.
Das Rooten von dem Teil ist nun auch ziemlich schwierig. Zumindest konnte ich unter Windows 10 gar kein ADB-Kontakt zum Device herstellen. Unter Linux zwar sofort, aber das Fire hat sich dann nicht gemeldet. Kurz und gut – das Rooten hat bei mir bisher nicht geklappt (das erste Android-Gerät, bei dem ich ein Scheitern zugeben muss) und ich habe keinen Bock mehr. Das Installieren von einem alternativen Android bin ich somit gar nicht mehr angegangen.

Die Frage, ob man ein Tablet wirklich braucht, geht mehr und mehr zur Antwort : Nein!

Neues Tablet – Kindle Fire 7

Ich habe mir ein neues Tablet zugelegt. Mein altes Bullmann-Tablet tut es noch halbwegs, aber so einige Sachen nerven.

  • Die Soundkarte hat z.B. den Geist aufgegeben und das macht das Anschauen von Filmen natürlich witzlos.
  • Ebenso klappt der Datenzugriff auf den USB-Port nicht mehr (Datenaustausch muss halt per Dropbox oder so erfolgen).
  • Das installieret Android ist uralt und lässt sich nicht wirklich aktualisieren.
  • Die Hardware ist auch in die Jahre gekommen und die Apps laufen sehr langsam. Zudem friert das Teil immer wieder ein.

Die letzte Zeit nutze ich das Tablet eigentlich nur noch zum Anzeigen von Schulungsmaterialien, wenn ich meinen eigenen Rechner am Beamer hängen habe und mein Schulungsmaterial in elektronischer Form mir bereitstehen soll. Nun stellt sich mir eigentlich schon seit dem Auftauchen dieser Computerform die Frage, warum man eigentlich ein Tablet braucht? Zum Arbeiten taugt es nicht, Bücher und Zeitschriften lese ich lieber in Papierform und zum Anschauen von Filmen hat man ja TV und PC sowie – falls unterwegs – grundsätzlich das Smartphone für alles, was ein Tablet auch kann. So richtig kann ich mir also die Frage nicht beantworten, was man eigentlich mit so einem Gerät soll? Es ist einfach ein zu groß geratenes Smartphone – aber eben da ist auch der Einsatzzweck – das Display ist entweder richtig oder zumindest den kleinen Tick größer und das macht das Anschauen entspannter. Und dann brauche ich auch immer wieder aktuelle Testgeräte für Apps oder mobile Webseiten sowie Experimente mit Android, Netzwerk und Linux. Dennoch – richtig viel Geld wie für den IPad-Schrott oder die teueren Android-Geräte will ich für ein Tablet definitiv nicht ausgeben. Deshalb habe ich mich für das Mediendarstellungsgerät von Amazon entschieden. Für absolut konkurrenzlos niedriege 59 EUR bekommt man ein 7-Zoll-Tablet, das in allen Tests hinsichtlich der Hardware richtig gut bewertet wird. Das Teil ist halt ein Verkaufskanal von Amazon für seine Inhalte und Produkte und deshalb hochsubventioniert. Das merkt man an dem vergewaltigten Android sowie den zwangsweise angezeigten Werbeeinblendungen auf dem Sperrbildschirm. Und es gibt halt nur das, was Amazon verkaufen oder zumindest anbieten will. Egal – ich teste das ne Weile und dann freue ich mich darauf, ggfls. das Gerät plattzumachen und mit CyanogenMod zu befreien. Wirklich – alleine der Spass beim Freilassen der Hardware wäre mir schon das Geld wert – wenn das so klappt wie ich mir das erwarte. Aber vielleicht kann ich sogar mit den Kastrationen von Amazon sogar leben. Ich habe das Gerät erst ganz kurz und mein erster Eindruck ist wirlich nicht schlecht. Zumindest wie es sich anfühlt, es aussieht und wie fix die Apps und Inhalte flutschen. Für das kleine Geld ist das zumindest ein unterhaltsames Spielzeug – sehe ich ähnlich wie bei meinem Rasperry Pi. Ich werde auf jeden Fall meine Erfahrungen die nächste Zeit posten.

Tachomanipulationen als Feigenblatt

Große Aufregung um des Deutschen liebstes Kind. Angeblich sind die Kilometerstände von 30% aller Gebrauchtwagen manipuliert.

Brauchte man früher noch eine Bohrmaschine und einige Zeit, geht das heute über ein kleines Programm kinderleicht und in Sekunden. Tja – warum mag ich wohl keine Elektronik im Auto? Ein weiterer Punkt.
Aber darum geht es mir im Moment gar nicht. Denn was ist die Konsequenz, die jetzt aus dem „SKANDAL“ folgen soll?
Autos sollen permanent überwacht werden. Bei jeder Inspektion und jeder Reparatur soll der Kilometerstand ausgelesen und interessierten Personen und Organisationen zugespielt werden. Und beim Autoverkauf muss man dem Käufer eine Liste mit den Daten überlassen.
Ganz toll.
Wenn in Deutschland Tierbabys oder gar das Auto bedroht werden, dann ist der Deutsche zu Allem bereit.
Ist Euch eigentlich klar, dass etwa auch Versicherungen am Datenbestand sehr, sehr interessiert sind? Da gibt man als Jahresleistung 15.000 Km an und dummerweise ist man 16.000 Km in dem Jahr gefahren – Strafzahlung.
Oder man hat bei einem Fahrtenbuch gewisse Strecken angegeben, die aber nicht mit den Kilometerständen an bestimmten Stichtagen zusammen gehen.
Die Möglichkeiten zur Überwachung sind wirklich interessant. Big Data und die vollkommene Überwachung werden immer lückenloser und mit dem Auto haben die Spione ein verdammt starkes Argunent zur weiteren Aufgabe von Persönlichkeitsrechten, dem der deutsche Michel folgsam zustimmt.

Hab ich gerade ein Deja vu? Die Vorratsspeicherung ist wieder da

Ich bin wohl im falschen Film. Der Bundestag beschließt die Vorratsdatenspeicherung. 🙁
Als hätten wir nicht genug Probleme in dem Land. Unsere Politiker haben nichts Besseres zu tun als die Bevölkerung unter Generalverdacht zu stellen und zu verfolgen. Schande über diese Verräter der freiheitlichen Gesellschaft.

ANSI-C

Die letzten 2 Tage habe ich den ersten Teil einer Einzelschulung über insgesamt 4 Tage gehalten. Thema ist ANSI-C. Ganz ohne C++ oder Objektorientierung im Allgemeinen, einem Grafikframework wie Qt oder sonst was Modernes. Gnadenloses, pures C. Das ist wirklich heftig.
Der Teilnehmer ist zwar (bisher) kein Programmierer im engen Sinn, aber super fit und megainteressiert an den Details. Wir reizen die Grenzbereiche von C aus, die man in seinem Schutzzaun unter Java oder C# eigentlich gar nicht mehr erreichen kann. Von den schwächeren Sprachen wie JavaScript oder PHP ganz zu schweigen.
Wenn man sonst mit den mächtigen, modernen Techniken arbeitet, merkt man bei sowas einmal, woher bestimmte Konzepte kommen, über die man sich kaum noch Gedanken macht. Statische Variablen etwa. Was man aber auch merkt ist, wie viel man bei modernen Techniken an Arbeit abgenommen bekommt. Pures C ist wirklich mühsam. Und alt und gefährlich, denn viele Verhaltensweisen sind einfach nicht logisch, sondern rein zielorientiert und mal so und mal so in Anwendung und Wirkung. Eben historisch gewachsen.

C-Grundlagen-Training bei Video2Brain mit Ralph Steyer

Nun bin ich wirklich seit Jahren mit C vertraut (gleich ein klein bisschen Werbung für mein C-Grundlagen-Training bei Video2Brain) . Aber da muss man wirklich hochkonzentriert sein. Auf der anderen Seit macht es richtig Spaß, den Kram alles auszuprobieren und die ganzen Fallstricke abzuklopfen.
Mir ist folgender Vergleich eingefallen. Ich bin handwerklich kein großer Held, aber ich habe auch keine zwei linken Händer. Früher bin ich mehrere Enten (2 CV) gefahren. Da habe ich einfache Dinge wie Birnen oder Zündkerzen wechseln, Ölwechsel durchführen, Keilriemen wechseln bis hin zu komplizierten Dingen wie Rahmen zersägen und zusammenschweißen (das aber mit Hilfe) noch hinbekommen.
Bei modernen Autos kann ich teilweise nicht einmal mehr eine Glühbirne austauschen – vom Einstellen des Motors ganz zu schweigen.
So ist es auch bei C versus modernen Techniken. Bei C kann (und muss) man fast alles noch selbst machen. Mühselig, aber man hat die Kontrolle und eigene Verantwortung. Bei modernen Techniken ist die vollkommen entzogen.
Ich habe meine Enten geliebt und für mich sind das immer noch die genialsten Autos ever. Und ich habe schon angedeutet, dass Programmierung mit C auch richtig Spaß machen kann. Wenn man die Zeit hat …
In der Praxis, wenn ich eine Applikation fertigstellen muss, möchte ich nicht unbedingt mehr damit arbeiten.