Standhafter Apfel

Hätte nicht gedacht, dass ich mal Achtung vor Apple haben würde. Aber dass sich das Unternehmen weigert, dem FBI einen Universalschlüssel für alle IPhones zu geben, ist schon ehrenwert.
Klar – das sind sicher hauptsächlich wirtschaftliche Interessen, um das Vertrauen der Anwender nicht zu verspielen. Aber dennoch – die gesamte IT-Branche zeigt ob der Angriffe der Geheimdienste Rückgrat.

Weltweiter Lernmarathon: freier Zugang zur video2brain Website am Schalttag 2016

Das Schaltjahr 2016 schenkt uns allen einen zusätzlichen Tag. Bei Video2brain hat man sich was ganz Besonderes ausgedacht, damit möglichst viele Menschen diesen Tag möglichst gut nutzen können. Und deshalb schalten sie am 29. Februar die komplette video2brain Website frei, sodass alle Video-Trainings komplett frei und kostenlos einen ganzen Tag lang angesehen (nicht heruntergeladen) werden können.

Wer immer schon mal schnuppern wollte, was die anderen Trainer und ich so aufnehmen – der Tag ist die Gelegenheit.

Es fängt damit an, wenn in der ersten Zeitzone auf diesem Globus der Schalttag anfängt (unsere Zeit Sonntag, 11 Uhr) und schließt die Tore wieder, wenn auch in der letzten Zeitzone der Schalttag vorüber ist (unsere Zeit Dienstag, 11 Uhr).Also 48 Stunden komplett freies Lernen für jeden, buchstäblich rund um den Globus.

Verfügbare Inhalte

Die deutsche video2brain Bibliothek verfügt über mehr als 1500 Kurse von
branchenführenden Experten. Dazu gehören Video-Trainings zu den Themen
berufliche Weiterbildung, Business-Tools, Marketing, IT, Programmierung,
Fotografie, 3D und CAD, Web und vieles mehr.

Wie funktioniert es?

Um von unserem Tag der offenen Tür profitieren zu können, müssen Sie sich
nur auf unserer Website mit Ihrer E-Mail-Adresse oder mit LinkedIn,
Facebook oder Google+ registrieren. Sobald der Countdown runtergezählt ist, kann
jeder Teil der weltweiten Lerncommunity werden.
Zusätzlich zum freien Zugang zur Website wird an diesem Tag das video2brain Team die aktiven Lerner über die verschiedenen Social Media-Kanäle #learnNow mit Vorschlägen und Empfehlungen zu den Inhalten der Trainingsbibliotheken unterstützen.

Alles Wissenswerte zu unserem Tag der offenen Tür erfahren Sie während dieser 48 Stunden auf der folgenden Seite:
https://www.video2brain.com/de/open-house

Tradition wieder aufleben lassen

Eigentlich ist es bei mir Tradition, dass ich bei jedem Besuch in Graz mindestens 1x zum Schlossberg hinauf gehe.
Nur ist das die letzten Male irgendwie eingeschlafen. Nach dem Motto – ich war schon so oft in Graz und schon so oft auf dem Schlossberg – dieses Mal lasse ich es ausnahmsweise.
Und prompt sind gut 2 Jahre vergangen, seit ich das letzte Mal da oben war. Wenn ich mich nicht täusche. Aber die letzten 2x in Graz bin ich definitiv nicht oben gewesen.

Heute war aber so schöne Sonne und deshalb habe ich meine Mittagspause ausgedehnt und bin auf den Schlossberg hoch.

Auch wenn ich mindestens 20x oder mehr schon oben war – es ist immer wieder nett da oben und man entdeckt auch immer wieder was Neues.

Vor allen Dingen, wenn man eben diesen kleinen Ausflug in der Mittagspause längere Zeit vernachlässigt hat.

Mal wieder schauen, ob sich in Graz was verändert hat

Letztes Jahr habe ich für Video2Brain eine ganze Menge an Training aufgenommen. Aber in Form von Homerekording. Oder anders ausgedrückt – ich war für meine Verhältnisse ungewöhnlich lange nicht mehr in Graz selbst. Jetzt geht es aber mal wieder runter :-). Sitze am Flughafen in FFM am Gate und warte auch das Boarding. Wobei es ätzend früh ist. Muss aber sein, denn der Tripp ist dieses Mal ziemlich kurz und da muss ich heute noch was schaffen. Zudem ist über das Wochenende die normale Besatzung von V2B natürlich nicht da und da muss vorher alles laufen, damit die Aufnahmen glatt gehen.

Update vom Visual Studio

Ich musste heute ein Update vom Visual Studio starten und bin wieder entsetzt, was das für einen Aufwand bedeutet. Seit gut 3 Stunden läuft der Kram und in der Zeit ist meine Workstation fast eingefroren. Hat ja nur einen Xeon mit 6 echen und 12 virutellen Kernen, SSD und 32 GByte RAM ;-|. Was machen die denn da? Das ganze Internet neu erschaffen und auf meinem Rechner speichern? Ich will (muss) bloß eine blöde IDE auf den neusten Stand bekommen. Bei Eclipse oder NetBeans ist das ja auch in 5 Minuten erledigt. Was ein Schrott 🙁

Diese Seite verwendet Cookies ….

„Cookies helfen uns bei der Bereitstellung unserer Dienste. Durch
die Nutzung unserer Dienste erklärst du dich damit einverstanden, dass
wir Cookies setzen.“

So oder so ähnlich belästigen immer mehr Webseiten Besucher. Es nervt! Es nervt! ES NERVT!!!
Für wie blöd werden Anwender denn gehalten? Natürlich (!!!) wird alles getrackt, wenn man im Internet surft. Verdammt noch mal – ich brauche niemanden, der mir jeden Tag sagt, dass tagsüber die Sonne scheinen kann. Und wenn Politiker meinen, dass sie mit unsinnigen Gesetzen den größten DAU schützen müssen, dann sollten die Politiker in den Busch abgeschoben werden. So ein lächerlicher Mist schadet dem Datenschutz und torpediert die informelle Selbstbestimmung. 

No Cloud

Ich habe es mal wieder getan. Daten in die Cloud geschoben. Für den schnellen Datenaustausch von kleinen Datenmengen nutze ich ja immer wieder mal Dropbox und auch bei einigen anderen Anbietern habe ich kostenlosen Speicherplatz. Als Backup von Backups auf dem NAS und externen Festplatten ist die Cloud sicher eine gute Möglichkeit, um (natürlich verschlüsselt) im Wurst-Käse Daten reproduzieren zu können.

Nur ist die Upload-Geschwindigkeit vollkommen unbrauchbar. Ich habe nur ein paar wenige wichtige Daten ausgewählt und in 2 Dateien gepackt. Ein verschlüsseltes ZIP-Archiv von etwa 3 GB hat etwa 12 Stunden gebraucht, bis es auf dem GDrive-Server war. Die zweite Datei mit etwa 4,7 GB ist nach jetzt 15 Stunden immer noch nicht vollständig hochgeladen. Natürlich kann so was einfach im Hintergrund laufen und mir ist auch klar, dass es bei DSL 16.000 durch das asymetrische Verhalten beim Upload massive Engstellten gibt. Aber wenn ich per FTP Daten übertrage, geht das doch auch extrem viel schneller.

Ich möchte gar nicht hochrechnen, was ein vollständiges Backup von vielleicht 500 GByte an Zeit braucht, um in der Cloud zu landen. Und Dateien einzeln hochzuladen ist keine Option. Die muss man dann ja jedes Mal einzeln erst verschlüsseln und das ist viel zu aufwendig. So ist Datenspeicherung in der Cloud für normale Anwender genauso weit von der Praxis weg wie ein Trabbi davon ein Formel-1-Rennen zu gewinnen (vollkommen unabhängig davon, ob man wirklich seine Daten irgendwelchen fremden Firmen anvertrauen sollte).

 

SMTP-Problem identifiziert – GMX lehnt meinen Server ab

Nachdem die Probleme beim Versenden von Mails auch mit QMail nicht aufgehört haben, bin ich der Sache auf den Grund gegangen. Zuerst ist mir aufgefallen, dass ich nur Probleme mit GMX-Adressen hatte. Aber nicht mit allen bzw. nicht immer. Hin und wieder wurden die einfach nicht zugestellt.

Die Recherchen im Internet haben schnell das Problem gefunden – es gibt zahllose Beschwerden, dass bei GMX und Web.de Mails nicht zugestellt werden können.

Das liegt wohl daran, dass bestimmte Mailserver beim Empfang einfach nicht akzeptiert werden. Vordergründig geht es im Spam-Vermeidung, was ja gut ist. Aber ein Schelm, der an die Ausbootung von konkurrierenden Mailsystemen denkt…

DNS-Reverse

Egal – das Problem muss gelöst werden und letztendlich scheint es an der sogenannten DNS-Reverse zu liegen. So was kann man für IP-Adressen individuell festlegen. Anders als bei der normalen DNS Abfrage (Hostname löst in IP-Adresse auf), können mithilfe des DNS Reverse Lookups feste IP-Adressen dem Hostname zugeordnet werden.

Der Reverse DNS Eintrag (PTR-Eintrag) ist der „Name“ einer IP-Adresse. Diese Reverse-DNS-Eintrag wird von vielen Mailservern zur Identifizierung verwendet. Sollte dieser Eintrag nicht valide sein, z.B. der Eintrag fehlt oder ist nicht symmetrisch (der Name aus dem DNS-Reverse wird wieder auf die IP-Adresse aufgelöst und muss der ursprünglichen IP-Adresse entsprechen), weisen manche Mailserver eingehende Mails ab.

Ich habe nur das DNS-Reverse auf meinem Server geändert und hoffe, dass damit E-Mails, die ich von meinem Mailserver versende, von den Mailservern der entsprechenden Provider nicht mehr abgelehnt werden. Bevor die Änderung wirksam wird, dauert es eine Weile, aber dann werde ich es ja sehen.

Angebliche verdächtige Aktivitäten bei meinem Google-Konto

Google ist doch nicht so allwissend, wie man meint. Scheint mir. Obwohl sie sich alle Mühe geben Anwender zu 100% auszuspionieren. Ich habe zumindest bei der Anmeldung den Hinweis bekommen, dass „etwas anders wäre als sonst“ und ich mich über die Beantwortung der üblichen Zusatzfragen identifizieren sollte. Dazu hatte ich im Moment keine Lust und habe die Anmeldung erst einmal abgebrochen. Danach fand Google bei der nächsten Anmeldung, dass jemand Fremdes wohl mein Passwort kennt und ich unbedingt ein neues Passwort setzen müsse.

Oh man – man kann es auch übertreiben. Das nervt 🙁 !!

Aber was mich beruhigt – meine regelmäßige sorgfältige Bereinigung meiner Rechner, das ebenso regelmäßige Wechseln von Rechner, Betriebssystem, Ort und Browser sowie weitere Verschleierungsmaßnahmen scheinen zu greifen. Meine Privatsphäre ist wohl noch zu 1% – 2% vorhanden :-).

Schwierigkeiten mit meinem SMTP-Server

Nach dem Umzug meiner Domain rjs.de auf meinen V-Server habe ich auch gleichzeitig die Verantwortung bzw. Kontrolle über einen eigenen Mailserver. Bis dahin wurde das bei dem reinen Hostingangebot direkt beim Provider gemanaged. Im Grunde geht auch das Empfangen und Versenden mit dem Mailserver. Allerdings landen unverständlicher Weise einige Mails beim Versenden in der Warteschlange. Entweder akzeptieren andere Mailserver meinen SMTP-Server nicht oder Postfix hat andere Probleme. Ich habe jetzt mal Postfix durch einen anderen Mailserver ausgetauscht und schaue mal, ob das die Probleme beseitig. Auf dem Weg habe ich gleich auch noch erweiterte Spam- und Virenschutztools installiert. Leider kommt bisher noch – trotz Blacklist – ziemlich viel Spam durch.

Update auf Windows 10 bei meinem Dual-Boot-Notebook

Nachdem ich auf meiner Workstation mit Windows 10 ganz zufrieden bin, habe ich mich auch bei meinem Notebook (bisher immer noch mit Windows 7 bestückt) zu einem Update entschlossen. Zumal Windows 7 wirklich in die Jahre kommt und es über kurz oder lang mit Updates eng werden wird. Und mit der Classic Shell kann man auch unter Windows 10 das Look an Feel von Windows 7 wiederherstellen und muss sich nicht mit den Verirrungen der Oberflächengestaltung und extremen Behinderung bei der Bedienung über Kacheln  ab Windows 8 quälen. Mit der neuen SSD sollte die Hardware von dem Notebook auch ausreichend leistungsfähig sein.

Microsoft kennt immer noch kein Dual-Boot 🙁

Dummerweise verwende ich auf dem Notebook Windows parallel mit einem Linux und Dual-Boot über Grub. Tja – ich hatte gedacht, dass es Microsoft endlich geregelt bekommt, wenn es außer Windows noch weitere Betriebssysteme auf dem Rechner gibt. Falsch gedacht :-(. Die Upgrade-Routine haut Grub dermaßen in die Tonne, dass danach gar nichts mehr geht. Windows muss beim Update mehrfach neu starten und beim 2. Neustartversuch konnte weder Windows noch Linux starten. Ganz toll – nur noch Grub rescue war da. Klar gibt es die üblichen Befehle (von ls über set bis insmod), um Grub manuell wiederzubeleben. Aber leider gab es auch dabei ständig die Meldung, dass das Dateisystem nicht zu erkennen sei. Ich hab dann schnell die Faxen dicke gehabt und mein Mint Linux als Live-Version vom USB-Stick gestartet und dann einfach nochmal neu installiert. Da hatte ich sowieso keine wichtigen Daten drauf und das repariert ganz nebenbei und vollkommen problemlos Grub. Danach konnte sich dann Windows weiter aktualisieren.

Wir warten auf das Christkind

Das gesamte Update hat gefühlte Ewigkeiten gedauert. Als ich vor einigen Monaten meine Workstation von Windows 8.1 auf Windows 10 aktualisiert hatte, war das erheblich schneller abgelaufen. So genau kann ich das nicht mehr sagen, aber für dieses Update hat die Setuproutine die 3 – 4-fache Zeit gebraucht, denke ich. Das war der nächste Punkt im Updateprozess, den ich für mich als grottenschlecht bewerte.

Als dann aber die Geschichte endlich durch war, schien soweit alles erhalten geblieben zu sein und das System zu laufen. Muss jetzt in der Praxis ausprobieren, ob der Umstieg wirklich sinnvoll war.

Hitzefrei für das Notebook

Gestern in der Schulung hat sich mein Notebook schlagartig verabschiedet. Beim Neustart hat es dann jämmerlich gepiept, um zwar wieder zu starten, aber dann immer wieder direkt auszugehen. Nach ein paar Experimenten habe ich rausbekommen, dass der Lüfter seinen Dienst nicht mehr versehen wollte und deshalb das Notebook hitzefrei genommen hat.
Mit abkühlen lassen, luftigem Hinstellen und CPU nur wenig belasten ist das Teilchen zumindest temporär weiter zu nutzen gewesen. Das abendliche gründliche Reinigen von Lüfter und Auslassschlitzen hat das Problem beseitigt. Jetzt gilt wieder „Cool man“ für das Gerät.

Kostenlose Beispielfilme und Trailer zu meinem neuen Video-Training „JavaFX-Diagramme mit Netbeans“

JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern. Mit Ralph Steyer
JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern. Mit Ralph Steyer

Die Tage ist ja mein Video-Training JavaFX-Diagramme mit Netbeans. Diagrammarten und -techniken, FXML, Diagrammdaten in Datenbank speichern erschienen.

Mittlerweile sind dazu auch eine Reihe an kostenlosen Beispielfilmen und der Trailer freigegeben worden.

Mein neuste Java-Buch ist erschienen

Jetzt lerne ich Java - Für Einsteiger und Fortgeschrittene - von Ralph Steyer
Jetzt lerne ich Java – Für Einsteiger und Fortgeschrittene – von Ralph Steyer

Mein neues Buch zu Java ist beim Verlag Markt+Technik erschienen. Das ist für mich ein „Back-to-the-roots“ in reinster Form. Mein aller erstes Buch habe ich zwar 1996 beim Data Becker Verlag veröffentlicht (zu HTML), aber bereits 1997 war ich dann bei Markt+Technik gelandet. Dort (und beim Schwesterverlag Addison-Wesley) habe ich über die Jahre dann zig Bücher veröffentlicht. Ich muss mal an mein Regal mit den Belegexemplaren gehen, aber es sollten um die 40 Bücher sein, wenn am alle Auflagen und Übersetzungen einzeln zählt. Auf jeden Fall eine Menge Holz (auch im eigentlichen Sinn), was mit Markt+Technik und Addions Wesley bedruckt wurde.

Der Mutterkonzern Pearson hatte nun vor wenigen Jahren den Vertrieb von EDV-Büchern und samt der beiden Buchverlage weitgehend eingestellt. Allerdings wurde Markt+Technik unter neuer Führung recht bald wieder belebt. Die Marke hat sich ja die über Jahre etabliert und von daher habe ich gerne zugegriffen, als ich das Angebot bekam, mein altes Java-Buch für Markt+Technik zu überarbeiten. Da ich dieses Thema aktuell nicht bei anderen Verlagen beackere, mache ich mir damit selbst keine (verbotene) Konkurrenz .

Wie gesagt – es geht zurück zu den Ursprüngen. Interessanter Weise auch bei diversen anderen Aufträgen (nicht nur beim Schreiben von Büchern). Es kommt immer alles wieder ….

Java-Schulung im verschneiten Taunus

Ich war mal wieder für 3 Tage bei einem Stammkunden im Hochtaunus, für den ich deutlich über 12 Jahre schon Schulungen halte.
Und rechtzeitig zum Job im Hochtaunus hat sich auch der diesjährige Winter angemeldet.

Wobei die Straßen frei waren und insbesondere heute der Winter sich von der schönsten Seite gezeigt hat.

Der Spaziergang in der sonnendurchfluteten Winterlandschaft in der Mittagspause hatte fast was von Urlaub.

Dreimal umgezogen ist wie einmal abgebrannt

Meine Domain rjs.de samt den beiden Blogs, die ich unter den Subdomain fliegerblog.rjs.de und blog.rjs.de betreibe, sind die letzten zwei Tage umgezogen. Ich habe die Seiten auf meinen V-Server verlagert, auf dem ich bereits Autoren-net.de sowie ein paar Subdomains wie rb.autoren-net.de betreibe. Die Seiten, die ich bisher auf dem V-Server hoste, machen den Betrieb eines eigenen V-Servers nicht notwendig. Mit der Verlagerung nutze ich die Kapazitäten und Möglichkeiten besser. Aber das war gar nicht der Grund für den Umzug – für meine Domain rjs.de hatte ich noch ein uraltes (wirklich uralt – von 1996, wenn ich das recht entsinne) und gesponsertes Hosting (vom Provider für Multiplikatoren im IT-Bereich eingerichtet) beim gleichen Provider meines V-Servers, das der Provider die letzten Monate mit indirektem Druck zum Auslaufen gebracht hatte. Die Zugänge zu gewissen Features wie Zugang zum Kundenbereich, FTP, Web-Mail, direkter Datenbankzugriff, Systemaktualisierungen etc. waren irgendwann nicht mehr offen und vor ein paar Tagen ist dann auch noch meine erste Subdomain nicht mehr erreichbar gewesen. Dem Provider mache ich keinen Vorwurf, denn ich habe lange genug von dem Angebot profitiert und die paar EUR für eine Domain sind nicht der Rede wert (wäre nur netter und vor allen Dingen einfacher gewesen, wenn ich vom Provider irgendwann die direkte Aufforderung zum Umzug bekommen hätte). Auf jeden Fall war eine Reaktion von mir jetzt unabdingbar und musste schnell erfolgen. Denn wenn meine Hauptdomain rjs.de nicht mehr zugänglich gewesen wäre, wäre auch meine Haupt-E-Mail nicht mehr nutzbar. Und das wäre sehr, sehr schlecht gewesen.

Der Umzug an und für sich

Der Umzug an sich ging mittelprächtig. Einerseits bin ich ja bei meinem Provider geblieben und die Übertragung musste nur von einem Vertrag zu einem anderen Vertrag erfolgen. Dazu die Anpassung des DNS-Namens an die IP des V-Servers. Da ich aber nicht mehr an meinen alten Kundenbereich herankam, konnte ich die Bestätigung für den Auftrag des internens Umzug nicht liefern. Es gibt verschiedene Wege, die der Provider anbietet. Aber bei allen war halt dieser Zugang zum alten Kundenbereich Voraussetzung. Das Zusenden des Auth-Codes per E-Mail hat auch nicht funktioniert, denn die alte E-Mail-Adresse hat nicht mehr existiert (das habe ich erst nach vielen Kontakten rausbekommen – es wurde im neuen Kundenbereich nirgends angezeigt, wohin die zu bestätigende Mail geschickt wurde) und eine Umstellung war aus besagtem Grund nicht machbar. Daher habe ich die letzten 2 – 3 Monate mit halben Dampf versucht den Umzug anzustoßen. Aber noch nicht mit Nachdruck, weil die wichtigsten Dinge der Seiten samt E-Mail noch gingen. Nach dem Abschalten der Subdomain ist mir dann aber die Muffe gegangen und ich habe schriftlich den Umzug beauftragt. Als Antwort kam wieder der Hinweis auf die Sache mit E-Mail etc. Wir haben uns im Kreis gedreht. Ich wurde dann aber etwas deutlicher und habe das Problem genau geschildert. Im Folgeschritt ging dann der Umzug doch. Innerhalb von einem Tag war der DNS-Name meiner IP des V-Servers zugeordnet. War also alles in Allem etwas blöd gelaufen, weil bei mir eine ziemlich außergewöhnliche Sondersituation vorlag. Aber der Provider hat mit sich reden lassen und dann ging die Geschichte doch durch.

Probleme und Chancen

Wie ich in der Überschrift schon angedeutet habe – bei einem Umzug geht viel Zeug verloren oder kaputt. Kann man wohl niemals verhindern. So auch bei meinem Umzug. Ich hatte den Umzug letztendlich etwas überstürzt eingeleitet, aber im Grunde über Monate vorbereitet. Es ist schon faszinierend, was man dann doch alles vergessen kann zu sichern oder aufzuschreiben oder was beim finalen Schritt schief geht, wenn man das durchzieht.

Denn sämtliche Daten auf dem alten Hostingangebot sind weg, wenn die Domain auf die neue Adresse umgeleitet ist! Natürlich war mir das klar und ich hatte vorher mit dem Standard-Plugin alle Daten aus den WordPress-Systemen (es waren drei WordPress-Systeme und sonst nichts) exportiert. Das hatte ich schon vor einigen Wochen gemacht und sogar die Imports in lokalen Systemen simuliert. Also da schien mir alles im grünen Bereich. Leider kam ich an die Datenbanken selbst nicht mehr direkt ran und die Exports der gesamten Datenbanken würden doch Fehlerkorrekturen erheblich erleichter. Dazu habe ich am Wochenende mit HTTrack Website Copier die drei Websites lokal gesichert (mache ich eigentlich immer mal wieder) und damit standen mir auch alle Dateien, wie sie im Browser ankommen, in aktuellen Versionen zur Verfügung. Zu guter Letzt habe ich von den beiden Blogsystemen noch jeweils eine Douplette bei Blogger, die vollkommen synchronisiert sind. Eigentlich alles gut vorbereitet, dachte ich.

Was ging trotzdem schief? Und warum ist das nicht unbedingt eine Katastrophe?

Es ging (natürlich) doch Einiges beim Umzug schief.

  • Erstes Problem: Bei meinem Import des Blogs hat das WordPress-Importer-Plugin abgebrochen. Die Beiträge der letzten Jahre sind nicht importiert worden. Fehler des Plugins (entweder für den Ex- oder Import) würde ich sagen. Aber das hilft mir auch nicht. Der Export der Beiträge des synchronisierten Blogs bei Blogger und Import in das neue WordPress hat aber funktioniert. Also alle Beiträge gerettet.
  • Zweites Problem: Diverse Bildreferenzen haben nicht mehr funktioniert. Sowohl interne (klar, denn die gehen auf Mediendateien, die erst einmal auf WordPress geladen werden müssen und zudem muss man die Referenzen anpassen), aber auch externe – da wurden die Werte von src-Attributen beim Bild-Tag nicht erhalten). Wie und warum kaum nachvollziehbar, aber die Korrekturen waren viel Handarbeit :-(. Seltsamer Weise scheint die Wahl eines Themes zu beeinflussen, ob und wie die Bildreferenzen funktionieren. Zum Teil sind auch die Permalinks wichtig.
  • Drittes Problem und mein Fehler: ich kann die Themes nicht mehr reproduzieren. Ich habe sogar ganz vergessen, wie die hießen. Das zumindest hätte ich mir vorher aufschreiben sollen :-(. Aber da ich diverse Anpassungen in den Themes (Einstellungen bis runter in den Code) vorgenommen hatte, hätte mir das sowieso wenig genutzt. Ich hätte die Dateien sichern müssen und das ging ohne FTP-Zugang ja sowieso nicht. Dazu habe ich ebenso nicht aufgeschrieben, welche Plugins ich installiert hatte :-(. Selbst die Widgets habe ich nicht aufgeschrieben, aber da hatte ich ja den gesicherten Client-Code. Trotzdem ist die Sache keine Katastrophe. Ich hatte sowieso vor die Seiten neu zu machen, zu entmisten und verschlanken und letztendlich auch das Design von Webseite und Blog zu vereinheitlichen, um diese besser zu synchronisieren. Also gilt hier nur „Alles neu, macht der Januar“. Halt einige Arbeit, aber das hatte ich schon lange so geplant. Zumal ich ein richtig geiles neues Theme entdeckt habe, das ich für alle drei Seiten einsetzen werde.
  • Viertes Problem: leider sind viele Benutzerdaten und Kommentare verloren gegangen, denn hier sind die Blogs nicht mit den Bloggersystemen synchron :-(. Das ist echt ärgerlich. Aber bisher registrierte Benutzer bitte ich sich neu anzumelden. Die Kommentare sind leider verloren (aber sowieso zu alten Beiträgen), wobei ich einige Inhalte noch habe (HTTrack Website Copier).

Ich muss den Fliegerblog jetzt noch neu einrichten und bitte um Rückmeldungen, wenn noch Fehler auf den neu eingerichteten Seiten gefunden werden.

Fortschritte beim Raspberry mit der Einrichtung einer Überwachungskamera

Eine durchaus nützliche Anwendung mit dem Raspberry Pi ist die Einrichtung einer Überwachungskamera. Denn der kleine RasPi braucht kaum Strom und selbst mit einer Webcam und einem WLAN-Adapter und ggfls. einem kleinen Gehäuse (falls man die Sachen noch kaufen muss und nicht sowieso irgendwo noch übrig hat) ist man billiger als bei den meisten Kauflösungen. Zumal man die genialen Programme im Linux-Umfeld nutzen kann. Ich brauche zwar eigentlich keine Überwachungskamera, aber die Neugier und der Spieltrieb (letztendlich aber auch Know How-Aufbau als Investition in meinen Job) haben mich zum Fertigstellen gebracht.

Schritt 1 – WLAN einrichten

Bisher hatte mein RasPi an der Leitung (sprich Ethernet-Kabel) gehangen und erstmal musste der WLAN-Adapter für den Raspberry Pi eingerichtet werden. Zuerst habe ich rein physikalisch den WLAN-Adapter an einen der beiden freien USB-Ports eingesteckt (USB-Port 2 brauche ich für die Cam). Mit lsusb kann man herauszufinden, ob der WLAN-Adapter überhaupt erkannt wurde. Das ging bei meinem RasPi problemlos und die Netzwerk-Schnittstelle mit der Bezeichnung wlan0 war sofort vorhanden. Danach habe ich iw bzw. iwlist als Tool installiert (sudo apt-get install iw). Mit sudo iwlist wlan0 scan kann man dann ganz bequem die WLAN in der Gegend scannen. Um die Verbindung einzurichten muss man die Netzwerk-Konfigurationsdatei bearbeiten. Dazu öffnet man die interfaces-Datei: sudo nano /etc/network/interfaces Hier gibt es vermutlich bereits einen WLAN-Bereich, wenn der Adapter erkannt wurde (war bei mir auf jeden Fall da). Und da trägt man so was wie das ein: # WLAN auto wlan0 allow-hotplug wlan0 iface wlan0 inet manual wpa-ssid „WLAN-Name wpa-psk „WLAN-Passwort Da habe ich ein bisschen rumspielen müssen, denn ein paar Einträge bei mir haben wohl kollidiert. Der Adapter wollte einfach keine IP-Nummer vom DHCP-Server beziehen. Aber mit dem Code ist mein WLAN-Zugriff dann gegangen. Natürlich muss man die Netzwerkschnittstelle nach jeder Änderung neu starten: sudo ifconfig down wlan0 sudo ifconfig up wlan0

Schritt 2 – Motion einrichten

Die Open-Source-Software Motion befindet sich in den Repositories der Linux-Distribution Raspbian. Als Kamera verwende ich eine alte USB-Webcam, die mit etwas Mühe auch unter Raspian endlich gelaufen ist. Allgemein sollte jede Kamera gehen, die mit dem V4L-Treiber (Video for Linux) kompatibel ist und als Gerät unter Linux in der Form /dev/videoX auftaucht. Mit dem folgenden Befehl kann man schauen, ob die Cam ordnungsgemäß funktioniert: dmesg | tail Noch besser: ls -ltrh /dev/video* Allerdings hat das bei mir von Anfang an funktioniert, aber der Video-Device ließ sich dennoch nicht öffnen. Erst nach dem komplette Upgrade der Distribution und Bereinigung ging das plötzlich. Motion spricht nun die Cam über eben /dev/video0, /dev/video1, etc. an und beobachtet den Video-Stream. Das Spannende ist nun der Bewegungsmelder. Man kann dazu einfach bei Motion ein Limit für sich ändernde Pixel in einem Bild festlegen. Wird die Grenze dieser Pixelzahl überschritten, wertet Motion das als Bewegung und kann je nach Konfiguration entsprechend reagieren. In der Regel wird dann ein Bild gespeichert. Geniale und einfache Lösung. Man installiert Motion so: sudo apt-get update sudo apt-get install motion Motion lässt sich dann über ein Init-Script starten, das nach der Installation des Programms bei Raspian unter /etc/init.d/motion zu finden ist. Für den automatischen Start zusammen mit dem System bearbeiten man die Datei /etc/default/motion und ersetzt das no hinter start_motion_ daemon durch yes. Ansonsten startet man Motion einfach manuel: sudo motion Nach Aufruf des Befehls erzeugt Motion diverse Bildschirmausgaben. Besonders wichtig ist Started stream webcam server in port 8081. Das sind die Infos, um die Bilder live abzugreifen. Das Bild kann man mit jedem Streaming-Client oder in einem beliebigen Webbrowser betrachten – über https://localhost:8081. Wenn sich jetzt was für der Cam bewegt, sieht man in der Konsole, dass Bilder gespeichert werden. In der Standardkonfiguration legt Motion diese unter /tmp/motion ab.

Konfigurieren

Per Standard ist Motion auf localhost beschränkt. Das kann man in der Standardkonfigurationsdatei /etc/motion/motion.conf anpassen. Die Zeile webcam_ localhost on ( Sektion „Live Webcam Server“) muss geändert werden auf: webcam_ localhost off An anderer Stelle findet man die Bildbreite und Bildhöhe. width 320 height 240 Kann man natürlich anpassen, soweit das die Cam unterstützt und der Platz auf dem Datenträger ausreicht. Sehr spannend – die Anzahl der Bilder/Sekunde framerate 2 Kann man bei Überwachung eher niedriger wählen, damit die Datenmenge nicht zu hoch wird. Bei einem Livestream hingegen sollte man den Wert eher hochsetzen. Muss ich auch noch ausprobieren. Die Sektion „Motion Detection Settings“ ist dazu da festzulegen, wie viele Pixel sich ändern müssen, damit Motion dies als Bewegung erkennt. Der erste Parameter threshold bestimmt, wie viele Pixel sich in einem Bild ändern müssen, um als Bewegung wahrgenommen zu werden. Per Standard steht das auf 1500 und das ist auf die vorgegebene Breite und Höhe des Bildes gemünzt. Setzt man die Bildgröße hoch, wird die Sache viel sensibler, da Motion früher reagiert. Will man das eher unempfindlicher, muss man den Wert erhöhen. Sobald Motion eine Bewegung erkennt, speichert das Programm die Dateien per Standard im JPG-Format. Ganz klasse – zusätzlich wird nach jeder Bewegungssequenz per Standard eine SWF-Datei als kleiner Film erstellt. Wo diese Dateien hinterlegt werden, konfigurieren man über den Parameter target_dir. Per Standard ist das /tmp/motion. Das Verzeichnis wird jedoch bei jedem Neustart des RasPi gelöscht. Sollte man die Dateien erhalten wollen, ändert man das Verzeichnis besser.