Automatisiertes Scoring und die Durchschaubarkeit von Bewertungen

Gerade einen interessanten Artikel zum Thema des automatisierten Scorings gelesen. So etwas ist per se ja nicht schlecht. Auch wenn „Scoring“ einer der vielen modernen elenden Modebegriffe ist.

Ich hab nach dem Studium ja einige Jahre in einer Versicherung gearbeitet und natürlich wurde auch schon da schon seit Urzeiten eine Bewertung von Risikoklassen vorgenommen. Nur damit kann man „faire“ Beiträge berechnen und Kosten kalkulieren. Das gilt in allen Bereichen, wo man Kosten und Erträge auf einer statistischen Datenbasis kalkulieren will. Man kann da in einfachen Fällen von Erfahrung reden (ich versuche gerade zu kalkulieren, wie lange ich zur Erstellung einer kleinen Excel-Lösung brauchen werde, um dann einen Kostenvoranschlag zu erstellen). Und im Großen sind das halt computergespeicherte Daten („Erfahrungen“), die aber nicht mehr aus dem Bauch heraus oder von Menschen, sondern über Computer und Algorithmen auszuwerten sind.

Aber es gibt dazu unterschiedlich fundierte Techniken. Diejenigen, die mit seriöser Statistik und Wahrscheinlichkeitsrechung arbeiten sind ok und nachprüfbar.

Doch gerade im Bereich der aktuellen Big Data-Techniken ist verdammt viel Voodoo-Zauber unterwegs.

Und dann gibt es eben noch die Datenbasis selbst. Wird die explizit mit Einverständnis von Personen oder über heimlich gesammelte Daten ermittelt? Werden die Daten eingebenen (was natürlich der Lüge auch Tür und Tor öffnet) oder durch Spionage? Man denke an Internetdienste, die aus der Position des Mauszeigers auf Interesse an einem Produkt schließen und nicht erkennen können. Aber da ist die Wahrscheinlichkeit von Fehlern extrem hoch. Etwa wenn ein „Interessent“ nur gerade abgelenkt war und was anderes gemacht hat und deshalb ein Mauszeiger längere Zeit an einer Position war. Solche Fehler kann man zwar über eine große Menge an Spionagefällen „glätten“, aber dennoch ist die Fehlerwahrscheinlichkeit hoch.

Und vor allen Dingen ist die Interpretation meines Erachtens oft falsch. Ich habe den Eindruck, dass man es in dem gesamten Umfeld immer mehr mit Glauben statt Wissen zu tun hat, wenn man aus gewissen Eigenschaften und Verhaltensweisen fiktive Folgerungen zieht.

  • Etwa wohnt eine Person in einer guten Gegend und geht regelmäßig zum Tennis -> interessiert am teuerem Schmuck.
  • Oder eben schlimmer: Eine Person wohnt in einer schlechten Gegend und geht regelmäßig zum Fussball -> kein Kredit oder schlechtere Konditionen. Gerade die Schufa ist so ein Beispiel für Missbrauch und Fehler.

Aber das Hauptproblem ist die Nachprüfbarkeit. Bewertungen müssen zwingend nachvollziehbar sein. Nicht die Algorithmen selbst, aber die Kriterien bei jeder gewünschten Testgruppe. Und dazu muss jede Organisation, die Scoring vornimmt, gezwungen werden, eine Schnittstelle bereitzustellen, mit denen unabhängige Prüfer mit Testdaten einen Blackboxtest ausführen können. Sonst bin ich dafür diese Scoringverfahren unter Strafe zu stellen.

3 Milliarden für KI in Deutschland

Da schaue ich gerade Nachrichten und sehe einen Bericht, dass in Deutschland die nächten Jahre 3 Milliarden EUR in die Entwicklung der künstlichen Intelligenz bzw. der Robotik und Industrie 4.0 gesteckt werden sollen. Deutschland soll ein Hochtechnologieland werden. Also so aus dem Stand von einem ärmsten Entwicklungsländer in Sachen IT und Hochtechnologie (Stand heute) auf Marktführer. Anspruchsvoll.

Aber was ich einfach nicht zusammenbringe – das erzählen da in der Nachrichten POLITIKER. Wohl die denkbar ungeeigneste Berufsgruppe bei den Themen. Man denke nur an die legendäre Aussage von Mutti, dass das Internet noch Neuland wäre – gut 45 Jahre nachdem das Arpanet scharf geschaltet wurde. Aber auch wenn ich mir das restliche Kabinett ansehe. Dann frage ich mich, ob da einer der Leute schon mal eine Maus in der Hand hatte? Ich will denen nicht Unrecht tun, aber soviel (technische) Fachinkompenz auf einem Fleck findet sich nicht in der letzten Hütte im Busch von Afrika (schlechter Vergleich, denn ich denke, die Leute da sind oft ziemlich schlau). Aber vielleicht haben die vorgeschobenen Lautsprecher im Hintergrund ja Fachleute, die deren Unwissen kompensieren. Es stimmt schon – Politiker brauchen keine Ahnung von einer Materie zu haben, nur gute Berater. Und denen dann auch zuhören und nicht einfach wegTrumpen.

Naja, wir werden es sehen. Im Grunde versprechen die mir auch in den nächsten Jahren Aufträge und das kann ich eigentlich nur positiv sehen.

Das Rad eines Autos – ein Computer?

Ich mache keinen Hehl daraus, dass ich die Richtung, in die sich moderne Autos entwickeln, für überwiegend grundfalsch halte. Die elende Ablenkung durch diesen ganzen „smarten“ Schrott und diese vielen Demenzssysteme in neuen Autos sind reine Geldmaschinen und entmündigen Autofahrer. Dazu sorgen sie für ein falsches Sicherheitsgefühl.

Das schlimmste Demenzsystem ist m.E. der Gurtwarner. Wer nicht mehr merkt, dass er nicht angeschnallt ist, gehört nicht ans Steuer. Und wer wirklich ohne Gurt fahren will oder muss, wird sich von dem Terror des Gurtwarners nicht abhalten lassen. Nur aggressiver fahren. Der Hohn ist, dass man angeblich diesen Gurtwarner nicht einmal ausbauen darf, ohne die ABE des Autos zu gefährden.

Wobei selbst ich zugeben muss, dass es auch für mich – wenige – sinnvolle Assistenzsysteme gibt, die etwa in Richtung autonomes Fahren gehen. Das Eye Sight-System meines Forester für teilautonomes Fahren ist einfach genial und macht eine längere Fahrt sowas von entspannt. Das ist wirklich erste Sahne und was ich am Anfang auch nicht haben wollte.

Nur habe ich mir aber gerade einen Satz Winterreifen gekauft und das zu einem Preis, der über dem meines ersten Autos lag (umgerechnet). Ok – die Reifen selbst sind für so einen recht schweren 4-Radler wie den Forester schon mal nicht billig, aber das ist nicht das Problem.

Die Felgen müssen mit einer Reifendruckkontrolle ausgestattet sein. Von Gesetzes wegen. Und neu montierte Reifen müssen im Computersystem des Autos „angelernt“ werden, damit die Bordelektronik mit den Sensoren klar kommt. Geht es noch?

Man kann also kaum noch selbst einen Reifenwechsel vornehmen, denn auch wenn man zum Sommer wieder die bisherigen Sommerreifen draufmachen will, kann es sein, dass die Bordelektronik diese nicht korrekt identifiziert und das Auto zu Blöken anfängt. Oder wenn man nach einem Reifenschaden den Reifen wechselt. Jedes Mal ist Werkstatt angesagt. Das ist reine Abzocke. Es geht um AUTOREIFEN bzw. Räder. Dinger, die es seit Urzzeit gibt, die sich schon sprichwörtlich in der Funktion nicht mehr ändern und man früher aus der Portokasse bezahlen konnte, wenn man runderneuerte oder gebrauchte Reifen genommen hat. Und regelmäßig den Luftdruck selbst zu prüfen ist ja wohl selbstverständlich. Auch hier wieder wird unter dem Deckmantel der angeblichen Sicherheit nur den Leuten einfach nur das Geld aus der Tasche gestohlen.

Die Zeit rennt

Ich merke es immer wieder – ich brauche eine gewisse Zeit, bis ich mich beim Schreiben von einem neuen Buch warm geschrieben habe. Und dann kann ich nicht mehr aufhören und vergesse Zeit und Raum, weil ich das Buch fertig bekommen will und nach einer Anlaufsphase irgendwie das gesamte Konzept samt aller zu erstellenden Quellcodes in meinem Kopf drin ist und raus will. Ich komme so richtig in einen Tunnel, bei dem die Zeit einfach vorbei rennt. Wesentlicher Vorteil – so kann ich im Grunde ein Buch in einer extrem kurzen Zeit fertigstellen. Nachteil – ich vergesse oder verschiebe eigentlich wichtigere Aufgaben.

Ich habe gerade mit dem Erstellen von Schulungsunterlagen angefangen und muss mich regelrecht zwingen, mit erstmal wieder dem Schreiben aufzuhören und andere Aufgaben anzugehen. Der Abgabetermin für die Unterlagen ist Ende Januar und es gibt noch soviel andere Sachen, die vorher angegangen werden müssen.

Aber das Schreiben von Büchern führt bei mir fast zu einem Rausch.

All Creatures Welcome

Auf Spiegel Online habe ich gerade einen sehr positiv formulierten Beitrag über einen bald herauskommenden Film bzw. eine Dokumentation zum Chaos Computer Club (CCC) gelesen. Der Film „All Creatures Welcome“ von Sandra Trostel scheint wirklich gut zu sein, was ich da aus dem Vorbericht entnehmen kann. Den muss ich mir unbedingt ansehen.

Denn einerseits bin ich natürlich rein fachlich sehr tief in der IT-Szene drin und andererseits identifiziere ich mich mit vielen Zielen des CCC. Wobei ich deutlich betonen muss, dass ich es nie geschafft habe direkten Kontakt zum CCC oder der eigentlichen echten Hacker-Szene aufzunehmen.

  • Vielleicht weil ich nicht wirklich ein klassischer Nerd bin,
  • vielleicht weil ich eher Programmierer als Hacker bin,
  • vielleicht weil ich viel zu „kommerziell verseucht“ bin,
  • vielleicht weil ich aus dem Kernalter der Szene deutlich raus bin,
  • vielleicht aber einfach auch nur, weil ich zu faul war, von mir aus den ersten Schritt zu machen.

Aber als wohlwollender Fan des CCC will ich mich schon bezeichnen und den Film ein bisschen bewerben und wie gesagt unbedingt ansehen.

Debuggen von PHP mit Xdebug

Das Debuggen von PHP ist immer noch ein nicht ganz triviales Thema. Oder genauer – einen Debugger für PHP zu finden und zum Laufen zu bringen. Es gibt im Grunde zwei oder drei populäre Optionen, die im Grunde auch weitgehend gleich sind bzw. aufeinander basieren:

  • Zend Debugger
  • Xdebug

Grundlage ist der Zend-Debugger Dazu noch einige kommerzielle Lösungen wie die von PHPStorm, bei der aber m.W. auch auf den Zend-Debugger wohl zurückgriffen wird.
Aber wenn man das kostenlose Xdebug einsetzen will, ist das nicht ganz so einfach. Es gibt ziemlich viele Hilferufe im Internet, dass das Zeug nicht (richtig) laufen will. Insbesondere das Anhalten bei einem Breakpoint will wohl nicht immer gelingen – vor allen Dingen nicht unter Windows.
Ich habe Xdebug nun schon eine ganze Weile installiert, aber bisher eher nicht wirklich beachtet. Meist komme ich bei PHP-Debugging mit den klassischen Techniken (echo-Ausgaben, Fehlerkonsole, Fehlerfunktionen und -variablen von PHP und Auskommentieren) aus.
Aber ich habe die letzten drei Tage in Neuwied einen PHP-Kurs gehalten und da das sehr erfahrene Programmierer waren, sind wir auch auf das grundsätzliche Debuggen als auch die erweiterten Möglichkeiten mit dem Debugger zu sprechen gekommen. Und da ist mir aufgefallen, dass eben das Anhalten bei einem Breakpoint in meinem System nicht funktioniert hat. War kein Beinbruch, aber für mich der Anlass, um heute morgen doch mal meine Konfigurationen genauer anzusehen. Vielleicht brauche ich da doch mal bei PHP einen echten Debugger.
Was habe ich da eben alles an Problemen und Lösungen in Verbindung mit Xdebug im Internet gefunden:

  • Bei der Verwendung von localhost würde Windows einen Konflikt bekommen – stattdessen 127.0.0.1 verwenden.
  • Das Mapping des Path ausschalten oder auch einschalten
  • Auf die Einstellungen des Breakpoints achten und die diversen Skip-Breakpoints-Optionen an oder ausschalten

Die letzten Punkte betreffen von allen Dingen die Verwendung von Xdebug mit Eclipse und den PDT.
Aber nichts dergleichen bei mir. Der Hinweis auf den Konfigurations-Wizard von Xdebug hat mich dann auf die Lösung in meinem Fall gebracht. Dort kann man in einem Formular die Ausgabe von phpinfo() als HTML-Code reinkopieren und die Analysieren da, ob Xdebug richtig installiert und konfiguriert ist. Davon bin ich ausgegangen, aber die Analyse hat gemeint, dass da bei mir was nicht stimmt – was im Grunde auch Eclipse mit den PDT mir in der Konfiguration gezeigt hat, ich aber einfach nicht wahrgenommen habe.
Und so ist mir doch ein so grottenblöder Fehler in meinen
Konfigurationseinstellungen aufgefallen, dass es fast lächerlich ist.
Ich hatte den Pfad zu den Zend-Extensions in der Datei php.ini in
Hochkommata gesetzt und das darf man nicht machen. Deshalb hat der Debugger nicht angehalten, weil er eben nicht sauber konfiguriert war. Was eine
triviale Ursache mit weitreichenden Konsequenzen.
Nun geht aber alles.

Hier ist nochmal die bei Xdebug zu findende Schrittfolge, um Xdebug einzurichten, wobei man natürlich immer die neuste DLL nehmen sollte und alle Pfade anzupassen sind (das ist Stand von heute):

  1. Download php_xdebug-2.6.1-7.1-vc14.dll
  2. Move the downloaded file to F:\xampp\php\ext
  3. Update F:\xampp\php\php.ini and change the line
    zend_extension = F:\xampp\php\ext\php_xdebug-2.6.1-7.1-vc14.dll
  4. Restart the webserver

Dazu wird noch empfohlen, in der php.ini das einzutragen, wobei das natürlich an die Pfade auf dem eigenen System anzupassen ist (bitte beachten – 127.0.0.1 statt localhost, was ja angeblich besser ist – bei mir spielt das keine Rolle):

[XDebug]
xdebug.remote_enable=true 

xdebug.remote_host=127.0.0.1 
xdebug.remote_port=9000 
xdebug.remote_handler=dbgp 
xdebug.profiler_enable=0 
xdebug.profiler_output_dir="F:\xampp\php\ext\tmp"

Dann geht es auch mit dem Nachbarn – äh Debugger. Etwa aus Eclipse heraus.

DSL/LTE-Hybrid und Mobilfunkverträge

Es ist ein Graus – der Ausbau von „schnellem“ Internet endet bei mir in der Nachbarstraße. Ich habe mich über diverse Quellen informiert, wann es auch bei mir wirklich „schnelles“ Internet geben soll und die Informationen sind ernüchternd. Nicht einmal geplant ist sowas wie der Ausbau. Die neuen Häuser ein paar Meter weg wurden versorgt, aber wir im alten Ortskern sind anscheinend in der Priorität so weit unten, dass man nicht einmal eine Zeitangabe macht. Wobei ich zugegeben auf recht hohem Niveau mich beschwere – es gibt immerhin DSL16.000 und damit kann man halbwegs arbeiten. Nur geht darüber sowohl mein ganzes geschäftliches Zeug als auch der private Datenverbrauch der Familie samt Multimedia-Streaming und Spielen. Da werden die knapp 10 MBit/s, die es in der Realität beim Download sind, doch schnell mal eng.

Aber wie gesagt – ein Ausbau der Leitungen und DSL-Anschlüsse ist nicht geplant, da die neuen Wohngebiete und diejenigen mit noch langsamerem Internet erst einmal abgearbeitet werden. Ich erwarte nicht, dass da die nächsten 5 Jahre was passiert. Aber auch Internet per Kabel ist bei mir nicht möglich, was ich als Alternative erruiert hatte.

Nun flattern mir seit Wochen Flyer der Telekom ins Haus, wo ein Hybrid-Anschluss beworben wird. Da wird einfach der „lahme“ DSL-Anschluss solange benutzt, bis die Datenlast eng wird. Dann wird der Zusatztrafic über zugeschaltete eine LTE-Verbindung umgeleitet. Der Gedanke ist so schlau wie trivial, dass ich mich wundere, dass nicht andere Anbieter das anbieten. Man braucht bloß einen Loadbalancer und einen Router, der entweder per DSL oder Teathering (ggfls. mit dem SmartPhone) ins Internet geht. Das ist mal eine interessante Idee, um einen alten Raspberry PI zu nutzen. Da bleibe ich mal dran.

Aber alleine der Denkanstoß hat mich dazu gebracht nachzusehen, was denn mit LTE derzeit so an Download-Geschwindigkeiten erreicht werden können. Und ich war überrascht, was da an Speed im Moment schon geht und vor allen Dingen bei neuen Mobilfunkverträgen zu relativ kleinem Geld verfügbar ist. Bei vielen LTE-Verträgen erreicht man bei guter Abdeckung bis zu 225 MBit/s. Das ist mehr als das 20x von meinem DSL-Anschluss. Klar – „bis zu“ bedeutet, dass es in der Realität nur ein Bruchteil wird. Zudem ist die Schwankung der Geschwindigkeit bei LTE nach meinem Kenntnisstand gewaltig. Und dann hat man bei halbwegs bezahlbaren Verträgen auch eine sehr enge Grenze was die Datenmenge angeht. Alles richtig und deshalb ist LTE für mich auch nur als Zusatzverbindung geeignet. Aber dennoch – ich prognostiziere, dass man nicht mehr lange Festnetzanschlüsse braucht und die Zukunft für schnelles Internet LTE bzw. Nachfolgerstandards sind. Es ist auch definitiv billiger als überall Straßen aufzureisen und neue Kabel und Anschlüsse zu legen.

Nun habe ich die Überlegungen schon mal in erste praktische Schritte überführt und zwei meiner Mobilfunkverträge gekündigt. Denn leider muss man das gegen Ende der Vertragslaufzeiten immer wieder machen, da die alten Tarife dann immer so viel schlechter sind als das, was Neukunden bekommen. Derzeit hatte ich bei meinem Haupttarif 2 GByte Datenvolumen und im besten Fall langsames LTE mit 3 Mbit/s oder so. Dazu hatte ich im Sommer ja ständige Verbindungsprobleme. Also zwei Argumente für die Kündigung. Wobei wohl das Telefónica-Netz das Problem war und da die Probleme hoffentlich weg sind. Nun versuchen die Provider Kunden nach der Kündigung zu halten und machen meist gute Angebote. Darauf habe ich spekuliert und bin bei beiden Verträgen bei jeweils meinem alten Anbieter geblieben, nachdem sie die Angebote so verbessert hatten, dass die Verträge jetzt vergleichbar mit Lockangeboten andere Anbieter sind. Mein Hauptvertrag hat nur LTE bis 225 MBit/s und 10 GByte Datenvolumen bei 15 EUR/Monat. Das sind bei viel besseren Leistungen 10 EUR weniger als bisher. Es lohnt also zu Kündigen – auch schon vor Ende der Laufzeit, denn bei meinem zweiten Vertrag habe ich 7 Monate vor Ende gekündigt und daraufhin wird der Vertrag zum gleichen Preis bei dem neuen Vertrag von einem Datenvolumen von 200 MByte / Monat auf ein 1 GByte / Monat umgestellt.


Das sind die Messwerte heute Mittag von den aktuellen DSL und LTE (alt)-Anschlüssen aus meinem Büro:

 

Bin mal gespannt wie schnell der neue Mobilevertrag mit dem neuen LTE-Anschluss wird.

Ebay-Auktion Alufelgen kba 46940 COM4WHEELS als Winterfelgen

Mal was in eigener Sache – ich habe im Sommer meinen Geschäftswagen ausgetauscht (Forester II gegen Forester IV).

Auf den neuen Forester passen die Felgen des alten Forester nicht mehr. Deshalb habe ich noch 4 Alufelgen kba 46940 COM4WHEELS übrig, die sich gut als Winterfelgen eignen.

Auf den Felgen sind noch Blizzard-Winterreifen 215/60R16 99H aufgezogen, wobei die Reifen getauscht werden sollten.
Das Angebot sind die Alufelgen.

Ich habe die Felgen wie gesagt auf einem Subaru Forester II als Winterfelgen gefahren,
aber die Felgen mit der KBA 46940 sind auf diversen SUV und anderen
4-Rad-Modellen zugelassen.U.a. Citroen, Ford, Hyundai, Kia, Mazda,
Mitsubishi und Peugegot. Hier gibt es ein Gutachten dazu.

Die Felgen sind nicht sauber, aber technisch gut.
Ich biete sie deshalb per Ebay-Auktion zur Abholung in Bodenheim an.

Bitte bei Interesse vor dem Bieten genau
informieren, ob die Felgen geeignet wären.

Treiberaktualisierung

Ich bin da über ein ganz nützliches und kostenloses Tool gestolpert, denke ich – Driver Booster. Driver Booster sucht automatisch nach passenden Treibern eines Rechners und hält diese auf dem neuesten Stand. Das kann durchaus sinnvoll sein, wenn es an einigen Ecken des Computers mit der Zeit zwickt. Denn jeder Rechner wird scheinbar mit zunehmender Laufzeit schlechter. Deshalb halte ich meine Systeme ja mit ständigen Bereinigungen und Updates so gesund wie möglich. Aber das genügt nicht immer. Es kann trotzdem zu leidigen Kleinigkeiten kommen, die nerven.

Bei mir war es die Bluetooth-Verbindung zu meinen kleinen Bose Soundlink Mini. Die ist in der letzten Zeit immer unzuverlässiger geworden und Ton vom PC wurde immer häufiger nicht abgespielt, obwohl die Box sich als gekoppelt gemeldet hat. Auch war der Ton in der letzten Zeit bei Videos hin und wieder asynchron sowie es kam immer wieder zu Aussetzern. Da die Probleme nicht aufgetreten sind, wenn ich Audios vom SmartPhone abgespielt habe, musste das Problem am PC liegen. Ich habe natürlich das Gerät erst einmal auf dem PC gelöscht und dann neu installiert (hilft oft), aber das hat die Sache nicht wirklich verbessert. Dann habe ich auf dem Bluethooth-Dongle getippt, dann aber im Internet auch Meldungen von wegen veralteter Treiber bei den beschriebenen Bluetooth-Problemen gefunden. Und das führte zu besagtem Tool, was nach der Installation bei mir gleich 65 veraltete Treiber gemeldet hat. Ich bin nicht sicher, ob das der Wahrheit entspricht oder ob überhaupt eine Wirkung durch ein Update zu merken ist. Aber ich habe das Tool machen lassen und die Treiber alle aktualisiert. Schlechter ist die Situation auf jeden Fall nicht geworden und ich beobachte mal, ob sich die Bluetooth-Sache verbessert hat oder ich sonstige Vorteile bemerke. Aber prinzipiell ist es sinnvoll mit den neusten Treibern zu arbeiten und die Aktualisierung durch das Tool ist extrem bequem.

Die neue Form der Werbung im Web durch ganzseitige Hintergrundanimation

Gerade ist mir auf Spiegel Online eine mir recht neue Form der Werbung im Web erstmals so richtig aufgefallen. Nachdem erst die Banner-Blocker die nervigen Werbebanner obsolet gemacht haben, haben viele Webseiten versucht das Ansehen von Werbung zu erzwingen, indem keine Inhalte mehr angezeigt wurden, wenn man die jetzt in die Webseite eingebauten Werbeanzeigen geblockt hat. Natürlich führt dies zu viel weniger Besuchern und das war wohl deshalb auch nur ein erfolgloses Rückzugsgefecht, das die meisten Seiten wieder aufgegeben haben.

Nun macht sich aber immer mehr die Werbung breit, die als Hintergrundanimation über den gesamten freien Raum in die Webseiten integriert wird. Gerade Spiegel Online hat im Moment von Jack Wulfskin so eine großflächige Werbung hinterlegt.

Das ist m.E. – im Moment zumindest – ganz pfiffig gemacht, denn es passt noch nicht in die üblichen Muster, bei denen man Werbebanner in der Front der Wahrnehmung ganz professionell ignoriert. Könnte für eine Zeit funktionieren, bis auch hier die Besucher nur noch genervt sind.

Aufforderung zu Denunziation

Bisher hatte ich die AFD zwar für weit rechts stehend und konservativ gehalten (und zum Teil auch mit Nazis durchsetzt), aber ich stand auf dem Standpunkt, dass Demokratie auch sowas aushalten muss, solange die Parteien auf dem Boden der Demokratie bleiben. Wenn ein System das nicht verkraftet, ist das System defekt.

Mit dem Aufruf zur Denunziation von Lehrern und Professoren wurde aber eine Grenze überschritten und die Verfasser stellen sich in die Tradition von SS und Stasi sowie anderer Unrechtssysteme. Das geht gar nicht. Ich muss zugeben, dass mich die AFD mit gut gemachten Wahlspots ziemlich eingelullt hat – nach dem Motto „Wir sind nicht gefährlich und normale Mitbürger“. Dieser Aufruf zeigt jedoch, wessen Geistes sie sind. Das ist der Aufruf zum Terror und der Aufruf zur Begehung von Straftaten. Und das perverse ist, dass sie Kinder dazu anstiften.

Glücklicherweise sind die perfiden Verleumdungsportale von genügend Hackern stillgelegt worden.

Google Minus

Google+ hat ein Datenleck. Und Google hat es verschwiegen. Ganz lange. Und soll jetzt sogar dicht gemacht werden.

Da stellen sich mir zwei Fragen?

  1. Wer ist überrascht?
  2. Who cares?

Dazu habe ich auch zwei Thesen mit impliziten Fragen als Antwort:

  • Add 1: Kein soziales Netzwerk ist sicher. Auch keine Cloud. Warum ist die Selbstverständlichkeit eine Schlagzeile wert?
  • Add 2: Wer nutzt doch gleich Google+? Außer mir vielleicht. Und ich füttere die Geschichte im Wesentlichen automatisiert aus meinem Blog. Selbst da was lesen oder so? Mache ich nicht. Vermutlich bemerkt kaum jemand, wenn das Ding dicht gemacht wird. Google+ war von Anfang an zum Scheitern verurteilt und wenn es verschwindet – siehe meine These 2.

Buchmesse in FFM

Heute startet offiziell die Buchmesse 2018 in Frankfurt. Was waren das noch Zeiten, wo meine Verlage auf der Buchmesse vertreten waren und ich selbst als Autor dort. Einmal wurde ein Buch von mir sogar ganz prominent direkt neben dem Werk von Joschka Fischer präsentiert. Und man konnte sehr schön die gesamte Veranstaltung genießen – Verbindung von privaten und geschäftlichen Interessen also.

Heutzutage bin ich zwar immer noch Autor und habe immer noch über 10 aktuelle Bücher am Markt. Aber IT-Fachverlage haben sich m.W. komplett von der Veranstaltung zurückgezogen.

Microsoft rät von seinem eigenen Update ab

Da schau – es gibt beim Update 1809 für Windows 10 wohl massive Probleme. Daten und Programme wurden bei der Aktualisierung anscheinend bei diversen Usern gelöscht. Nun gibt es ja das Trival-Totschlagargument, dass man immer seine Programme auf dem neusten Stand zu halten hat, um sicher zu sein. Das passt aber wohl nicht ganz, wenn Microsoft selbst erstmal dazu rät, bis zur Klärung der Fehler von dem Update Abstand zu nehmen. Ich denke, dass meine Strategie wirklich besser ist.

  1. Auf jeden Fall das automatische Update deaktivieren.
  2. Beim Erscheinen eines größeren Updates erst einmal die anderen testen lassen und nur dann auf den Zug aufspringen, wenn die ersten Tage keine Katastrophenmeldungen rein kommen.
  3. Regelmäßige Backups auf mehreren Medien. Mindestens 1 – 2 x die Woche, aber wenn möglich mehrfach am Tag. Und auf jeden Fall vor einem Update alle Daten sichern (Programme sind unwichtig, denn die kann man ja immer wieder neu installieren).
  4. Wenn Punkt 2 erfüllt ist, regelmäßig manuell (!!) das Update starten.
  5. Nicht vergessen, danach das automatische Update wieder auszuschalten.

Ist die Hardware der Server von Apple, Amazon & Co mit Spionage-Chips verseucht?

Ich bin gerade über den Spiegel-Artikel gestolpert, dass laut einem „Bloomberg“-Bericht die Server von Apple, Amazon etc. über chinesische Spionagechips ausgelesen werden können. Angeblich habe die Regierung in China mehrere Zuliefererfirmen des Landes dazu gebracht, Bauteile für Server zu manipulieren. Diese werden in den verschiedensten Rechenzentren eingesetzt und können jederzeit unbemerkt „nach Hause telefonieren“.

Besonders interessant sind die vollkommen überzogenen Dementie von Apple und Amazon. Ich sage nur – der getroffene Hund bellt.

Denkbar ist das Szenario natürlich, aber eben diese Dementie sind wirklich vielsagend und lassen die Theorie mehr oder weniger zur Gewissheit werden.

Was wiederum die Cloud als soche noch mehr infrage stellt als die politische Situation in den USA. Wenn man also so dumm ist und seine sensiblen Daten in der Cloud parkt, können nicht nur „DER IDIOT“ – laut Google ist ja klar, wer das ist – und die US-Geheimdienste jederzeit von den Cluod-Betreibern wie Amazon, Apple, Microsoft, Google und & die unbemekrte Rausgabe fordern. Auch hinter der chinesischen Mauer wird anscheinend permanent alles rausgesucht, was China nutzen kann.

Tja – nur wer sagt, ob die Bauteile in normalen PCs nicht genauso verseucht sind? Die Verseuchung von SmartPhones und Tablets ist ja klar, aber wer denen sensible Sachen anvertraut oder gar Onlinebanking etc. macht, der spielt russisches Roulette mit 6 Kugeln. Wobei ich mich frage, ob wissenlich oder nicht?

Anyway – die Wahrscheinlich von echter Datenschicherheit ist scheinbar genauso groß wie die Wahrscheinlichkeit für die Existenz von Big Foot.

Influenza – oder schreibt man das Influencer?

Gerade läuft auf einem Privatsender eine Sendung über Influenza. Laut Wikipedia ist die „Influenza, auch („echte“) Grippe oder Virusgrippe genannt, ist eine überwiegend durch Viren aus den Gattungen Influenzavirus A oder B ausgelöste Infektionskrankheit bei Menschen. Alltagssprachlich wird die Bezeichnung Grippe häufig auch für grippale Infekte verwendet, bei denen es sich um verschiedene andere, in der Regel deutlich harmloser verlaufende Virusinfektionen handelt.“.

Nun werden da aber junge Leutchen gezeigt, die mit dem Verbreiten der Krankheit Geld verdienen sollen. Kann man die nicht in Quarantä́ne stecken? Oder um was geht es?

Oh man – ich werde wirklich alt, aber ich kann rein gar keinen Nutzen in diesem Influencer-Markt sehen. Angeblich autentische Kinder und Jugendliche finanzieren sich über Werbung für Produkte, die irgendwie in deren Bildern, Videos oder Blogbeiträgen untergejubelt werden. Im verblödeten Marketingslang „Productplacement“ geschimpft. Und da werden mit diesem Kinderbetrug Umsatzzahlen auf dem Privatsender genannt – da schlackern dir die Ohren. Am Faszinierensten finde ich, dass die großen Firmen sich anscheinend wirklich so betrügen lassen und darauf einsteigen, weil sie sich davon Umsatz versprechen. Trotz der unfassbaren Manipulation von Follower- und Likezahlen und einer Wirkung, die man sich schön trinken muss. Da wird nicht aus Sch … Gold gemacht, sondern aus reinem Nichts.

Aber wie gesagt – ich bin vermutlich nur zu alt, denn auch das sagen die Zahlen. In meiner Altersgruppe wirkt der Mist wohl gar nicht und auch die etwas jüngeren, aber schon reflektierenden, reiferen und solventen Erwachsenen lassen sich davon kaum beeindrucken.

Dampf ablassen über die Post

2,60 EUR in den Sand gesetzt, ist nicht wirklich ein Grund an die Decke zu gehen. Ich muss trotzdem gewaltig Dampf ablassen, weil ich es einfach nicht leiden kann „unfair“ behandelt zu werden. Dabei spielt es für mich keine Rolle, ob da Geld im Hintergrund steht oder nicht. Denn ich fühle mich gerade wie Trump – unfair behandelt. Von der Post.

Denn ich musste nach meinem MySQL-Kurs in Köln noch die Prüfungen korrigieren und die dann nach Köln schicken.

Habe ich mit einem Großbrief gemacht. Laut Postkalkulator ist ein Großbrief mit 650 Gramm Gewicht und etwa 1,6 cm Höhe mit 2,60 EUR korrekt frankiert. Und das habe ich gemacht und das Teil im Briefkasten versenkt.

Gestern kam er mit der Meldung zurück, er wäre nicht ausreichend frankiert! Es würden 2,20 EUR fehlen. Lächerlich. Wieso soll ich 4,80 EUR zahlen für einen einfachen Großbrief? Und so ein Mist passiert nicht das erste Mal. Die Post hat anscheinend so lange an Personal und Ressourcen gespart, bis die Fehlerhäufigkeit die Grenze erreicht, die Kunden maximal noch ertragen, ohne zu mucken. Aber ich lasse es dieses Mal nicht auf mir sitzen und erwarte von der Post sowohl eine Erstattung der abgestempelten Briefmarken als auch eine Reaktion.

Wobei es schon mal eine regelrechte Irrfahrt war auf den Webseiten der Post überhaupt eine Kontaktmöglichkeit per E-Mail oder Formular zu finde (Warteschlange in der Telefon-Coldline nehme ich nicht auf mich).

Der angebliche „Kundenservice“ versucht Kunden mit dämlichen FAQs so lange von einem direkten Kontakt abzuhalten, bis diese aufgeben. Selbst bei der Suche nach „Reklamation“ kommt man kaum an ein Kontaktformular, sondern wird immer nur im Kreis geführt. Aber ich habe wie gesagt jetzt Dampf im Kessel und so lange gesucht, bis ich eine Kontatkmöglichkeit gefunden habe. Bin mal gespannt, ob und wie der Laden reagiert.

Nun sind die korrigierete Prüfungen nicht zeitkritisch, denn die Bewertungen werden online eingestellt und das Papier wandert ins Archiv – aber es könnte ja sein, dass zeitkritische Dokumente verschickt werden müssen. Da kann ich im Moment nur von der Post bzw. einem einfachen Brief abraten. Nur was sonst? Wegen jedem Pippifax Einschreiben wählen? Das hätte die Post sicher gerne.

Und es hat „Solid“ gemacht

Ich glaube, da ist ein Schuss gefallen und ich habe ihn erstmal nicht gehört. Aber ich habe aufgepasst als man mir von dem Schuss erzählt hat. Deshalb bin ich hoffentlich nicht zu spät, wenn ich jetzt erst loslaufe.

Denn die Spatzen pfeifen es vom Dach – das Web ist tot. Zumindest in der Form, wie es bisher existierte. Die Totengräber sind

  • destruktive Nutzung,
  • Kommerzialisierung,
  • Überwachung
  • Konzentration der User auf wenige Datenkraken wie Facebook, Instagramm oder Google auf der einen Seite.

Und auf der anderen Seite zerstören die hilflosen und unbrauchbaren Versuche mittels DSGV & Co angeblichen Datenschutz durchzuprügeln das Web, indem alle Unschuldigen und kleinen Webanwender kriminalisiert und normale Benutzer behindert werden und der Datenschutz damit stattdessen vollkommen zerstört wird.

Das Open-Source-Projekt Solid (Akronym für Social Linked Data) soll die Dezentralisierung des WWW vorantreiben und es so ändern, dass User ihre Daten vollständig behalten. Diese dringend notwendige Verbesserung der Privatsphäre soll durch die Entwicklung einer dezentralisierten und vollständig vom Benutzer kontrollierten Plattform erreicht werden. Solche Träumereien gibt es aber zuhauf.

Nun muss man dazu jedoch bemerken, wer hinter dieser Idee steht – niemand anderes als Tim Berners-Lee – der „Erfinder“ des WWW und damit ist es was anderes als substanzlose Träumerei.

Um mittels Solid die Privatsphäre zu wahren, speichert ein Anwender seine persönliche Daten in Pods (personal online data stores), die an beliebigen Orten bereitgestellt werden können. Legimitierte Solid-Anwendungen dürfen Daten anfordern, wenn der Benutzer der Anwendung die Berechtigung erteilt. Ein Benutzer kann persönliche Informationen auch unter mehreren Pods verteilen. Naja – so ganz habe ich es mit Solid noch nicht geschnallt, aber einen Pod habe ich schon mal angelegt. Und damit bin ich schon mal dabei und werde auch mit der Zeit da mehr von kapieren. Vielleicht sogar einen Solid-Server betreiben oder sonst die Kram beruflich nutzen. Da sollte wieder ein großes Ding im Busch sein …

Navi-Apps im Test und versus eingebautem Navi

Da ich beruflich oft auch am Vortag einer Schulung anfahre, komme ich seit Jahren ohne Navi kaum aus. Anfang des Jahrtausends hatte ich so ein Erlebnis, wo ich ohne Navi Sonntagsabends im Dunklen in Wuppertal mal mein Hotel gesucht hatte. Das war nicht spassig und daraufhin habe ich mir bei Aldi ein recht billiges Navi angeschafft, was bis heute gute Dienste geleistet hat. Aber da die Karten nicht aktualisierbar sind und auch sonst die Technik vorangeschritten ist, muss ich updaten.

Mein Umstieg vom Forester 2 auf den Forester 4 war jetzt der Anlass, das alte Medion-Navi als Backup in den Kofferraum zu verbannen und auf Navi-Apps auf dem SmartPhone zu setzen. Denn auch in meinem neuen Forester ist kein eingebautes Navi drin – oder vermutlich nur nicht freigeschaltet, denn die Hardware ist auch in der höheren Ausstattung hinsichtlich des Zeugs gleich. Als ich das bemerkt hatte, war ich doch tatsächlich enttäuscht, wie ich zugeben muss. Und das obwohl ich immer geschworen habe, dass ich niemals ein eingebautes Navi haben wollte. Denn in allen Tests verlieren die eingebauten Navis gegenüber den Navi-Apps. Und auch der Preis, den Autohersteller für die eingebauten Navis verlangen, ist jenseits jeder Vernunft. Oft kostet so ein Ding weit über 1.000 EUR und Navi-Apps sind kostenlos. Ein halbwegs nutzbares SmartPhone kostet samt Halterung vielleicht 100 EUR. Oder man hat es sowieso und deshalb bei einem eingebauten Navi eine vollkommen sinnlose Redundanz. Zudem werden eingebaute Navis oft gestohlen und der Anreiz zum Aufbrechen eines Autos wird unnötiger Weise erhöht.

Es spricht also eigentlich alles für die Nutzung von Navi-Apps über das SmartPhone. Doch objektiv betrachtet nicht ALLES. Mir fallen einige Vorteile der eingebauten Navis mittlerweile ein.

  • Größerer Bildschirm
  • In das Gesamtsystem des Autos besser integriert
  • Keine Probleme mit Stromversorgung. Navi-Apps ziehen dermaßen Strom, dass der Akku-Stand sogar dann runter geht, wenn das SmartPhone an der USB-Stromversorgung des Autos hängt. Rein auf Akku war mein SmartPhone nach 2 Stunden leergesaugt
  • Ich bin nicht ganz sicher, ob eingebaute Navis nicht stabiler laufen. SmartPhones werden verdammt heiß und 1x ist mir das SmartPhone während der Navigation abgeschmiert, was ich auf die Temperatur zurückführe.

Aber das rechtfertigt auf keinen Fall den Preis. Für die mehr als 1500 EUR, die bei mir das Freischalten des Navis wohl kosten würde, könnte ich mir selbst eines der maßlos überteuerten IPhones oder Samsung-Händies holen.

Vorteile von Navi-Apps sind neben dem Preis m.E. das:

  1. Aktuellere Karten
  2. Bessere  Verkehrs- und Stauinformationen
  3. Freie Wahl der Position im Auto, was für bessere Lesbarkeit sorgt
  4. Mitnahmemöglichkeiten als Fußgänger, Radfahrer, Moppedfahrer etc.

Insbesondere Punkt 1 und 2 sind neben der Vermeidung von Redundanz (SmartPhone hat man immer dabei) und dem Preis ausschlaggeben. Also die Entscheidung für Navi-Apps ist unzweifelhaft, denn deren Vorteile sind neben dem Preis gravierend.

Stellt sich aber die Frage, welche Navi-App? Und da bin ich immer noch ziemlich unsicher. Alle von mir jetzt getesteten Apps haben für mich Vor- und Nachteile. Ich konnte sie auf den Fahrten in dem Monat recht gut gegeneinander testen. Sowohl auf den langen Fahrten nach Köln als auch den mittellangen nach Oberursel und den kurzen privaten Fahrten in der Region.

Ich habe folgende Navi-Apps nach vielen Recherchen im Internet in die enge Wahl und meine persönlichen Tests einbezogen.

  1. Google Maps. Ganz klar. Das Ding nutze ich schon Jahre parallel zu meinem alten Navi und sowieso, wenn ich zu Fuß oder mit dem Rad navigieren muss. Hier bekomme ich sehr gute Karten, auch offline Navigation – ganz wichtig – ist möglich und die vielen Anwender sorgen dafür, dass Verkehrsmeldungen brandaktuell sind. Alleine durch die Verbreitung der App und Android kann mit den Verkehrsdaten keine andere App auch nur ansatzweise mit. Aber man gibt halt Google seine Daten und zudem ist mir die App bzw. das gesamte SmartPhone in Köln gerade in der kritischen Navigationsphase abgestürzt. Sowas ist Schrott, kann aber auch am SmartPhone gelegen haben (s.o.).
  2. Waze. Open Source. Hat einen sehr guten Ruf und wohl eine große Community im Hintergrund. Hat mir ganz gut gefallen. Sowohl von der Usability als auch den Features. Nur hat es mich gestern auf der Rückfahrt im Nachbarort dermaßen falsch leiten wollen, dass ich richtig geschockt war. Ich war auf einer Hauptdurchgangsstraße und wurde in irgendwelchen Seitengassen lokalisiert und dann in Gassen umgeleitet, die ich noch nie gehört habe (obwohl ich das Nachbarort ganz gut kenne). Im Moment ist die App auf der Abschussliste (auch weil keine Offlinekarten bereitstehen), aber ich gebe ihr noch eine Chance.
  3. Here. Fand ich auch nicht schlecht. Gerade der Offlinemodus. Hat mich aber vor Abfahrten konsequent zu spät auf diese hingewiesen. Und die Entfernungen von Abzweigungen immer gut 500 Meter zu weit lokalisiert. Das hat mir nicht gefallen. Ich werde aber auch der App noch eine Chance geben.
  4. Map.Me. Wollte ich gerne auch ausprobieren, da sie auch gut sein soll. Konnte ich aber nicht installieren und einige Kommentare im Netz sagen, dass die Karten super, die Navigation aber Schrott ist.

Tja – im Moment sieht es so aus als würde ich bei Google Maps bleiben. Aber ich teste noch die Woche und dann beschränke ich mich auf 2 Apps.

 

Probleme beim E-Mail-Versand und der Reverse-DNS-Eintrag (PTR)

Die letzten Wochen hatte ich hin und wieder Probleme, dass E-Mails von meinem Standardaccount (ein SMTP-qmail-System auf meinem V-Server) nicht zugestellt werden konnten. Meist waren das jedoch E-Mail-Adressen von Personen, mit denen ich vorher nicht kommuniziert hatte und deshalb habe ich mir erstmal keine Gedanken gemacht.

Aber die letzte Woche in Köln hatte ich plötzlich immer mehr Probleme beim Verschicken von E-Mails mit dem Account. Ich bin erst einmal von einem Problem auf meinem Notebook oder den W-LAN-Systemen im Schulungsraum bzw. Hotel ausgegangen, aber wieder zurück hatte ich die Probleme auch auf der Workstation im Büro mit meinem Standardprovider. Es wurde sogar schlimmer, denn E-Mails, die ich an meine anderen Accounts bei GMX und GMX-Adressen von Leuten, bei denen ich Rückfragen konnte, geschickt habe, sind alle (!) nicht mehr angekommen. Auch nicht nach einigen Stunden, was früher schon mal vorkam.

Das Problem musste also tiefer liegen. Sprich beim Server – genaugenommen beim SMTP-Server, denn mit dem Empfang gab es keinerlei Probleme. Ich habe da an diversen Schrauben erfolglos gedreht, bis ich auf die Meldung gestossen bin, dass in der letzten Zeit einige Provider Änderungen an ihren Mailservern vorgenommen haben, um das Spamaufkommen auf deren Servern zu senken. Unter anderem wird jetzt wohl der Empfang von E-Mails von den Providern abgelehnt, wenn der Reverse DNS Eintrag (auch „PTR-Eintrag“ genannt) im Header der E-Mail nicht auf eine Kundendomain lautet, sondern dieser noch den Standardnamen des Host verwendet. Und das war wohl bei mir der Fall, denn in den Headern der abgelehnten E-Mails (wenn ich denn eine Fehlermeldung überhaupt bekam) war dieser Standardname des Hosts und nicht meiner Domain rjs.de zu finden. Das führt nach meinen Nachforschungen dazu, dass der Reverse-DNS-Eintrag mittlerweile von vielen Mailservern zur Identifizierung verwendet und die E-Mail abgelehnt wird, sollte dieser Eintrag nicht valide sein, was z.B. beim Fehlen des Eintrags oder beim Hin-und-Rückauflösen der DNS-Reverse und der IP-Adresse mit Abweichungen der Fall ist. Letzteres passiert eben, wenn der Standard-Host da drin steht und die E-Mail von einer Domain darauf kommt.

Ich habe also den PTR-Eintrag auf dem Server nun auf rjs.de gestellt und mit einem Schlag waren dann alle E-Mails zugestellt, die ich die letzten 24 Stunden als Test verschickt hatte. Es sieht so aus als wäre damit das Problem gelöst (Hoffnung).

Zumindest hat die Suche auf dem V-Server dazu geführt, dass ich da ein paar Einstellungen angepasst und endlich mal wieder ein Voll-Backup angestoßen haben.