Vibe Coding

Rund herum in der IT-Szene und vor allen Dingen bei Softwareentwicklung dreht sich im Moment gefühlt alles um Vibe Coding. Das Collins Dictionary hat Vibe Coding sogar angeblich zum Wort des Jahres gewählt. Aber funktioniert die Idee? Ich habe dazu eine klare Position. Und die ist „Nein“. Vibe Coding ist für mich nur eine Illusion, Leute ohne fundierte Programmierkenntnisse könnten mittels KI ein „gutes“ Programm oder Softwareprodukt erstellen, das echte Aufgaben löst. „Vibe Coding“ weiterlesen

Preis der Freiheit


OllamaNachdem ich jetzt eine Weile mit Ollama und einigen lokalen KIs bzw. LLM-Modellen experimentiert habe, ziehe ich ein gemischtes Fazit. Ich habe mittlerweile mit Ollama Phi, Gemma, llama3.3, deepseek-r1 und mistral installiert und ausprobiert.

Oüen WebUIEin Kommentar von Gerhard Stein zu dem letzten Post auf Linkedin  (vielen Dank ;-)) hat mich dazu gebracht, neben Ollama auch Open WebUI zu installieren. Zuerst in einem Docker-Container, aber damit war ich nicht zufrieden. Mit einer venv unter Python habe ich aber eine brauchbare Umgebung für das System eingerichtet. Das kann man für einen Zugriff auf die Modells, die mit Ollama installiert sind, über einen lokalen Webserver und dann aus einem Browser nutzen.

Page AssistNoch bequemer für den Zugriff auf Ollama und die verschiedenen Modelle finde ich die Browser-Extension „Page Assist“, die Ollama direkt aus einem Browser wie Chrome oder Firefox verwenden kann. Das ist schlank, schnell und ohne viel Overhead. Man braucht dazu dann nicht einmal Python/pip oder gar Docker oder so etwas.

Ich habe jetzt sehr viel mit lokalen LLM gespielt sowie installiert und konfiguriert und im Grunde sind diese lokalen Modelle genial.  Aber mir wurde schnell deutlich, dass mein Rechner zu schwach auf der Brust ist. „Preis der Freiheit“ weiterlesen

Ollama – lokal geht vor

Ein Post auf LinkedIn hat mich getriggert, Ollama auszuprobieren. Dabei geht es darum, frei verfügbare LLMs lokal zu nutzen. Wie das geht, ist schön in dem Tutorial beschrieben. Vorteile der lokalen Nutzung von KI sind bekannt. Von Sicherheit über Datenschutz über unbegrenzte Token bis hin Ausfallsicherheit bei Internet- oder Zugriffsproblemen. Da man wie gesagt die bekannten Modelle lokal installieren und nutzen kann, hat man im Grunde die gleichen Features, wie eine Onlinenutzung von ChatGPT (llama), Mistral oder DeepSeek bieten. Nachteile lokaler Nutzung sind aber auch bekannt. Mehr Aufwand an Konfiguration und die Hardware muss halbwegs geeignet sein. Ich probiere Ollama gerade mal auf meinem Mint Linux aus. 2bc

Vibe Coding

Überall findet man derzeit Posts, die infrage stellen, ob man noch Informatik studieren, Fachinformatiker oder allgemein programmieren lernen soll. Gerade das Buzzword „Vibe Coding“ befeuert die (Fehl-)Einschätzung, dass solche Skills bald irrelevant werden. Ich bin selbst unsicher, ob ich Informatik als Studium oder eine Fachinformatikerausbildung empfehlen soll. Als ich vor 3 Jahren ChatGPT erstmals in der Programmierung angewendet habe, war ich mir sicher, dass wir bald kaum noch Programmierer brauchen werden. Mittlerweile dreht sich gerade meine Meinung, denn sowohl die Fehler als auch Qualitätsmängel bei KI explodieren. Und niemand versteht mehr so richtig, was unter der Oberfläche läuft.

Gerade besagtes, gehyptes „Vibe Coding“ ist m.E. ein Irrweg, der ins IT-Chaos münden kann. „Vibe Coding“ weiterlesen

Eigenlob

Eigenlob ist meist unangenehm und/oder kritisch, aber gerade habe ich die aktuelle Rangliste der beliebtesten Kurse bei Linked Learning (LiL) in der Kategorie „Technik“ gesehen. Es gibt derzeit 1.223 Kurse und ich bin mit gleich 4 Training in den Top 10. Auf den Plätzen 2 (Python für die Datenanalyse 1: Grundlagen ), 3 (Python lernen) , 8 (KI-unterstütztes Programmieren mit OpenAI und ChatGPT) und 9 (Python: GUI-Programmierung mit TKinter). Dazu noch auf Platz 23 mit Mathematik-Grundlagen für die Programmierung.

Das macht mich schon ein bisschen stolz, wobei die Anzahl der Nutzerzahlen ja nicht unbedingt gleichbedeutend ist, ob ein Kurs super gut oder schlecht ist. Es gibt in dieser Rangliste so viele Kurse, die fachlich brilliant sind, aber nur wenige Leute als Zielgruppe haben.

„Eigenlob“ weiterlesen

Aktualisierung meines Trainings zu Programmierung mit ChatGPT

Bei Linked Learning (LiL) wurde gestern mein Training zu KI-unterstütztes Programmieren mit OpenAI und ChatGPT aktualisiert. Dabei habe ich ziemlich umfangreiche Änderungen, Anpassungen und Aktualisierungen vorgenommen. Mehr als in je einem Training zuvor. Aber die rasante Entwicklung bei KI und vor allen Dingen der Benutzerschnittstellen der Large Language Model (LLM) haben dieses umfangreiche Update notwendig gemacht, auch wenn ich schon über die letzten Monate die Grundversion von 2023 immer wieder erweitert und aktualisiert hatte.

Wobei ich ja schon vor der ChatGPT-Supernova im Umfeld von KI bzw. AI recht viele Videotraining zu Grundlagen der künstlichen Intelligenz veröffentlicht habe. Etwa zu Statistik in Verbindung mit Python und  Mathematik-Grundbegriffe für Programmierer, was einen Teil der KI-Grundlagen samt der Arbeitsweise von LLM berührt und vor allen Dingen Python für die Datenanalyse 1: Grundlagen sowie Python für die Datenanalyse 2: Machine Learning, was elementare Basistheorien und -techniken für das Training von KI bzw. LLM abdeckt.

Als LLM mit ChatCPT als Speersitze wie ein Sturm die IT umgekrempelt und Künstliche Intelligenz vom Nerd-Thema zum Massenhype befördert hat, habe ich sofort ein Training dazu aufgezeichnet und damit die Welle ganz am Beginn mitgenommen. Da ich mit dem Training aber eben absolut am Anfang schon dabei war, habe ich in dem Training – trotz immer wieder laufender Aktualisierungen – zu ChatCPT auch noch einige Videos auf dem Stand gehabt, der eben 2022 am Beginn der Welle up2date war.

Das musste einfach bei einigen Videos angepasst werden und teils war es auch sinnvoll Videos zu entfernen, weil die Art des Zugangs zu ChatCPT und anderen LLM 2025 nicht mehr auf diese Weise erfolgt, wie es „früher“ (man beachte die Ironie, wenn ich bei 2022/2023 von der Vergangenheit rede) gemacht wurde. Etwa hat der Playground bei ChatGPT nicht mehr die Bedeutung wie am Anfang und wird auch anders eingesetzt. Die reine GUI von ChatGPT ist zudem einfacher geworden und steht auch mittlerweile ohne Anmeldung zur Verfügung, wenn man nur einfache Ansrpüche hat. Dazu wurden Features erweitert bzw. vom Playground in das einfache ChatGPT-Userinterface verlagert. Das musste einfach in das Training rein.

Damit sollte das Videotraining jetzt wieder vollständig auf dem aktuellen Stand der KI-Entwicklung bzw. der Verwendung von ChatGPT & Co sein.