Halluziniere dir einen – aber mit Überzeugung

Es gibt eine Reihe an Artikeln und Untersuchungen, dass Halluzination von Künstlicher Intelligenz immer mehr zunimmt, Richtigstellungen durch User ignoriert werden und der Nutzen gerade von LLMs teils stark eingeschränkt wird. Vor wenigen Tagen habe ich diese unangenehme Situation leider selbst wieder bestätigt bekommen. Ich bin definitiv kein Gamer, aber ich habe ein uraltes Spiel, das Elemente aus Echtzeit-Strategiespiel, Rollenspiel und Fantasy verbindet (Spellforce). Es stammt sogar von einer Firma nicht weit von mir und war Anfang des Jahrtausends bei einem PC dabei, den ich mir damals gekauft hatte. Vor einiger Zeit habe ich mir eine neuere Version – von 2006/07 😉 – für einen Minibetrag auf eBay ersteigert. So alt das Spiel auch ist – es macht mir immer noch Spass, wenn es mich dann mal alle paar Wochen überkommt. Nur ich komme auf einem Level einfach nicht weiter. ChatGPT sollte mir helfen.

Die Antworten waren aber absolut nicht hilfreich. Was noch nicht einmal das Problem ist. Aber es wurden ganz einfach falsche Angaben gemacht und Korrekturen von mir in den folgenden Antworten vollkommen ignoriert und die falschen Aussagen unbeirrt wiederholt.
„Halluziniere dir einen – aber mit Überzeugung“ weiterlesen