Halluziniere dir einen – aber mit Überzeugung

Es gibt eine Reihe an Artikeln und Untersuchungen, dass Halluzination von Künstlicher Intelligenz immer mehr zunimmt, Richtigstellungen durch User ignoriert werden und der Nutzen gerade von LLMs teils stark eingeschränkt wird. Vor wenigen Tagen habe ich diese unangenehme Situation leider selbst wieder bestätigt bekommen. Ich bin definitiv kein Gamer, aber ich habe ein uraltes Spiel, das Elemente aus Echtzeit-Strategiespiel, Rollenspiel und Fantasy verbindet (Spellforce). Es stammt sogar von einer Firma nicht weit von mir und war Anfang des Jahrtausends bei einem PC dabei, den ich mir damals gekauft hatte. Vor einiger Zeit habe ich mir eine neuere Version – von 2006/07 😉 – für einen Minibetrag auf eBay ersteigert. So alt das Spiel auch ist – es macht mir immer noch Spass, wenn es mich dann mal alle paar Wochen überkommt. Nur ich komme auf einem Level einfach nicht weiter. ChatGPT sollte mir helfen.

Die Antworten waren aber absolut nicht hilfreich. Was noch nicht einmal das Problem ist. Aber es wurden ganz einfach falsche Angaben gemacht und Korrekturen von mir in den folgenden Antworten vollkommen ignoriert und die falschen Aussagen unbeirrt wiederholt.
So wurde aus einer Person, die ich in einer Area suchen wollte, eine Area mit dem richtigen Namen und dem Namen der Person zusammengesetzt. Eine mehrfache Korrektur von mir, dass es sich um eine Person handelt, wurde mit der üblichen „Du hast recht“-Antwort samt Entschuldigung beantwortet und in der „Richtigstellung“ komplett ignoriert.

Diese Halluzinationen sind bei LLMs mittlerweile echt überall zu finden und oft auch nicht leicht zu erkennen. Warum kann eine KI nicht „zugeben“, dass Informationen für eine fundierte Antwort fehlen? Gerade diese überzeugende Präsentation von Falschinformationen ist grausam und gefährlich. Ich bin gespannt, ob dieses Problem in den Griff zu bekommen ist oder sogar das ganze Konzept aushebelt. Und ehrlich gesagt – „The trend is your friend“ ist für mich im Moment leider plausibel.