Extreme Zunahme der Falschinformationen bei KI?

Geht es nur mir so oder explodieren gerade fehlerhaften Antworten durch KI? Gerade bei ganz einfachen Fragen, für die man früher mit einer Suchmaschine Antworten erruiert hat. Ich wollte eben bloß den Link zur Registrierung von Kameradrohnen haben. Es kamen von der KI als Antworten Unboxing-Videos von Drohnen bis hin zu Links zu irgendwelchen Drohnenportalen. Nur nicht der korrekte Link, den eine einfach Suche in Ecosia nach mehrfachen erfolglosen Prompts in ChatGPT sofort geliefert hat.

Leider ist das kein Einzelfall, denn gefühlt sind mindestens 50% aller KI-Antworten mittlerweile falsch. Wenn mir jemand eine Statistik bringt, nach der über 90% falsch sind, würde ich die nicht anzweifeln. Aber die KI lügt mit Trump-artigen Übertreibungen. „Extreme Zunahme der Falschinformationen bei KI?“ weiterlesen

Trau, schau, wem! Nur nicht der KI

Der Beitrag, dass fehlerhafte Rechtsberatung durch ChatGPT & Co immer wieder zu „lustigen“ Ergebnissen wie bei dem Polizeieinsatz in Landshut führt, ist nur Teil des explodierenden Problems mit Falschinformationen und Fehlern durch KI. Auch wenn es immer wieder einzelne spektakuläre Fälle in die Medien schaffen, scheint das zunehmende Ausmaß des produzierten KI-Mülls nur wenigen Leuten bewusst zu sein. In meiner kleinen Welt und mit den paar Jahren, wo ich LLMs nutze, sehe ich persönlich erschreckend deutlich, wieviel schlechter die Antworten der Chatbots in dem Jahr geworden sind. Oft unbrauchbar und fehlerhaft bis hin zu gefährlich. Früher galt bei LLMs „Shit-in->Shit-out“. Heute oft „Prompt-in->Shit-out“.