Oha – ChatGPT scheitert an Grundrechenarten :-(

Gerade höre ich im Radio, dass Google Bard vielleicht doch nach Europa bzw. Deutschland kommen soll. Man müsse sich nur noch an die „regionalen Begebenheiten anpassen“. Wow – sehr charmant den Bürokratieschwachsinn bzw. das falsche Verständnis von KI und Datenschutz in unseren Breiten umschrieben.

Aber gleichzeitig hat mich ChatCPT mit der fehlerhaften Beantwortung einer trivialen Anfrage ziemlich erwischt und desillusioniert. Von jetzt auf gleich ohne Vorwarnung :-(. Ich mache gerade eine Nebenkostenabrechnung, bei der ich mehrere Stromlieferanten mit deren verschiedenen (und total unübersichtlichen) Abrechnungen kombinieren, auf Zeitinvalle und verschiedene Einheiten umrechnen muss. Ich wollte mir das Leben einfach machen und habe ChatGPT einfach gefragt, wie viele Tage zwischen verschiedenen Datumsangaben liegen.

Also Frage:

Wie viele Tage sind es vom 14.03.2022 bis zum 31.03.2023 – jeweils inklusive?

ChatGPT meint 393 Tage! Wenn man sich bei so trivialen Algorithmen nicht auf das System verlassen kann (es sind 383 Tage – wer nicht nachrechnen will – selbst Excel liefert das richtige Ergebnis), ist das schon der Hammer. Ich bin im Moment wirklich fast geschockt, dass so ein Müll da kommt. Vermutlich hat ChatGPT einfach 31 Tage pro Monat angenommen. Ich hätte mich sogar fast blamiert und die Nebenkostenabrechnung mit den falschen Angaben abgegeben.

Fazit (immer und immer und immer wieder): Hirn eingeschaltet lassen. Gleich ob Autofahren mit Navi oder Interaktion mit einer KI.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.