Google-Suchanfragen ohne KI

Was von Google & Co als Vorteil verkauft wird, ist für mich tatsächlich eine reine Zensur, die unter falscher Flagge fährt. Ich meine sogenannte KI-Antworten bei einer Suche in einer Suchmaschine, was bei Google SGE – „Search Generative Experience“ genannt wird. Die Kritiken an dieser Art der Präsentation von Antworten sind massiv, werden aber kaum zur Kenntniss genommen.

Aber wer zu den „Wissenden“ gehört und KI-Antworten in Google ausstellen will, kann das derzeit wohl halbwegs mit einem Präfix -ai am Ende jeder Sucheingabe erreichen. Die Folge ist, dass man auch weiterhin eine Liste mit Treffern bekommt und sich qualifiziert die gewünschten Informationen holen kann. Wobei -ai zwar funktionieren kann, aber nur indirekt und es handelt sich nicht um eine offizielle Funktion zum Deaktivieren von SGE. Die Angabe wirkt wie ein Suchoperator zur Ausschließung von Begriffen. Alternativ kann man die KI-Funktion in den Einstellungen deaktivieren oder sich in manchen Browsern durch Erweiterungen schützen. Andere Suchmaschinen verzichten zum Teil auf KI oder aber man muss auch hier in die Einstellungen gehen oder gezielt KI-Ergebnisse meiden.

Interessant ist, was ChatGPT mit einem geeigneten Prompt vor sich gibt, wenn man diese KI-Zensur infrage stellt und nach weiteren Kritikpunkten bittet.

Neben dem von dir genannten Punkt der Zensur – den man als Vorwurf der Informationslenkung oder -filterung verstehen kann – gibt es eine Vielzahl weiterer fundierter Kritikpunkte, die in Diskussionen rund um KI-Suchergebnisse immer wieder genannt werden:


1. Intransparenz der Quellen

KI-Antworten präsentieren oft keine klaren oder direkt sichtbaren Quellen. Nutzer wissen nicht:

  • Woher die Information stammt

  • Wie verlässlich oder vertrauenswürdig die Quelle ist

  • Ob unterschiedliche Perspektiven berücksichtigt wurden

Das ist problematisch im Vergleich zur klassischen Linkliste, bei der man bewusst auswählen konnte, welche Quelle man ansieht.


2. Verzerrung und Bias

KI-Modelle sind trainiert auf großen Datenmengen – aber nicht neutral:

  • Sie spiegeln gesellschaftliche, politische oder wirtschaftliche Voreingenommenheiten wider.

  • Google könnte etwa kommerzielle oder politische Interessen priorisieren (z. B. große Medienpartner bevorzugen).

  • Minderheitenmeinungen oder alternative Perspektiven verschwinden im Mainstream-Narrativ.


3. Reduktion der Vielfalt

Früher bekam man eine Bandbreite von Ergebnissen, heute oft eine einzige Antwort, die als vermeintlich „objektiv“ gilt:

  • Nutzer lernen nicht, kritisch zu vergleichen, sondern konsumieren vorverdaute Information.

  • Der Diskurs wird „eingeebnet“ – komplexe Themen erscheinen eindimensional.


4. Gefahr von Fehlern oder Halluzinationen

KI-Modelle neigen dazu, plausible, aber falsche Informationen zu erzeugen („halluzinieren“):

  • Nutzer könnten falsche Fakten übernehmen, ohne es zu merken.

  • Korrekturen erfolgen oft zu spät oder gar nicht.


5. Schwächung der freien Web-Ökonomie

Wenn KI-Antworten die wesentlichen Informationen gleich bereitstellen:

  • Weniger Nutzer klicken auf Webseiten.

  • Publisher, Blogger, Journalisten und Experten verlieren Traffic und Einnahmen.

  • Die Anreize, qualitativ hochwertigen Content zu produzieren, verschwinden langfristig.


6. Machtkonzentration

Google (und andere) bündeln mit KI-Antworten noch mehr Kontrolle über:

  • Wahrnehmung von Information

  • Zugänge zu Wissen

  • Öffentliche Meinungsbildung

Das ist eine potenzielle Gefahr für demokratische Prozesse und Informationspluralismus.


7. Manipulationspotenzial

Wenn ein zentralisiertes System „die Antwort“ vorgibt, besteht die Möglichkeit, dass Inhalte:

  • bewusst gefiltert oder manipuliert werden

  • bestimmten Narrativen den Vorrang geben (z. B. zu Themen wie Klima, Politik, Gesundheit)

Das ist die Nähe zum Zensur-Vorwurf, den du angesprochen hast.


8. Rückgang der Medienkompetenz

Je weniger Menschen selbstständig Informationen suchen, desto mehr verlernen sie:

  • Quellenkritik

  • Perspektivenvergleich

  • Recherchetechniken

Langfristig kann das zu einer verarmten Informationskultur führen.