KI-Agenten

 

AI-Agent

Ich bin eben auf OpenClaw gestoßen und wollte doch einmal ausprobieren, wie man einen KI-Agenten bzw. AI-Agenten selbst erstellt. Zumal gerade OpenClaw (oder auch Moltbot bzw. ClawdBot) im Moment einen gewissen Hype auslöst. In positiver/optimistischer als auch negativer/pessimistischer Richtung. Das hatte ich schon vor einer Weile sogar peripher mitbekommen, aber es ist mir erst bewusst geworden, nachdem ich OpenClaw installiert und ein bisschen nach Berichten dazu gesucht habe.

Dabei habe ich nach den Experimenten zwei Resultate für mich gezogen.

  1. Der Agent darf unter keinen Umständen auf einem produktiven System laufen, da man für einen sinnvollen Einsatz unbeschränkte Zugriffe einräumen muss. Aber ich habe genügend alternative, unkritische Systeme. Die Installation ist wirklich einfach, wobei ich meinen Raspberry PI4 ein bisschen umkonfigurieren musste, bevor das System installiert und dann genutzt werden konnte. Aber die Fehlermeldungen auf dem Weg dahin waren klar und die Probleme konnte ich lösen – durchaus auch mithilfe von ChatGPT, aber das hätte ich auch von Hand hinbekommen. Das konkrete Erstellen eines Agenten habe ich dann nicht zuende gebracht, weil bei OpenClaw kostenpflichtige API-Schlüssel notwendig sind. Soweit ich das bisher rausbekommen habe, gibt es zwar auch lokale LLM ohne API-Key, aber die überfordern meinen PI und taugen nur eingeschränkt.
  2. Ich war von Anfang an KI-Agenten ablehnend gegenüber (siehe Matrix) und mein Eindruck hat sich massiv verfestigt. Das ist schon krass, was man da einer fremden „Intelligenz“ an Rechten bzw. Zugriff auf die Privatsphäre einräumt. Die kritschen Meinungen in den Beiträgen zu OpenClaw speziell als auch KI-Agenten allgemein halten nicht hinter dem Berg. „Wir installieren jetzt hier diese gefährlichste Software der Welt. “ heisst es bei Heise.de oder „Mein KI-Assistent regelt das. Oder er räumt mein Konto leer. OpenClaw will der KI-Assistent sein, der fast alles kann. Das ist beeindruckend – und gefährlich.“ bei Welt.de

Ich habe mir direkt unter dem Eindruck der Aussichten, was KI-Agenten anstellen können, im Matrix-Stil ein paar Bilder generieren lassen – natürlich auch von der KI ;-). Das Spiel mit dem Feuer halt.

Die Möglichkeiten von KI-Agenten sind hoch, die Risiken und Gefahren aber um ein Vielfaches größer. Gerade, wenn sie Zugang zu Bereichen haben, die eigentlich nur der Benutzer haben sollte.
  • Entmündigung
  • Kompentenzverlust
  • Nur noch Zugang zu vorgekauten Informationen und Optionen
Man kann sich ja mal die Gefahren von KI-Agenten von der KI erklären lassen.
Prompt:
Nenne die drastischsten Gefahren von KI-Agenten in Stichworten

ChatGPT:

Hier sind die drastischsten Gefahren von KI-Agenten, kompakt in Stichworten:

  • Autonome Schadensausführung – Agenten führen Aufgaben ohne menschliche Kontrolle aus (z. B. Daten löschen, Systeme sabotieren).
  • Missbrauch durch Menschen – Agenten können für Cyberangriffe, Deepfakes, Social Engineering oder automatisierte Propaganda eingesetzt werden.
  • Unkontrollierbare Selbstverstärkung – Agenten optimieren Ziele auf unerwartete Weise, die Menschen schadet („goal misalignment“).
  • Fehlende ethische Urteilsfähigkeit – KI kann keine moralischen Grenzen erkennen, Entscheidungen können unfair, diskriminierend oder illegal sein.
  • Informationsmanipulation / Fake News – autonome Erstellung und Verbreitung von falschen Inhalten in großem Maßstab.
  • Datenschutzverletzungen – Agenten extrahieren, speichern oder kombinieren private Informationen ohne Einwilligung.
  • Systemische Risiken – Kaskadeneffekte in kritischen Infrastrukturen (Energie, Verkehr, Finanzsystem) durch autonome Fehler.
  • Verstärkung von Bias / Diskriminierung – Agenten übernehmen oder verstärken versteckte Vorurteile in Trainingsdaten.
  • Ökonomische Destabilisierung – Automatisierte Agenten verdrängen menschliche Arbeitskraft massiv und unkoordiniert.
  • Blackbox-Entscheidungen – Entscheidungen sind oft nicht nachvollziehbar oder auditierbar („interpretability problem“).
  • Verlust menschlicher Kontrolle – bei komplexen Multi-Agent-Systemen kann kein Mensch die Gesamtstrategie vollständig überblicken.
  • Autonome Waffensysteme – Agenten könnten in Militäranwendungen ohne menschliches Eingreifen handeln.