Agent Governance: Kontrolle und Steuerung von KI-Agenten in Production

Praktischer Production-Framework zur Kontrolle von KI-Agenten: Zugriff, Limits, Approval, Audit-Logs, Kill Switch und Rollback.
Auf dieser Seite
  1. Idee in 30 Sekunden
  2. Problem
  3. Lösung
  4. Governance != Safety
  5. Beispiel
  6. Kontroll-Ebenen (governance layers)
  7. So sieht das in der Architektur aus
  8. Minimaler Governance-Stack
  9. Beispiel
  10. Typische Fehler
  11. Selbst-Check
  12. FAQ
  13. Verwandte Seiten

Idee in 30 Sekunden

Agent governance ist eine Kontrollschicht ĂŒber der Runtime, die jeden Agenten-Schritt prĂŒft: Zugriff auf Tools, Limits, Budgets und Policy-Entscheidungen vor der AusfĂŒhrung von Aktionen.

Wann das nötig ist: wenn der Agent Zugriff auf Tools, APIs hat oder reale Aktionen in Production ausfĂŒhrt.

Problem

Ohne governance wirkt ein Agent in Production oft "fast normal", bis ein Ausfall passiert. Er kann Tools vielfach aufrufen, Budget ohne Fortschritt verbrauchen und Aktionen ausfĂŒhren, die niemand explizit erlaubt hat.

Das GefĂ€hrlichste: Das ist nicht sofort sichtbar. Von außen lĂ€uft der Run noch, innen wachsen bereits Risiken, Kosten und Log-Rauschen. Ohne governance ist ein Agent eine unkontrollierte Schleife mit Tool-Zugriff.

Analogie: Das ist wie ein Autopilot im Auto ohne Geschwindigkeitslimit, Bremsen und Ereignisprotokoll. Solange die Straße gerade ist, wirkt alles gut. Wenn etwas schiefgeht, ist Stoppen und Verstehen deutlich schwerer.

Genau dafĂŒr braucht man governance: damit das System Grenzen vor dem Incident hat, nicht erst danach.

Lösung

Die Lösung ist, in die Runtime eine eigene Policy Layer einzubauen, die vor jeder Aktion eine technische Entscheidung trifft. Die Policy Layer trifft eine von drei Entscheidungen: allow, deny oder approval_required. Das ist ein separater System-Layer und nicht Teil von Prompt oder Modelllogik. Wie bei RBAC laufen diese PrĂŒfungen vor jeder Agentenaktion.

Governance ist das, was zwischen Agent und echten Aktionen steht. Mit anderen Worten: der Control Plane fĂŒr KI-Agenten.

👉 Governance zwingt den Agenten nicht zu "richtigem" Verhalten, sondern begrenzt, was er ĂŒberhaupt tun darf.

Umgesetzt wird das als Middleware / Policy Layer (zum Beispiel in LangGraph oder in einem eigenen Tool Gateway). In diesem Artikel ist die Policy Layer (Tool Gateway) die Komponente, die alle Tool-Aufrufe prĂŒft und steuert.

Governance != Safety

Das sind zwei verschiedene Kontroll-Ebenen:

  • Safety: ob der Agent die richtige Entscheidung vorschlĂ€gt.
  • Governance: ob der Agent diese Aktion in Runtime ausfĂŒhren darf.

Wenn Safety sich irrt, begrenzt Governance den Schaden trotzdem auf Runtime-Ebene.

Beispiel

Ein Support-Agent ohne governance kann durch Halluzination die Refund API dutzende Male aufrufen.

Mit governance:

  • max_tool_calls = 3
  • max_usd = 100 → der Agent stoppt beim Limit, nicht erst beim Geldverlust.

Governance stoppt den Incident auf AusfĂŒhrungsebene und verlĂ€sst sich nicht darauf, dass das Modell sich korrekt verhĂ€lt.

Kontroll-Ebenen (governance layers)

Diese Ebenen arbeiten bei jedem Agenten-Schritt zusammen.

EbeneWas sie kontrolliertWichtige MechanikenWarum
Access controlZugriff auf Aktionen und ToolsRBAC
allowlist / denylist
Wird vor jedem Tool call geprĂŒft und blockiert nicht erlaubte Aktionen
Execution controlAblauf der Run-AusfĂŒhrungmax_steps
rate limiting
Limits fĂŒr tool calls
Stoppt Schleifen und Tool-Spam
Cost controlKostenmax_tokens
max_tool_calls
max_usd
Begrenzt Budget und runaway-Kosten
Human controlEingriff durch Menschenhuman approval
kill switch
Ermöglicht BestÀtigung oder Not-Stopp
ObservabilitySichtbarkeit von Ereignissenaudit logs
traces
Metriken
alerts (Slack / PagerDuty)
Ermöglicht schnelles Erkennen und Untersuchen von Incidents
Lifecycle controlAgent-Updatesversioning
rollback
Ermöglicht sichere Releases und schnelles Rollback

Beispiel fĂŒr einen Alert:

Slack alert: 🛑 Agent Support-Bot hit max_usd limit ($100). Run stopped at step 12.

In Production sieht das meist wie ein Dashboard mit Metriken aus: runs, tool calls, cost, errors.

So sieht das in der Architektur aus

Agent governance wird zwischen Agent Runtime und Außenwelt eingebaut:

Kein Tool call wird ausgefĂŒhrt, ohne durch die Policy Layer zu gehen.

Die Policy Layer (Tool Gateway) agiert als Gateway / Middleware zwischen Runtime und Tools.

Jeder Tool-Aufruf geht durch:

  • Policy Layer -> Zugriff- und Limit-PrĂŒfung
  • Execution -> AusfĂŒhrung nur bei allow
  • Logs -> Eintrag in audit / trace

Minimaler Governance-Stack

  • allowlist (default deny) — begrenzt Tool-Zugriff
  • max_steps — stoppt Schleifen
  • Budgets — begrenzen Kosten
  • retry policy — verhindert Retry-Chaos
  • audit logs — ermöglichen Incident-Analyse
  • stop reasons — erklĂ€ren, warum der Agent gestoppt wurde
  • kill switch — erlaubt Not-Stopp wĂ€hrend eines Incidents

Das ist das Minimum, ohne das ein Agent kein Production-System ist.

Beispiel

Agent ruft ein Tool auf:

  • allowlist wird geprĂŒft
  • RBAC wird geprĂŒft
  • Budget wird geprĂŒft
  • Approval wird geprĂŒft

→ erst danach wird die Aktion ausgefĂŒhrt.

Minimaler Policy-Flow:

PYTHON
if not policy.allow(tool, args):
    return deny("tool_not_allowed")
if not limits.steps_ok():
    return stop("max_steps_exceeded")
if not budget.ok():
    return stop("budget_exceeded")
result = tool.execute(args)
audit.log(tool, args, result)
return result

Typische Fehler

  • sich nur auf Prompt verlassen statt auf Runtime-Kontrolle
  • keine zentrale Policy Layer
  • keine default-deny allowlist
  • keine Budgets und Limits
  • Retry-Logik ĂŒber mehrere Layer verteilt
  • fehlende audit logs
  • keine Möglichkeit, den Agenten zu stoppen

Als Ergebnis wirkt das System kontrolliert, ist es aber nicht.

Selbst-Check

Schneller Check vor Production-Start:

Fortschritt: 0/8

⚠ Grundlegende Governance-Kontrollen fehlen

Vor production brauchen Sie mindestens Zugriffskontrolle, Limits, audit logs und einen Not-Stopp.

FAQ

Q: Warum kann governance nicht durch einen einzigen System-Prompt ersetzt werden?
A: Der Prompt beschreibt gewĂŒnschtes Verhalten. Governance erzwingt reale Aktionsgrenzen in Runtime.

Q: Was ist das Minimum an governance vor Production?
A: Minimum: default-deny allowlist, Limits (max_steps, Budgets), stop reason, audit logs und kill switch. Ohne das bleibt der Agent unter Last unkontrolliert.

Q: Was zuerst einfĂŒhren: approval oder budgets?
A: Zuerst Runtime-Limits und Budgets, damit das Basisrisiko pro Run sofort begrenzt ist. Danach approval fĂŒr riskante und irreversible Aktionen (write-Operationen, FinanzĂ€nderungen, Datenlöschung).

Q: Reicht ein kill switch fĂŒr Sicherheit aus?
A: Nein. Kill switch ist die Notbremse, ersetzt aber keine dauerhafte Zugriffskontrolle, Budgets, rate limits und Auditierung von Aktionen.

Q: Wie wird kill switch technisch umgesetzt?
A: Meist als simples globales Flag (zum Beispiel in Redis), das die Policy Layer vor jedem Schritt prĂŒft und die AusfĂŒhrung stoppt.

Verwandte Seiten

Weiter zum Thema:

⏱ 6 Min. Lesezeit ‱ Aktualisiert 24. MĂ€rz 2026Schwierigkeit: ★★★
In OnceOnly umsetzen
Budgets + permissions you can enforce at the boundary.
In OnceOnly nutzen
# onceonly guardrails (concept)
version: 1
budgets:
  max_steps: 25
  max_tool_calls: 12
  max_seconds: 60
  max_usd: 1.00
policy:
  tool_allowlist:
    - search.read
    - http.get
writes:
  require_approval: true
  idempotency: true
controls:
  kill_switch: { enabled: true }
Integriert: Production ControlOnceOnly
Guardrails fĂŒr Tool-Calling-Agents
Shippe dieses Pattern mit Governance:
  • Budgets (Steps / Spend Caps)
  • Tool-Permissions (Allowlist / Blocklist)
  • Kill switch & Incident Stop
  • Idempotenz & Dedupe
  • Audit logs & Nachvollziehbarkeit
Integrierter Hinweis: OnceOnly ist eine Control-Layer fĂŒr Production-Agent-Systeme.

Autor

Nick — Engineer, der Infrastruktur fĂŒr KI-Agenten in Produktion aufbaut.

Fokus: Agent-Patterns, Failure-Modes, Runtime-Steuerung und SystemzuverlÀssigkeit.

🔗 GitHub: https://github.com/mykolademyanov


Redaktioneller Hinweis

Diese Dokumentation ist KI-gestĂŒtzt, mit menschlicher redaktioneller Verantwortung fĂŒr Genauigkeit, Klarheit und Produktionsrelevanz.

Der Inhalt basiert auf realen AusfÀllen, Post-Mortems und operativen VorfÀllen in produktiv eingesetzten KI-Agenten-Systemen.