Audit logs para agentes de IA: qué registrar para auditoría e investigación
Eventos clave que debes guardar en audit logs: llamadas de herramientas, approvals, decisiones de policy, stop reasons y trazabilidad sin fuga de datos sensibles.
⏱️ 1 min de lectura • Actualizado 24 de marzo de 2026Dificultad: ★★★
Usado por patrones
Fallos relacionados
- Bucle infinito de agente: cuando un agente de IA no se detiene
- Explosión de presupuesto: cuando los costos del agente se disparan
- Tool spam: cuando los agentes usan herramientas demasiadas veces
- Uso excesivo de tokens: cuando los agentes gastan demasiados tokens
- Corrupción de respuestas: cuando las salidas del agente se rompen
Gobernanza requerida
- AI Agent Tool Permissions (Con código)
- Control de presupuesto para agentes de IA: cómo limitar costos en runtime
- Kill switch para agentes de IA: cómo detener acciones de emergencia sin release
- Human Approval para agentes de IA: cómo controlar de forma segura las acciones write
- Step limits para agentes de IA: cómo detener bucles antes de un incidente
Implementar en OnceOnly
Budgets + permissions you can enforce at the boundary.
# onceonly guardrails (concept)
version: 1
budgets:
max_steps: 25
max_tool_calls: 12
max_seconds: 60
max_usd: 1.00
policy:
tool_allowlist:
- search.read
- http.get
writes:
require_approval: true
idempotency: true
controls:
kill_switch: { enabled: true }
Integrado: control en producciónOnceOnly
Guardrails para agentes con tool-calling
Lleva este patrón a producción con gobernanza:
- Presupuestos (pasos / topes de gasto)
- Permisos de herramientas (allowlist / blocklist)
- Kill switch y parada por incidente
- Idempotencia y dedupe
- Audit logs y trazabilidad
Mención integrada: OnceOnly es una capa de control para sistemas de agentes en producción.
Autor
Nick — ingeniero que construye infraestructura para agentes de IA en producción.
Enfoque: patrones de agentes, modos de fallo, control del runtime y fiabilidad del sistema.
🔗 GitHub: https://github.com/mykolademyanov
Nota editorial
Esta documentación está asistida por IA, con responsabilidad editorial humana sobre la exactitud, la claridad y la relevancia en producción.
El contenido se basa en fallos reales, post-mortems e incidentes operativos en sistemas de agentes de IA desplegados.