← Todos los articulos

Los agentes necesitan superficies de supervisión

OpenAI ahora describe la app de Codex como un centro de mando para gestionar varios agentes, ejecutar trabajo en paralelo y supervisar equipos coordinados durante todo el ciclo de vida del software.1 La dirección del producto confirma el cambio de interfaz: el problema difícil ya no es “¿puede actuar el agente?”, sino “¿puede la persona supervisar esa acción a escala?”.

Los agentes necesitan superficies de supervisión: lugares donde una persona pueda ver el estado, revisar riesgos, aprobar herramientas sensibles, inspeccionar trazas, recuperarse de fallos y firmar el resultado con evidencia. Un mejor chat ayuda a expresar intención. Las superficies de supervisión gobiernan el trabajo.

Resumen breve

El chat sigue siendo útil para expresar intención. Falla como única superficie para el trabajo autónomo porque las ejecuciones de agentes incluyen llamadas a herramientas, permisos, trazas, memoria, ramas fallidas y afirmaciones de finalización. La documentación de Codex cloud de OpenAI describe tareas en segundo plano dentro de entornos aislados, monitoreo de progreso en tiempo real, citas de registros de terminal y evidencia de salida de pruebas.2 El SDK de Agents de OpenAI expone aprobaciones con intervención humana y trazas integradas para llamadas a herramientas, traspasos, barreras de protección y eventos personalizados.34 Los hooks de Claude Code de Anthropic exponen puntos del ciclo de vida como PreToolUse, PostToolUse, PermissionRequest y Stop.5

La lección de producto: la supervisión no es un modal al final. Es un conjunto de superficies que acompaña al agente mientras el trabajo ocurre.

Ideas clave

Para equipos de producto que crean agentes: - Construye una cola de supervisión antes de añadir otra mejora estética al chat. La cola debe mostrar ejecuciones bloqueadas, acciones riesgosas, evidencia obsoleta, verificaciones fallidas y artefactos listos para revisión. - Trata las aprobaciones, las trazas y la recuperación como UX principal. El usuario no debería reconstruir el estado de las herramientas a partir de una transcripción.

Para diseñadores de ingeniería: - Asigna una altitud a cada acción del agente: silenciosa, resumida, interruptiva o bloqueada. El trabajo de solo lectura no debería verse como una mutación en producción. - Diseña el objeto de revisión, no solo el mensaje. Un objeto de revisión contiene la carga útil de la herramienta, el motivo de riesgo, el diff, la evidencia y la siguiente acción.

Para equipos que adoptan agentes de programación: - Mide si un operador puede responder: qué se está ejecutando, qué está esperando, qué cambió, qué falló, qué necesita aprobación y qué sigue sin verificarse. - Usa el chat para delegar. Usa superficies de supervisión para asumir responsabilidad.

¿Qué es una superficie de supervisión?

Una superficie de supervisión es una interfaz de usuario para trabajo de agentes con responsabilidad verificable.

No intenta mostrar cada token. Muestra las partes que determinan si el agente debe continuar:

Superficie Pregunta del usuario
Cola de ejecuciones ¿Qué agentes necesitan atención?
Panel de estado ¿En qué fase está cada ejecución?
Cola de aprobaciones ¿Qué llamadas a herramientas necesitan una decisión humana?
Línea de tiempo de trazas ¿Qué pasó y en qué orden?
Panel de evidencia ¿Qué prueba el resultado?
Controles de recuperación ¿Cómo pauso, reanudo, reintento, bifurco o revierto?
Paquete de revisión ¿Qué puedo firmar, rechazar o devolver?

La diferencia frente al chat es el acceso aleatorio. El chat dice “lee toda la conversación”. Una superficie de supervisión dice “inspecciona la parte riesgosa y luego decide”.

Eso importa cuando una sola persona ejecuta varios agentes. Un agente individual puede seguir siendo conversacional durante un tiempo. Cinco agentes de larga duración se convierten en operaciones. La interfaz tiene que priorizar, resumir y dirigir la atención.

¿Por qué falla el chat como superficie operativa?

El chat falla porque tiene la forma equivocada para trabajo que se mueve.

El trabajo de agentes produce eventos: planes, búsquedas, lecturas de archivos, escrituras de archivos, comandos de shell, acciones de navegador, llamadas a API, ejecuciones de pruebas, caminos rechazados, reintentos fallidos y evidencia final. Una transcripción puede contener esos eventos, pero no puede organizarlos por riesgo, fase o responsabilidad.

El anuncio de la app de Codex de OpenAI nombra el cambio de forma directa. Los desarrolladores ahora delegan trabajo, ejecutan tareas en paralelo y supervisan agentes entre proyectos; las superficies anteriores de IDE y terminal no encajan con ese modo.1 Esa formulación importa porque supervisar requiere una disposición distinta a la de escribir prompts. El operador necesita un tablero, no una conversación interminable.

Las pautas de interacción humano-IA de Microsoft de 2019 todavía ofrecen el marco base de diseño: los sistemas de IA deben comunicar estado, permitir correcciones y manejar fallos a lo largo del tiempo de interacción.6 Los agentes vuelven operativas esas pautas antiguas. Estado ahora significa “¿qué llamada a herramienta está pendiente?”. Corrección ahora significa “rechaza y reanuda esta ejecución”. Fallo ahora significa “muestra el comando fallido, el supuesto que cambió y la ruta de reparación”.

El error es tratar la supervisión como fricción. La mala supervisión añade fricción. La buena supervisión reduce carga cognitiva porque pone la decisión en el lugar correcto.

¿Qué debería mostrar la cola de ejecuciones?

La cola de ejecuciones debe mostrar atención, no actividad.

Un feed de actividad le cuenta al usuario todo lo que pasó. Una cola de supervisión le dice qué necesita criterio. La cola puede comprimir la mayoría de los eventos en unos pocos estados:

Estado de ejecución Lo que necesita el operador
Planificación Objetivo, alcance, herramientas probables, criterios de aceptación
En acción Herramienta actual, destino, efecto secundario esperado
En espera Aprobación, credencial, dato faltante, bloqueo externo
Verificación Comando de prueba, revisión de fuentes, ruta renderizada, umbral de revisión
Reparación Verificación fallida, hipótesis modificada, siguiente reintento
Lista para revisión Artefacto, diff, evidencia, brechas pendientes
Bloqueada Motivo, responsable, opción de reinicio

La documentación de Codex cloud de OpenAI describe tareas que pueden ejecutarse en segundo plano, incluso en paralelo, dentro de sus propios entornos cloud.2 El trabajo paralelo en segundo plano cambia el modelo de atención. El usuario no debería revisar cada hilo manualmente. El sistema debería llevar el trabajo bloqueado, riesgoso y listo para revisión a un solo lugar.

La cola debe evitar falsas urgencias. Una verificación de lint fallida en una rama borrador y una discrepancia en un despliegue de producción no merecen el mismo peso visual. La interfaz debe reservar las interrupciones para acciones irreversibles, lanzamientos públicos, operaciones sensibles de seguridad y decisiones donde el agente no tiene suficiente contexto para continuar con responsabilidad.

¿Cómo deberían funcionar las aprobaciones?

Las aprobaciones deberían funcionar como una cola de objetos de revisión, no como una cadena de interrupciones modales.

El flujo con intervención humana del SDK de Agents de OpenAI pausa la ejecución hasta que una persona aprueba o rechaza llamadas sensibles a herramientas. La documentación describe las aprobaciones pendientes como interruptions, con RunState para serializar y reanudar después de las decisiones.3 La misma página señala que la aprobación aplica a herramientas de agentes anidadas y herramientas de MCP, no solo al agente principal actual.3

La documentación de hooks de Claude Code de Anthropic expone la misma forma de diseño desde otro ángulo. PreToolUse se ejecuta antes de una llamada a herramienta y puede bloquearla. PermissionRequest se activa cuando aparece un diálogo de permisos. PostToolUse y PostToolUseFailure se ejecutan después de herramientas exitosas o fallidas, y Stop se activa cuando Claude termina de responder.5

Esos primitivos apuntan a la superficie correcta:

Campo de aprobación Por qué pertenece a la UI
Nombre de la herramienta Identifica la clase de capacidad
Argumentos Muestra qué quiere hacer el agente
Destino Nombra archivo, base de datos, host, ruta, cuenta o rama
Nivel de riesgo Define el peso visual y procedimental
Motivo del agente Explica por qué la llamada pertenece al plan
Efecto secundario esperado Separa lectura, escritura, red, despliegue, gasto o eliminación
Decisión Aprobar una vez, aprobar siempre, rechazar, postergar, reescribir

La superficie de aprobación correcta deja pasar en silencio las lecturas de bajo riesgo, agrupa decisiones de riesgo medio e interrumpe para cambios de alto riesgo. El usuario no debería aprobar un comando de shell mientras lee un párrafo. Debería aprobar una operación tipada con suficiente contexto para seguir siendo responsable.

¿Qué debería probar una superficie de trazas?

Una superficie de trazas debería probar secuencia, causa y consecuencia.

La documentación de trazas del SDK de Agents de OpenAI dice que las trazas registran una ejecución a través de generaciones de LLM, llamadas a herramientas, traspasos, barreras de protección y eventos personalizados, y luego permiten depuración, visualización y monitoreo en desarrollo y producción.4 Esa descripción convierte la traza en un primitivo de producto, no solo en instrumentación para desarrolladores.

La traza de supervisión debe responder cinco preguntas:

Pregunta Detalle requerido de la traza
¿Qué vio el agente? Archivos, fuentes, prompts, contexto recuperado
¿Qué hizo? Llamadas a herramientas, argumentos, salidas, estados de salida
¿Qué cambió? Diffs, artefactos generados, estado externo
¿Por qué cambió de rumbo? Verificaciones fallidas, permisos denegados, nueva evidencia
¿Qué prueba la finalización? Comandos, enlaces de fuentes, rutas en vivo, estado de revisión

La traza no necesita razonamiento privado. Necesita evidencia operativa. Un usuario no necesita una cadena de pensamiento oculta para evaluar un lanzamiento. Necesita la salida del comando, el estado de la ruta, el estado de caché, las filas de D1, el umbral de traducción, las revisiones de fuentes y la brecha pendiente de revisión nativa.

Esa distinción protege tanto la confianza como el criterio. Mostrar demasiados internos convierte la interfaz en ruido. Mostrar demasiado poco convierte el producto en teatro.

¿Cómo debería encajar la recuperación en el flujo?

La recuperación debe estar junto al evento fallido.

Los sistemas de agentes fallan constantemente en el trabajo normal: un comando de instalación agota el tiempo de espera, un formateador cambia archivos no relacionados, una prueba rápida de navegador encuentra una caché obsoleta, un umbral de traducción rechaza un locale o un enlace de fuente devuelve 403 a un script. Una buena superficie de supervisión trata esos momentos como estados esperados.

Los controles de recuperación deben mantenerse concretos:

Control Uso responsable
Pausar Detener nuevos efectos secundarios preservando el estado
Reanudar Continuar después de una aprobación o corrección externa
Reintentar Repetir un paso fallido con una entrada modificada
Bifurcar Explorar un plan alternativo sin sobrescribir el primero
Revertir Deshacer cambios locales reversibles
Escalar Pedir revisión a una persona u otro agente
Cerrar con brecha Terminar solo con trabajo pendiente explícito

El anuncio de la app de Codex de OpenAI describe agentes que trabajan en copias aisladas del código para que los usuarios puedan explorar distintos caminos y traer cambios localmente mientras un agente continúa.1 Ese aislamiento ayuda a la recuperación, pero la interfaz todavía necesita mostrar qué camino ganó, cuál falló y qué trabajo sigue siendo inseguro para fusionar.

El producto nunca debería obligar al usuario a reconstruir la recuperación a partir de registros crudos. El paso fallido ya conoce su comando, directorio de trabajo, salida y destino. La superficie debe poner la siguiente acción responsable sobre ese evento.

¿Qué hace que una superficie de supervisión sea digna?

Una superficie de supervisión se vuelve digna cuando reduce trabajo sin reducir responsabilidad.

La versión fácil añade más paneles. La versión digna elimina dudas. El usuario debería obtener respuestas más rápidas a las preguntas que importan:

  • ¿Qué ejecución me necesita?
  • ¿Qué acción puede causar daño?
  • ¿Qué resultado tiene pruebas?
  • ¿Qué resultado solo tiene prosa?
  • ¿Qué rama debería sobrevivir?
  • ¿Qué brecha sigue sin resolverse?

El Marco de Gestión de Riesgos de IA de NIST plantea la confiabilidad como algo que los equipos incorporan en el diseño, desarrollo, uso y evaluación de productos y sistemas de IA.7 Las superficies de supervisión viven exactamente en esa intersección. Hacen que el diseño cargue con el riesgo operativo. Hacen que el uso produzca evidencia. Hacen que la evaluación sea visible antes de que el usuario firme.

MCP amplía esa misma responsabilidad. El Model Context Protocol conecta aplicaciones de IA con fuentes de datos, herramientas y flujos de trabajo externos para que los agentes puedan acceder a información y realizar tareas.8 Más herramientas conectadas significan una superficie de acción más grande. Las superficies de acción más grandes requieren mejor supervisión, no más fe.

El estándar de diseño debe mantenerse simple: un producto de agentes no debería maximizar el movimiento autónomo. Debería maximizar el progreso responsable.

¿Cómo empiezas a construir una?

Empieza con la superficie de supervisión útil más pequeña:

  1. Lista de ejecuciones: una fila por agente activo, con fase, antigüedad, bloqueo y siguiente decisión.
  2. Cola de aprobaciones: un objeto por cada llamada sensible a herramienta, con argumentos, destino, riesgo y controles para aprobar, rechazar o postergar.
  3. Tabla de trazas: una fila por evento significativo, filtrable por lectura, escritura, shell, navegador, fuente, prueba, despliegue y revisión.
  4. Panel de evidencia: una tabla que conecte cada afirmación final con su prueba.
  5. Menú de recuperación: pausar, reanudar, reintentar, bifurcar y cerrar con brecha desde el evento que falló.

La primera versión puede verse aburrida. Tablas, filtros, insignias y filas expandibles superan a una transcripción elegante que oculta el riesgo. El problema de criterio viene después de que la arquitectura de información sea honesta: reduce el ruido, reserva el color de advertencia, agrupa eventos de bajo riesgo, expone cargas útiles de alto riesgo y mantiene la firma final ligada a pruebas.

El diseño agéntico es diseño de superficies de control. La interfaz del agente es la capa operativa. HTML puede preservar la información espacial que Markdown pierde. Las superficies de supervisión combinan esos marcos: convierten el trabajo autónomo en operaciones inspeccionables, espaciales y responsables.

Resumen rápido

Los agentes no necesitan una mejor transcripción tanto como necesitan superficies de supervisión. Una interfaz seria para agentes necesita una cola de ejecuciones, una cola de aprobaciones, una línea de tiempo de trazas, un panel de evidencia y controles de recuperación. La documentación de OpenAI, Anthropic, Microsoft, NIST y MCP apunta hacia la misma forma de producto: los sistemas autónomos necesitan estado visible, gobierno de herramientas, trazas revisables y decisiones humanas en la altitud correcta.1345678

El chat puede quedarse como carril de delegación. La supervisión tiene que convertirse en la superficie de trabajo.

FAQ

¿Qué es una superficie de supervisión de agentes?

Una superficie de supervisión de agentes es una UI para monitorear y controlar trabajo autónomo de agentes. Muestra el estado de las ejecuciones, aprobaciones pendientes, trazas de herramientas, evidencia, fallos y controles de recuperación. El chat recoge la intención. Una superficie de supervisión ayuda al operador a decidir qué puede hacer después el agente y si el resultado merece firma.

¿Por qué el chat no basta para los agentes de IA?

El chat es secuencial y solo permite añadir al final. El trabajo de agentes necesita acceso aleatorio a estado, riesgo, aprobaciones, trazas, diffs, salida de pruebas y brechas sin resolver. Una transcripción puede registrar esos eventos, pero no puede priorizarlos por riesgo ni dirigir la atención humana entre agentes paralelos.

¿Qué deberían construir primero los equipos?

Los equipos deberían construir primero una cola de ejecuciones y una cola de aprobaciones. Esas dos superficies revelan de inmediato el trabajo bloqueado y las acciones sensibles. Después, añade una tabla de trazas, porque la evidencia, la recuperación y la revisión final dependen del registro de eventos.

¿En qué se diferencia una superficie de supervisión de la observabilidad?

La observabilidad ayuda a los constructores a depurar el sistema. La supervisión ayuda a los operadores a gobernar el trabajo mientras ocurre. Ambas comparten datos, pero sirven a usuarios distintos. Una traza de producción puede alimentar tanto una vista de depuración para desarrolladores como una superficie de aprobación humana.

¿Todos los agentes necesitan aprobación humana?

No. Todo agente necesita supervisión calibrada. Las lecturas de bajo riesgo pueden ejecutarse en silencio. Los cambios de riesgo medio pueden agruparse para revisión. Las acciones de alto riesgo deberían pausarse para aprobación. Los lanzamientos públicos, comandos destructivos, acciones que afectan a clientes y movimientos de dinero merecen umbrales más fuertes.


Referencias


  1. OpenAI, “Introducing the Codex app,” OpenAI, 2 de febrero de 2026, actualizado el 4 de marzo de 2026. Fuente para la app de Codex como centro de mando multiagente, flujos de trabajo paralelos con agentes, copias aisladas de código, skills, Automations, colas de revisión, aislamiento, solicitudes de permisos y marco de supervisión. 

  2. OpenAI, “Codex web,” OpenAI Developers. Fuente para Codex como agente de programación que puede leer, editar y ejecutar código en tareas cloud en segundo plano, incluido trabajo paralelo en su propio entorno cloud. 

  3. OpenAI, “Human-in-the-loop,” SDK de Agents de OpenAI. Fuente para flujos de aprobación que pausan la ejecución, devuelven aprobaciones pendientes como interrupciones, serializan y reanudan RunState, y admiten aprobaciones en function tools, shell tools, apply-patch tools, servidores MCP, herramientas MCP alojadas y herramientas de agentes anidadas. 

  4. OpenAI, “Tracing,” SDK de Agents de OpenAI. Fuente para trazas integradas de generaciones de LLM, llamadas a herramientas, traspasos, barreras de protección, eventos personalizados, trazas, spans y monitoreo en desarrollo o producción. 

  5. Anthropic, “Hooks reference,” Docs de Claude Code. Fuente para hooks de ciclo de vida de Claude Code, incluidos PreToolUse, PermissionRequest, PostToolUse, PostToolUseFailure, PostToolBatch, eventos de subagentes y Stop

  6. Saleema Amershi et al., “Guidelines for Human-AI Interaction,” Microsoft Research, CHI 2019. Fuente para las 18 pautas de interacción humano-IA de aplicación general y el estudio de validación con 49 profesionales. 

  7. National Institute of Standards and Technology, “AI Risk Management Framework,” NIST. Fuente para incorporar consideraciones de confiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y sistemas de IA. 

  8. Model Context Protocol, “What is the Model Context Protocol?” Fuente para MCP como estándar open-source que conecta aplicaciones de IA con sistemas externos, incluidos archivos locales, bases de datos, herramientas y flujos de trabajo. 

Artículos relacionados

La interfaz del agente es el arnés

El diseño de interfaces para agentes es la capa operativa: permisos, memoria, trazas, evidencia, recuperación y criterio…

11 min de lectura

El diseño agéntico es diseño de superficies de control

El diseño agéntico no es un cuadro de chat más bonito. Es la superficie de control que vuelve al software autónomo visib…

13 min de lectura

El Bucle Ralph: Cómo ejecuto agentes de IA autónomos durante la noche

Construí un sistema de agentes autónomos con stop hooks, presupuestos de generación y memoria en el sistema de archivos.…

10 min de lectura