A interface do agente é a estrutura de execução
A OpenAI descreve o Codex como um agente de engenharia de software na nuvem capaz de ler arquivos, editar arquivos e executar testes em um ambiente isolado; a Anthropic documenta ganchos que podem inspecionar e negar chamadas de ferramenta antes que elas sejam executadas.43 Esses não são detalhes laterais. Eles são o produto.
A caixa de prompt chama atenção porque parece ser a interface. Mas a verdadeira interface do agente fica ao redor do prompt: acesso a ferramentas, regras de permissão, carregamento de memória, captura de rastreamento, requisitos de evidência, controles de recuperação e barreiras de publicação. É essa camada que determina como o agente se comporta depois que o usuário para de digitar.
Um produto com agentes não se torna confiável porque tem um placeholder melhor. Ele se torna confiável quando a superfície ao redor do modelo transforma intenção em trabalho governado.
Resumo rápido
A interface do agente é a camada operacional. O chat pode coletar intenção, mas a superfície ao redor decide o que o agente pode ver, o que pode fazer, o que precisa provar e quando uma pessoa precisa intervir. A Microsoft enquadrou a interação humano-IA como comportamento ao longo do tempo, e o NIST trata confiabilidade como algo que as equipes incorporam ao design, ao desenvolvimento, ao uso e à avaliação.12
Isso significa que a UX de agentes não pode parar no design de conversa. A interface precisa codificar autoridade, memória, limites de ferramentas, evidências e julgamento. Se a interface não carregar essas restrições, o agente vai improvisá-las.
Design agentivo é design de superfície de controle dá nome à superfície visível. A estrutura abaixo dá nome à camada operacional por trás dela.
Principais aprendizados
Para equipes de produto: - Trate a caixa de prompt como a superfície de entrada, não como a superfície operacional. - Projete os caminhos de permissão, rastreamento, memória, evidência e recuperação do agente antes de polir o chat.
Para engenheiros de design: - Coloque regras de qualidade onde o agente age: antes das chamadas de ferramenta, depois das edições, antes da publicação e no encerramento. - Torne o estado invisível inspecionável o bastante para que uma pessoa continue responsável pelo resultado.
Para equipes adotando agentes: - Pergunte se a interface revela o que o agente viu, mudou, pulou e verificou. - Não aceite uma resposta final fluente como prova de trabalho governado.
A interface decide o que o agente pode se tornar
Toda sessão de agente começa com uma intenção do usuário, mas a intenção sozinha não determina o comportamento.
O comportamento do agente também depende de:
| Camada da interface | Efeito no comportamento |
|---|---|
| Ferramentas | Define as ações que o agente pode executar |
| Permissões | Define quando o agente precisa parar ou perguntar |
| Memória | Define qual contexto anterior molda a execução |
| Rastreamento | Define o que uma revisão posterior pode inspecionar |
| Evidência | Define o que conta como concluído |
| Recuperação | Define como a falha continua reversível |
| Julgamento | Define o que o sistema deve recusar |
Essas camadas mudam o trabalho tanto quanto o modelo. O mesmo modelo se comporta de formas diferentes quando pode executar testes, quando só pode editar arquivos, quando encontra uma barreira de publicação, quando precisa citar fontes ou quando uma barreira de parada bloqueia uma conclusão prematura.
A equipe de produto que trata essas camadas como “configurações” não entende o meio. Configurações ficam fora do trabalho. As camadas da interface do agente moldam o próprio trabalho.
As diretrizes de interação humano-IA da Microsoft trazem um ponto antigo e útil: sistemas de IA precisam comunicar status, permitir correção e responder a falhas ao longo da interação.1 Agentes tornam esse requisito mais forte porque o sistema pode agir entre as falas do usuário. A interface não pode mais dizer apenas: “O modelo respondeu.” Ela precisa dizer: “O sistema agiu sob estas restrições.”
Acesso a ferramentas é design de interface
Acesso a ferramentas parece técnico. Também é UX.
Um agente que só consegue responder a partir da memória tem um tipo de interface. Um agente que consegue pesquisar arquivos tem outro. Um agente que consegue executar comandos de shell, editar código, abrir navegadores, chamar APIs e publicar software precisa de um contrato diferente com o usuário.
O Model Context Protocol descreve um padrão comum: aplicações de IA se conectam a sistemas externos, como arquivos locais, bancos de dados, ferramentas e fluxos de trabalho.5 Essa conexão amplia a capacidade, mas capacidade sozinha não é qualidade. Cada nova ferramenta acrescenta uma pergunta que a interface precisa responder:
| Pergunta sobre a ferramenta | Requisito da interface |
|---|---|
| No que o agente pode tocar? | Escopo e limite de permissão |
| O que o agente enviou? | Carga enviada à ferramenta, em formato inspecionável |
| O que voltou? | Registro de saída, erro e efeito colateral |
| O que mudou? | Diff, artefato ou resumo de estado |
| Quem aprovou? | Registro de permissão |
| Dá para reverter? | Caminho de recuperação |
Uma lista de ferramentas escondida na configuração não consegue carregar esse peso. O usuário precisa de uma superfície que torne a autoridade das ferramentas legível enquanto o trabalho acontece.
O gancho PreToolUse da Claude Code mostra o primitivo. Um gancho pode receber o nome da ferramenta e a entrada antes da execução, e então permitir, negar, perguntar, adiar ou modificar a chamada.3 Esse mecanismo pertence ao modelo mental do design de interfaces de agentes. A interface deve expor o mesmo ponto de decisão ao usuário no nível certo.
Leituras de baixo risco podem passar em silêncio. Comandos de shell destrutivos precisam de mais atrito. Publicações públicas precisam de uma barreira final. Mudanças com impacto em clientes precisam de auditoria. A interface certa não pede aprovação para tudo. A interface certa dá a cada ação o grau de cerimônia que ela merece.
Memória faz parte do produto
A memória costuma entrar em produtos com agentes como infraestrutura: janelas de contexto, arquivos, resumos, bancos vetoriais, caches, instruções de projeto e sistemas de recuperação. O usuário sente esses sistemas como comportamento do produto.
Quando um agente lembra o padrão de design, o produto parece coerente. Quando um agente esquece uma restrição de 40 minutos atrás, o produto parece descuidado. Quando um agente recupera uma orientação desatualizada, o produto parece preso a uma decisão antiga.
A memória precisa de interface porque memória muda responsabilidade. O usuário não consegue supervisionar o que não consegue inspecionar.
A interface deve separar pelo menos 4 estados de memória:
| Estado da memória | Significado para o usuário |
|---|---|
| Ativa | O agente pode usá-la agora |
| Disponível | O agente pode recuperá-la se necessário |
| Compactada | O sistema a resumiu e talvez tenha perdido detalhes |
| Desatualizada | O sistema tem um registro, mas a confiança deve cair |
Sem essa distinção, o usuário precisa inferir a qualidade da memória pelo comportamento do agente. Isso está invertido. A interface deve revelar estado de memória suficiente para que o usuário intervenha antes que o agente construa em cima da premissa errada.
O mesmo vale para a filosofia pessoal ou da equipe. Uma doutrina de qualidade escondida em um prompt pode ou não sobreviver a uma sessão longa. Uma doutrina codificada em skills, ganchos, modelos, verificações e barreiras de conclusão tem mais superfície. O modelo ainda pode errar. A camada operacional consegue pegar mais erros porque a regra vive onde o trabalho acontece.
Evidência transforma saída em trabalho
A resposta final é a unidade de prova mais fraca em uma sessão de agente.
Uma resposta final pode dizer que os testes passaram quando nenhum teste rodou. Pode dizer que as citações foram verificadas quando a fonte não sustenta a afirmação. Pode dizer que a publicação deu certo enquanto a rota pública retorna 404 por causa do cache. Prosa fluente pode esconder falha.
A evidência precisa virar uma superfície. O usuário deve ver a afirmação, o suporte e a lacuna:
| Tipo de afirmação | Evidência necessária |
|---|---|
| Código alterado | Caminhos de arquivos e diffs |
| Testes passaram | Comando, status de saída e saída relevante |
| Conteúdo está correto | Links de fontes e alinhamento entre afirmação e fonte |
| Caminho de SEO funciona | Metadados renderizados, schema e arquivos de descoberta |
| Publicação concluída | Status da rota ao vivo e estado do cache |
| Tradução pronta | Validação local, linhas no D1, páginas ao vivo e status de revisão |
Essa superfície de evidência muda o comportamento do agente. Quando o sistema sabe que a conclusão exige evidência, o agente busca prova durante a tarefa em vez de escrever um resumo confiante no fim.
A barreira de evidência existe por esse motivo. Ela força o agente a conectar afirmações a comportamento observado. Rastreamentos de execução do agente são o contrato do ambiente de execução aprofunda o mesmo argumento: o rastreamento carrega mais verdade do que a resposta final porque preserva o caminho.
O AI Risk Management Framework do NIST importa aqui porque a confiabilidade entra no design, no desenvolvimento, no uso e na avaliação, não apenas na escolha do modelo.2 Evidência é onde essas fases encontram a tela do usuário.
Recuperação pertence ao fluxo principal
Interfaces de agentes costumam tratar falha como exceção. O trabalho com agentes torna falha algo rotineiro.
Uma consulta de busca não encontra nada. Um teste falha. Uma barreira de permissão bloqueia. Uma verificação de tradução encontra uma diferença de formatação. Uma publicação passa, mas uma CDN serve HTML desatualizado. Uma boa interface não entra em pânico nesses estados. Uma boa interface torna a recuperação óbvia.
Recuperação exige 5 controles:
| Controle | Finalidade |
|---|---|
| Pausar | Parar o movimento sem perder estado |
| Retomar | Continuar depois de revisão ou correção externa |
| Tentar novamente | Repetir uma etapa com falha usando entradas alteradas |
| Bifurcar | Explorar um caminho alternativo sem sobrescrever o primeiro |
| Reverter | Desfazer trabalho reversível ou marcar trabalho irreversível para reparo |
O caminho de recuperação deve ficar perto das superfícies de rastreamento e evidência. O usuário não deveria precisar copiar um comando com falha de uma transcrição, inferir o diretório de trabalho e reconstruir manualmente o estado do agente. A interface já conhece a etapa que falhou. Ela deve oferecer a próxima ação responsável.
Esse princípio também vale para trabalho de conteúdo. Quando uma barreira de qualidade de tradução falha, a interface deve mostrar o locale com falha, o segmento com falha, o motivo e o caminho de reparo. Quando uma página pública falha na verificação ao vivo, a interface deve mostrar se a falha veio do app, do banco de dados ou do cache de borda servindo saída desatualizada. O agente não deve chamar uma publicação de concluída até o caminho visível ao usuário funcionar.
Julgamento não é um prompt
IA para programação torna a implementação mais barata. Implementação mais barata aumenta o valor do julgamento.
A pergunta importante muda de “o agente consegue fazer algo?” para “esta versão deveria existir?”. Essa pergunta pertence tanto à interface quanto ao revisor humano.
Julgamento aparece como restrições:
- remova a etapa desnecessária;
- recuse o caminho esperto que enfraquece o produto;
- preserve a consistência entre artefatos;
- verifique o caminho público em vez de comemorar sucesso local;
- proteja a maquinaria privada do texto público;
- escolha a solução menor, mais precisa, em vez da mais carregada.
Um agente pode receber esses valores em prosa. Prosa ajuda. Só prosa não garante comportamento. Os valores precisam de formas operacionais: uma skill de blog que bloqueia frases preguiçosas, um verificador de citações que rejeita afirmações sem suporte, um verificador de publicação que checa páginas ao vivo, uma barreira de parada que recusa conclusão sem evidência e regras de design que impedem deriva visual.
A interface é onde o julgamento se torna inspecionável. O usuário vê o que o sistema recusou, o que simplificou, o que verificou e o que deixou sem prova. Esse registro importa porque a saída de agentes só vai ficar mais barata. O que será escasso é o padrão que decide o que sobrevive.
Um mapa prático da interface de agentes
Equipes podem começar com um mapa simples. Não é preciso um painel futurista.
| Superfície | Versão mínima viável |
|---|---|
| Entrada de intenção | Prompt, tipo de tarefa, escopo de repositório ou área de trabalho |
| Plano | Premissas, ferramentas pretendidas, critérios de aceitação |
| Permissão | Fila por nível de risco com cargas completas |
| Memória | Instruções ativas, arquivos carregados, avisos de desatualização |
| Rastreamento | Linha do tempo de chamadas de ferramenta, saídas e efeitos colaterais |
| Evidência | Afirmações mapeadas a comandos, arquivos, fontes ou lacunas |
| Recuperação | Pausar, tentar novamente, bifurcar, reverter, cancelar |
| Publicação | Rota visível ao usuário, schema, descoberta, tradução, cache |
| Julgamento | Recusas, simplificações, padrões e dignidade final |
O mapa funciona porque cada superfície responde a uma responsabilidade do usuário. O usuário não precisa de todo evento bruto. Ele precisa de visibilidade e controle suficientes para continuar responsável pelo resultado.
Essa distinção evita 2 erros comuns. Um erro esconde tudo atrás do chat e chama o resultado de mágica. O outro expõe todo evento interno e chama o resultado de transparente. Um bom design de interface de agentes não faz nenhum dos dois. Ele dá ao operador o controle certo no momento certo.
Resumo
A interface do agente é a camada operacional. O prompt coleta intenção, mas ferramentas, permissões, memória, rastreamentos, evidências, recuperação e julgamento determinam o que realmente acontece. O Codex da OpenAI e os ganchos da Claude Code mostram a direção: produtos com agentes já incluem ambientes de execução, chamadas de ferramenta e pontos de decisão de política.43 O MCP amplia a conexão entre agentes e sistemas externos.5 O NIST e a Microsoft fornecem o enquadramento mais antigo de confiança e design humano-IA.21
A pergunta de produto não é mais se o agente consegue responder. A pergunta de produto é se a superfície ao redor governa o trabalho autônomo bem o bastante para uma pessoa confiar, inspecionar, interromper, reparar e assinar o resultado.
FAQ
O que significa “a interface é a estrutura de execução”?
A frase significa que a interface faz mais do que exibir a saída do agente. Ela define a camada operacional ao redor do modelo: ferramentas, permissões, memória, rastreamentos, evidências, recuperação e padrões. Essas partes moldam o comportamento antes da resposta final aparecer.
Uma interface de chat ainda funciona para agentes?
Chat pode funcionar como superfície de entrada e como trilha leve de revisão. Ele falha quando vira a única superfície operacional. Trabalho com agentes precisa de acesso aleatório, revisão de permissões, inspeção de rastreamento, visibilidade de memória e controles de recuperação.
Qual é a diferença em relação a prompt engineering?
Prompt engineering molda instrução. Design de interface molda autoridade, estado e responsabilidade. Um prompt pode mandar um agente verificar o trabalho. Uma superfície de publicação pode exigir evidência da rota ao vivo antes que a tarefa seja encerrada.
O que uma equipe deve construir primeiro?
Construa primeiro as superfícies de rastreamento e evidência. O rastreamento mostra o que aconteceu. A superfície de evidência mostra o que prova o resultado. Permissões, recuperação e memória ficam mais fáceis de projetar quando a equipe consegue inspecionar o caminho do trabalho.
Referências
-
Saleema Amershi et al., “Guidelines for Human-AI Interaction,” Microsoft Research, CHI 2019. Fonte primária das 18 diretrizes de interação humano-IA validadas com 49 profissionais de design. ↩↩↩
-
National Institute of Standards and Technology, “AI Risk Management Framework,” NIST. Fonte para o propósito voluntário de gestão de risco do framework e seu enquadramento de design, desenvolvimento, uso e avaliação. ↩↩↩
-
Anthropic, “Hooks reference,” Claude Code Docs. Fonte para eventos de gancho, campos de entrada de
PreToolUsee controle de decisão que pode permitir, negar, perguntar, adiar ou modificar chamadas de ferramenta antes da execução. ↩↩↩ -
OpenAI, “Introducing Codex,” OpenAI, maio de 2025. Fonte para Codex como agente de engenharia de software na nuvem, suas tarefas independentes em sandbox e sua capacidade de ler arquivos, editar arquivos e executar comandos. ↩↩
-
Model Context Protocol, “What is the Model Context Protocol?” Fonte para MCP como um padrão aberto que conecta aplicações de IA a sistemas externos, como fontes de dados, ferramentas e fluxos de trabalho. ↩↩