BLOG | ESCRITÓRIO DO DIRETOR DE TECNOLOGIA

Entendendo os agentes de IA: Estrutura, comportamento e definição de limites

Miniatura de Lori MacVittie
Lori MacVittie
Publicado em 21 de agosto de 2025

Algumas pessoas confundem LLMs com agentes de IA. Vamos esclarecer isso, certo? Embora alguns estejam "expandindo" chatbots para executar ferramentas e chamá-los de agentes de IA, essa é uma abordagem pouco desenvolvida se você quer usar agentes para automação avançada. E você quer, pois sabe que esse é um dos usos mais valiosos para enfrentar a fadiga operacional crescente provocada pela complexidade da nuvem híbrida e do ecossistema multinuvem.

Um agente de IA deve ser um sistema limitado a uma unidade de software (uma aplicação) que interpreta objetivos, mantém o contexto e executa ações utilizando ferramentas. Ele pode usar um grande modelo de linguagem (LLM) para decidir o que precisa ser feito, mas o LLM é apenas uma parte do sistema. O agente constitui o sistema.

Na prática, um agente de IA recebe uma tarefa (explícita ou inferida), avalia dentro de um contexto e decide como agir. Ele pode chamar ferramentas, consultar sistemas ou iniciar fluxos de trabalho.

Agora, você não precisa de vários agentes para obter valor de apenas um. Um único agente bem definido, integrado a uma cadeia de ferramentas eficiente, já é suficiente para realizar tarefas importantes hoje. Ele pode automatizar resumos, produzir relatórios, classificar tickets ou ainda direcionar alertas para as filas corretas. Quando respeita o escopo e a política, este agente já gera valor real.

Você pode usar agentes de IA sem fazer IA agêntica. Mas assim que os agentes começam a colaborar, você está fazendo IA agêntica, mesmo que sua arquitetura não esteja preparada para isso.

Com base em nossa pesquisa mais recente, presumo que você já esteja lidando com comportamento de agente (9% dos entrevistados) ou se encaminhe para isso (79% dos entrevistados). A IA ágena exige uma estrutura voltada para execução controlada, onde múltiplos agentes (sim, “asseclas”, porque assim fica mais fácil distinguir da IA ágena) interagem com ferramentas compartilhadas, metas contextuais e camadas de aplicação de políticas virtuais, como o MCP.

O que é um agente?

Um agente é um componente de software que opera de forma autônoma ou semi-autônoma dentro de limites bem definidos. Ele interpreta tarefas, gerencia contextos, utiliza ferramentas e toma decisões em nome de um usuário ou de um sistema maior. Nas arquiteturas alinhadas ao MCP, agentes seguem um protocolo estruturado que regula a interação entre tarefas, estado e políticas.

Os agentes podem raciocinar, delegar e agir — mas apenas dentro da área restrita concedida a eles. Eles não improvisam chamadas de sistema. Eles não criam acesso às ferramentas. Cada ação deve passar por uma interface declarativa que você pode proteger, monitorar e revogar.

No mínimo, um agente conta com:

  1. Manipulador de contexto – Acompanha o estado, os objetivos e a memória (curto prazo ou persistente)
  2. Mecanismo de raciocínio – Normalmente, um LLM ou planejador simbólico que interpreta tarefas e elabora o plano de execução
  3. Interface da ferramenta – Traduza a intenção em ações; define quais operações o agente pode executar
  4. Limite de segurança – Define o que o agente pode fazer e em qual âmbito
  5. Camada de transporte – Transfere mensagens e contexto, geralmente usando MCP, HTTP ou um barramento de eventos

Um LLM reflete. Um agente executa. A plataforma controle.

Modelos de criação de agentes

Existem dois modelos principais, e um deles representa uma cilada.

Figura 1 Existem duas abordagens principais para construir agentes de IA atualmente: Focada em LLM e limitada pela aplicação. A abordagem focada em LLM funciona bem para chatbots, mas não para casos de automação mais complexos.

1. Agentes centrados em LLM (monolíticos)

Esse é o padrão adotado pela maioria dos frameworks atualmente: LangChain, AutoGen, CrewAI, entre outros. O agente funciona como um prompt de conversa com ferramentas integradas e memória opcional, tudo dentro de uma única sessão LLM.

  • Protótipo rápido
  • Fácil de testar
  • Não seguro para expandir

Limitações:

  • Sem arquitetura persistente
  • Sem aplicação de políticas nativas
  • O modelo pode facilmente inventar chamadas de ferramentas ou ignorar restrições
  • Sem visibilidade além dos registros de token, a menos que seja ampliada

Em resumo: é um estagiário esperto com acesso root e sem supervisão. Funciona perfeitamente, até o dia em que para de funcionar.

2. Agentes ligados ao aplicativo (modulares)

Esse é o modelo ideal para sua produção.

Aqui, o agente é um serviço completo de software construído sobre uma estrutura que usa um LLM, mas não depende dele para executar as tarefas.

  • O estado está armazenado externamente (Redis, bancos de dados vetoriais, mecanismos de políticas)
  • Você controla e gerencia explicitamente o uso da ferramenta por meio de uma camada de controle (servidor MCP, proxy de gateway)
  • Segurança e observabilidade são prioridades, não Pensadas depois
  • O agente é um serviço em execução, não um prompt

Essa abordagem oferece controle de versões, registros de acesso, governança por ferramenta e isolamento em tempo de execução. Assim, você transforma agentes de simples ferramentas em parte da infraestrutura.

Agentes não representam personas

Quando projetamos agentes como se fossem personas inteligentes, acabamos adotando instintivamente modelos de acesso centrados em pessoas: controle de acesso baseado em função (RBAC), tokens de login, atributos de usuário, escopos de identidade. Esses modelos funcionam quando você lida com uma identidade humana consistente durante uma sessão. Mas agentes não agem dessa forma. Eles não são usuários. Eles são executores. E isso muda tudo.

Os agentes mudam de função enquanto operam. Um agente pode atuar como coletor de dados, depois como planejador, e depois como disparador para automação, tudo na mesma sessão e dentro da mesma tarefa. Ele não faz login, pega um token fixo e segue um único caminho.

É aí que o controle de acesso tradicional falha. O RBAC parte do princípio de que os papéis são estáticos. O controle de acesso baseado em atributos (ABAC) parte do princípio de atributos fixos. Tokens de sessão supõem escopo constante. Nada disso funciona quando os agentes são dinâmicos. Em sistemas agentivos, a identidade é funcional, não pessoal.

Por isso, ao gerenciar agentes, você precisa mudar de política baseada em identidade para política baseada na execução. Cada chamada de ferramenta deve ser validada em tempo real conforme o papel da tarefa atual do agente, o estado do contexto e o escopo permitido. As políticas ficam na camada da ferramenta, não na camada de autenticação. Blocos de contexto, não sessões de login, carregam os metadados necessários para aplicar essas políticas. Por isso chamamos essa mudança de paradigma de “Política na Carga Útil”, pois a política está literalmente na carga útil.

Trate os agentes como agentes. Governe-os como software. E nunca se esqueça: o LLM pensa, o agente age e a plataforma governa. Misturar esses papéis significa criar uma personalidade com direitos administrativos sem memória do último erro.

O LLM pensa. O agente atua. A plataforma governa.

Siga isso e você construirá uma infraestrutura de agentes que escala, protege e resiste ao teste da realidade.