

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Agentes de software para agenciar a IA
<a name="new-generation"></a>

Agentes de software são entidades digitais autônomas projetadas para perceber seu ambiente, raciocinar sobre seus objetivos e agir de acordo. Diferentemente dos programas de software tradicionais que seguem uma lógica fixa, os agentes adaptam seu comportamento com base em entradas contextuais e estruturas de decisão. Isso os torna ideais para ambientes dinâmicos e distribuídos, como sistemas nativos da nuvem, robótica, automação inteligente e, agora, orquestração generativa de IA.

Esta seção apresenta os principais componentes dos agentes de software e explica como esses componentes interagem nas arquiteturas tradicionais com base no modelo de perceber, raciocinar e agir. Ele discute como a IA generativa, particularmente os grandes modelos de linguagem (LLMs), transformou a forma como os agentes de software raciocinam e planejam. Isso marca uma mudança fundamental dos sistemas baseados em regras para a inteligência aprendida e orientada por dados da IA agente.

**Topics**
+ [Principais componentes dos agentes de software](core-modules.md)
+ [Arquitetura tradicional de agentes: perceber, raciocinar, agir](traditional-agents.md)
+ [Agentes generativos de IA: substituindo a lógica simbólica por LLMs](generative-ai-agents.md)
+ [Comparando a IA tradicional com agentes de software e IA agente](comparison.md)

# Principais componentes dos agentes de software
<a name="core-modules"></a>

O diagrama a seguir apresenta os principais módulos funcionais encontrados na maioria dos agentes inteligentes. Cada componente contribui para a capacidade do agente de operar de forma autônoma em ambientes complexos.

![\[Principais módulos e submódulos funcionais em agentes inteligentes.\]](http://docs.aws.amazon.com/pt_br/prescriptive-guidance/latest/agentic-ai-foundations/images/functional-modules.png)


No contexto do ciclo de perceber, raciocinar e agir, a capacidade de raciocínio de um agente é distribuída em seus módulos cognitivo e de aprendizagem. Por meio da integração da memória e do aprendizado, o agente desenvolve um raciocínio adaptativo baseado em experiências passadas. Conforme o agente age em seu ambiente, ele cria um ciclo de feedback emergente: cada ação influencia as percepções futuras, e a experiência resultante é incorporada à memória e aos modelos internos por meio do módulo de aprendizagem. Esse ciclo contínuo de percepção, raciocínio e ação permite que o agente melhore com o tempo e complete o ciclo completo de perceber, raciocinar e agir.

## Módulo de percepção
<a name="perception"></a>

O módulo de percepção permite que o agente interaja com seu ambiente por meio de diversas modalidades de entrada, como texto, áudio e sensores. Essas entradas formam os dados brutos nos quais todo raciocínio e ação se baseiam. As entradas de texto podem incluir solicitações em linguagem natural, comandos estruturados ou documentos. As entradas de áudio abrangem instruções faladas ou sons ambientais. As entradas do sensor incluem dados físicos, como feeds visuais, sinais de movimento ou coordenadas GPS. A função principal da percepção é extrair características e representações significativas desses dados brutos. Isso permite que o agente construa uma compreensão precisa e acionável de seu contexto atual. O processo pode envolver extração de características, reconhecimento de objetos ou eventos e interpretação semântica, e constitui a primeira etapa crítica no ciclo de perceber, raciocinar e agir. A percepção eficaz garante que o raciocínio e a tomada de decisões posteriores sejam baseados na consciência situacional relevante. up-to-date

## Módulo cognitivo
<a name="cognitive"></a>

O módulo cognitivo serve como o núcleo deliberativo do agente de software. É responsável por interpretar as percepções, formar a intenção e orientar o comportamento proposital por meio de planejamento e tomada de decisões orientados por metas. Esse módulo transforma as entradas em processos estruturados de raciocínio, o que permite que o agente opere intencionalmente em vez de reativamente. Esses processos são gerenciados por meio de três submódulos principais: metas, planejamento e tomada de decisão.

### Submódulo de metas
<a name="cognitive-goals"></a>

O submódulo de metas define a intenção e a direção do agente. As metas podem ser explícitas (por exemplo, “navegar até um local” ou “enviar um relatório”) ou implícitas (por exemplo, “maximizar o engajamento do usuário” ou “minimizar a latência”). Eles são fundamentais para o ciclo de raciocínio do agente e fornecem um estado alvo para seu planejamento e suas decisões.

O agente avalia continuamente o progresso em direção a suas metas e pode repriorizar ou regenerar metas com base em novas percepções ou aprendizado. Essa consciência da meta mantém o agente adaptável em ambientes dinâmicos.

### Submódulo de planejamento
<a name="cognitive-planning"></a>

O submódulo de planejamento constrói estratégias para atingir os objetivos atuais do agente. Ele gera sequências de ações, decompõe tarefas hierarquicamente e seleciona planos predefinidos ou gerados dinamicamente.

Para operar de forma eficaz em ambientes não determinísticos ou em mudança, o planejamento não é estático. Agentes modernos podem gerar chain-of-thought sequências, introduzir metas secundárias como etapas intermediárias e revisar planos em tempo real quando as condições mudam.

Esse submódulo se conecta estreitamente à memória e ao aprendizado e permite que o agente refine seu planejamento ao longo do tempo com base nos resultados anteriores.

### Submódulo de tomada de decisão
<a name="cognitive-decision-making"></a>

O submódulo de tomada de decisão avalia os planos e ações disponíveis para selecionar a próxima etapa mais apropriada. Ele integra informações da percepção, do plano atual, das metas do agente e do contexto ambiental.

A tomada de decisão é responsável por:
+ Compensações entre metas conflitantes
+ Limites de confiança (por exemplo, incerteza na percepção)
+ Consequências das ações
+ A experiência aprendida do agente

Dependendo da arquitetura, os agentes podem confiar em raciocínio simbólico, heurística, aprendizado por reforço ou modelos de linguagem (LLMs) para tomar decisões informadas. Esse processo mantém o comportamento do agente consciente do contexto, alinhado às metas e adaptável.

## Módulo de ação
<a name="action"></a>

O módulo de ação é responsável por executar as decisões selecionadas pelo agente e interagir com o mundo externo ou sistemas internos para produzir efeitos significativos. Representa a fase de Ação do ciclo de perceber, raciocinar e agir, onde a intenção é transformada em comportamento.

Quando o módulo cognitivo seleciona uma ação, o módulo de ação coordena a execução por meio de submódulos especializados, onde cada submódulo se alinha ao ambiente integrado do agente:
+ Atuação física: para agentes incorporados em sistemas robóticos ou dispositivos de IoT, esse submódulo traduz decisões em movimentos físicos do mundo real ou instruções em nível de hardware.

  Exemplos: dirigir um robô, acionar uma válvula, ligar um sensor.
+ Interação integrada: este submódulo lida com ações não físicas, mas visíveis externamente, como interagir com sistemas de software, plataformas ou. APIs

  Exemplos: enviar um comando para um serviço de nuvem, atualizar um banco de dados, enviar um relatório chamando uma API.
+ Invocação de ferramentas: os agentes geralmente ampliam seus recursos usando ferramentas especializadas para realizar subtarefas, como as seguintes:
  + Pesquisa: consultando fontes de conhecimento estruturadas ou não estruturadas
  + Resumindo: comprimindo entradas de texto grandes em visões gerais de alto nível
  + Cálculo: realizando computação lógica, numérica ou simbólica

  A invocação de ferramentas permite uma composição complexa de comportamentos por meio de habilidades modulares que podem ser chamadas.

## Módulo de aprendizagem
<a name="learning"></a>

O módulo de aprendizado permite que os agentes se adaptem, generalizem e melhorem ao longo do tempo com base na experiência. Ele apóia o processo de raciocínio refinando continuamente os modelos, estratégias e políticas de decisão internos do agente usando o feedback da percepção e da ação.

Este módulo opera em coordenação com a memória de curto e longo prazo:
+ Memória de curto prazo: armazena contexto transitório, como estado do diálogo, informações da tarefa atual e observações recentes. Isso ajuda o agente a manter a continuidade nas interações e tarefas.
+ Memória de longo prazo: codifica o conhecimento persistente de experiências passadas, incluindo metas previamente encontradas, resultados de ações e estados ambientais. A memória de longo prazo permite que o agente reconheça padrões, reutilize estratégias e evite a repetição de erros.

### Modos de aprendizagem
<a name="learning-modes"></a>

O módulo de aprendizado oferece suporte a uma variedade de paradigmas, como aprendizado supervisionado, não supervisionado e por reforço, que oferecem suporte a diferentes ambientes e funções de agentes:
+ Aprendizado supervisionado: atualiza modelos internos com base em exemplos rotulados, geralmente de feedback humano ou conjuntos de dados de treinamento. 

  Exemplo: aprender a classificar a intenção do usuário com base em conversas anteriores.
+ Aprendizado não supervisionado: identifica padrões ou estruturas ocultas nos dados sem rótulos explícitos. 

  Exemplo: agrupamento de sinais ambientais para detectar anomalias.
+ Aprendizado por reforço: otimiza o comportamento por meio de tentativa e erro, maximizando a recompensa cumulativa em ambientes interativos. 

  Exemplo: aprender qual estratégia leva à conclusão mais rápida da tarefa.

O aprendizado se integra perfeitamente ao módulo cognitivo do agente. Ele refina as estratégias de planejamento com base em resultados passados, aprimora a tomada de decisões por meio da avaliação do sucesso histórico e melhora continuamente o mapeamento entre percepção e ação. Por meio desse ciclo fechado de aprendizado e feedback, os agentes evoluem além da execução reativa para se tornarem sistemas de autoaperfeiçoamento capazes de se adaptar a novas metas, condições e contextos ao longo do tempo.

# Arquitetura tradicional de agentes: perceber, raciocinar, agir
<a name="traditional-agents"></a>

O diagrama a seguir ilustra como os blocos de construção discutidos na [seção anterior](core-modules.md) operam sob o ciclo de perceber, raciocinar e agir.

![\[Como os principais componentes se aplicam à arquitetura tradicional de agentes.\]](http://docs.aws.amazon.com/pt_br/prescriptive-guidance/latest/agentic-ai-foundations/images/traditional-agent-modules.png)


## Módulo Perceber
<a name="perceive"></a>

O módulo de percepção atua como a interface sensorial do agente com o mundo externo. Ele transforma a entrada ambiental bruta em representações estruturadas que informam o raciocínio. Isso inclui lidar com dados multimodais, como texto, áudio ou sinais de sensores.
+ A entrada de texto pode vir de comandos, documentos ou diálogos do usuário.
+ A entrada de áudio inclui instruções faladas ou sons ambientais.
+ A entrada do sensor captura sinais do mundo real, como movimento, feeds visuais ou GPS.

Quando a entrada bruta é ingerida, o processo de percepção realiza a extração de características, seguida pelo reconhecimento de objetos ou eventos e interpretação semântica para criar um modelo significativo da situação atual. Esses resultados fornecem contexto estruturado para a tomada de decisões posteriores e ancoram o raciocínio do agente em observações do mundo real.

## Módulo Reason
<a name="reason"></a>

O módulo reason é o núcleo cognitivo do agente. Ele avalia o contexto, formula a intenção e determina as ações apropriadas. Este módulo orquestra o comportamento orientado por metas usando tanto o conhecimento aprendido quanto o raciocínio.

O módulo Reason consiste em submódulos totalmente integrados:
+ Memória: mantém o estado do diálogo, o contexto da tarefa e o histórico episódico nos formatos de curto e longo prazo.
+ Base de conhecimento: fornece acesso a regras simbólicas, ontologias ou modelos aprendidos (como incorporações, fatos e políticas).
+ Metas e planos: define os resultados desejados e constrói estratégias de ação para alcançá-los. As metas podem ser atualizadas dinamicamente e os planos podem ser modificados de forma adaptativa com base no feedback.
+ Tomada de decisão: atua como o mecanismo central de arbitragem, ponderando as opções, avaliando as compensações e selecionando a próxima ação. Esse submódulo leva em consideração os limites de confiança, o alinhamento de metas e as restrições contextuais.

Juntos, esses componentes permitem que o agente raciocine sobre seu ambiente, atualize crenças, selecione caminhos e se comporte de maneira coerente e adaptativa. O módulo de razão fecha a lacuna entre percepção e comportamento.

## Módulo Act
<a name="act"></a>

O módulo act executa a decisão selecionada pelo agente por meio da interface com o ambiente digital ou físico para realizar tarefas. É aqui que a intenção se torna ação.

Este módulo inclui três canais funcionais:
+ Atuadores: para agentes que têm presença física (como robôs e dispositivos de IoT), controlam as interações em nível de hardware, como movimento, manipulação ou sinalização.
+ Execução: manipula ações baseadas em software, incluindo invocação APIs, envio de comandos e atualização de sistemas.
+ Ferramentas: permite recursos funcionais, como pesquisa, resumo, execução de código, cálculo e manuseio de documentos. Essas ferramentas geralmente são dinâmicas e sensíveis ao contexto, o que amplia a utilidade do agente.

As saídas do módulo de atuação retornam ao ambiente e fecham o circuito. Esses resultados são percebidos pelo agente novamente. Eles atualizam o estado interno do agente e informam as decisões futuras, completando assim o ciclo de perceber, raciocinar e agir.

# Agentes generativos de IA: substituindo a lógica simbólica por LLMs
<a name="generative-ai-agents"></a>

O diagrama a seguir ilustra como grandes modelos de linguagem (LLMs) agora servem como um núcleo cognitivo flexível e inteligente para agentes de software. Em contraste com os sistemas lógicos simbólicos tradicionais, que dependem de bibliotecas de planos estáticos e regras codificadas manualmente, LLMs permitem o raciocínio adaptativo, o planejamento contextual e o uso dinâmico de ferramentas, que transformam a forma como os agentes percebem, raciocinam e agem.

![\[Diagram showing LLM-based agent architecture with perceive, reason, and act components.\]](http://docs.aws.amazon.com/pt_br/prescriptive-guidance/latest/agentic-ai-foundations/images/gen-ai-modules.png)


## Principais aprimoramentos
<a name="enhancements"></a>

Essa arquitetura aprimora a arquitetura tradicional do agente da seguinte forma:
+ LLMs como mecanismos cognitivos: metas, planos e consultas são passados para o modelo como contexto**** imediato. O LLM gera caminhos de raciocínio (como cadeia de pensamento), decompõe tarefas em sub-metas e decide sobre as próximas ações.
+ Uso da ferramenta por meio de solicitação: LLMs pode ser direcionado por meio de agentes de uso de ferramentas ou de raciocínio e ação (ReAct) solicitando a chamada APIs e a pesquisa, consulta, cálculo e interpretação de saídas.
+ Planejamento sensível ao contexto: os agentes geram ou revisam planos dinamicamente com base na meta atual, no ambiente de entrada e no feedback do agente, sem exigir bibliotecas de planos codificadas.
+ Contexto imediato como memória: em vez de usar bases de conhecimento simbólicas, os agentes codificam memória, planos e metas como tokens imediatos que são passados para o modelo.
+ Aprendizagem por meio de aprendizado rápido e contextual: LLMs adapte comportamentos por meio de engenharia rápida, o que reduz a necessidade de reciclagem explícita ou bibliotecas de planos rígidas.

## Obtendo memória de longo prazo em agentes baseados em LLM
<a name="long-term-memory"></a>

Ao contrário dos agentes tradicionais, que armazenavam memória de longo prazo em bases de conhecimento estruturadas, os agentes generativos de IA devem trabalhar dentro das limitações da janela de contexto do LLMs. Para ampliar a memória e apoiar a inteligência persistente, os agentes generativos de IA usam várias técnicas complementares: armazenamento de agentes, geração aumentada de recuperação (RAG), aprendizado contextual e encadeamento imediato e pré-treinamento.

**Armazenamento de agentes: memória externa de longo prazo**

O estado do agente, o histórico do usuário, as decisões e os resultados são armazenados em um armazenamento de memória do agente de longo prazo (como um banco de dados vetorial, armazenamento de objetos ou armazenamento de documentos). Memórias relevantes são recuperadas sob demanda e injetadas no contexto do prompt do LLM em tempo de execução. Isso cria um loop de memória persistente, em que o agente mantém a continuidade entre sessões, tarefas ou interações.

**PANO**

O RAG aprimora o desempenho do LLM combinando o conhecimento recuperado com os recursos generativos. Quando uma meta ou consulta é emitida, o agente pesquisa um índice de recuperação (por exemplo, por meio de uma pesquisa semântica de documentos, conversas anteriores ou conhecimento estruturado). Os resultados recuperados são anexados ao prompt do LLM, que fundamenta a geração em fatos externos ou contexto personalizado. Esse método amplia a memória efetiva do agente e melhora a confiabilidade e a exatidão factual.

**Aprendizagem contextualizada e encadeamento imediato**

Os agentes mantêm a memória de curto prazo usando o contexto de token na sessão e o encadeamento estruturado de prompts. Elementos contextuais, como o plano atual, os resultados das ações anteriores e o status do agente, são transmitidos entre as chamadas para orientar o comportamento.

**Pré-treinamento contínuo e ajuste fino**

Para agentes específicos de domínio, LLMs podem ser continuados pré-treinados em coleções personalizadas, como registros, dados corporativos ou documentação do produto. Como alternativa, o ajuste fino de instruções ou o aprendizado por reforço a partir do feedback humano (RLHF) podem incorporar um comportamento semelhante ao de um agente diretamente no modelo. Isso muda os padrões de raciocínio da lógica do pronto-tempo para a representação interna do modelo, reduz o tamanho do prompt e melhora a eficiência.

## Benefícios combinados em IA agêntica
<a name="benefits"></a>

Essas técnicas, quando usadas em conjunto, permitem que agentes generativos de IA:
+ Mantenha a consciência contextual ao longo do tempo.
+ Adapte o comportamento com base no histórico ou nas preferências do usuário.
+ Tome decisões usando up-to-date conhecimento factual ou privado.
+ Dimensione para casos de uso corporativos com comportamentos persistentes, compatíveis e explicáveis.

Ao aumentar a LLMs memória externa, as camadas de recuperação e o treinamento contínuo, os agentes podem atingir um nível de continuidade e propósito cognitivos que não poderiam ser alcançados anteriormente apenas por meio de sistemas simbólicos.

# Comparando a IA tradicional com agentes de software e IA agente
<a name="comparison"></a>

A tabela a seguir fornece uma comparação detalhada da IA tradicional, dos agentes de software e da IA agente.


| Característica | IA tradicional | Agentes de software | IA agente | 
| --- | --- | --- | --- | 
|  Exemplos  |  Filtros de spam, classificadores de imagens, mecanismos de recomendação  |  Chatbots, agendadores de tarefas, agentes de monitoramento  |  Assistentes de IA, agentes de desenvolvimento autônomos, orquestrações LLM multiagentes  | 
|  Modelo de execução  |  Batch ou síncrono  |  Orientado por eventos ou programado  |  Assíncrono, orientado por eventos e orientado por metas  | 
|  Autonomia  |  Limitado; geralmente requer orquestração humana ou externa  |  Médio; opera de forma independente dentro de limites predefinidos  |  Alto; age de forma independente com estratégias adaptativas  | 
|  Reatividade  |  Reativo aos dados de entrada  |  Reativo ao ambiente e aos eventos  |  Reativo e proativo; antecipa e inicia ações  | 
|  Proatividade  |  Raro  |  Presente em alguns sistemas  |  Atributo principal; impulsiona o comportamento direcionado a um objetivo  | 
|  Comunicação  |  Mínimo; geralmente autônomo ou vinculado à API  |  Mensagens interagentes ou agente-humano  |  Multiagente e human-in-the-loop interação ricos  | 
|  Decisões  |  Somente inferência de modelo (classificação, previsão e assim por diante)  |  Raciocínio simbólico ou decisões baseadas em regras ou roteirizadas  |  Raciocínio contextual, baseado em metas e dinâmico (geralmente aprimorado com LLM)  | 
|  Intenção delegada  |  Não; executa tarefas definidas diretamente pelo usuário  |  Parcial; age em nome de usuários ou sistemas com escopo limitado  |  Sim; age com metas delegadas, geralmente entre serviços, usuários ou sistemas  | 
|  Aprendizagem e adaptação  |  Geralmente centrado em modelos (por exemplo, treinamento de ML)  |  Às vezes adaptável  |  Aprendizado, memória ou raciocínio incorporados (por exemplo, feedback, autocorreção)  | 
|  Agência  |  Nenhuma; ferramentas para humanos  |  Implícito ou básico  |  Explícito; opera com propósito, metas e autodireção  | 
|  Consciência do contexto  |  Baixo; sem estado ou baseado em instantâneos  |  Moderado; algum rastreamento de estado  |  Alto; usa modelos de memória, contexto situacional e ambiente  | 
|  Perfil de infraestrutura  |  Incorporado em aplicativos ou pipelines de análise  |  Componente de middleware ou camada de serviço  |  Malha de agentes composta integrada a sistemas de nuvem, sem servidor ou de borda  | 

Em resumo:
+ A IA tradicional é centrada em ferramentas e funcionalmente restrita. Ele se concentra na previsão ou classificação.
+ Os agentes de software tradicionais introduzem autonomia e comunicação básica, mas geralmente são estáticos ou vinculados a regras.
+ A Inteligência Artificial reúne autonomia, assincronia e agência. Ele permite que entidades inteligentes e orientadas por metas possam raciocinar, agir e se adaptar em sistemas complexos. Isso torna a IA agente ideal para o futuro nativo da nuvem e orientado pela IA.