

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Otimizar um prompt
<a name="prompt-management-optimize"></a>

O Amazon Bedrock oferece uma ferramenta para otimizar os prompts. A otimização reescreve os prompts para gerar resultados de inferência mais adequados ao seu caso de uso. Você pode escolher o modelo para o qual deseja otimizar o prompt e, em seguida, gerar um prompt revisto. 

Depois de enviar um prompt para otimização, o Amazon Bedrock analisa os componentes do prompt. Se a análise for bem-sucedida, ela reescreverá o prompt. Em seguida, você pode copiar e usar o texto do prompt otimizado. 

**nota**  
Para obter melhores resultados, recomendamos otimizar os prompts em inglês.

**Topics**
+ [Regiões e modelos compatíveis com otimização de prompts](#prompt-management-optimize-supported)
+ [Enviar um prompt para otimização](#prompt-management-optimize-submit)

## Regiões e modelos compatíveis com otimização de prompts
<a name="prompt-management-optimize-supported"></a>

A tabela a seguir mostra o suporte do modelo para otimização imediata:


| Fornecedor | Modelo | ID do modelo | Suporte ao modelo de região única | 
| --- | --- | --- | --- | 
| Amazon | Nova Lite | amazônia. nova-lite-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Amazon | Nova Micro | amazônia. nova-micro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Amazon | Nova Premier | amazônia. nova-premier-v1:0 |  | 
| Amazon | Nova Pro | amazônia. nova-pro-v1:0 |  ap-southeast-2 eu-west-2 us-east-1  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3 Opus | anthropic.claude-3-opus-20240229-v 1:0 |  | 
| Anthropic | Claude 3 Sonnet | anthropic.claude-3-sonnet-20240229-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v1:0 |  us-west-2  | 
| Anthropic | Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v1:0 |  eu-central-1 us-east-1 us-west-2  | 
| Anthropic | Claude 3.5 Sonnet v2 | anthropic.claude-3-5-sonnet-20241022-v2:0 |  ap-southeast-2 us-west-2  | 
| Anthropic | Claude 3.7 Sonnet | anthropic.claude-3-7-sonnet-20250219-v 1:0 |  eu-west-2  | 
| Anthropic | Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |  | 
| Anthropic | Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |  | 
| DeepSeek | DeepSeek-R1 | deepseek.r1-v1:0 |  | 
| Meta | Llama 3 70B Instruct | meta.llama3-70 1:0 b-instruct-v |  ap-south-1 ca-central-1 eu-west-2 us-east-1 us-west-2  | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70 1:0 b-instruct-v |  us-west-2  | 
| Meta | Instrução Llama 3.2 11B | meta.llama3-2-11 1:0 b-instruct-v |  | 
| Meta | Llama 3.3 70B Instruct | meta.llama3-3-70 1:0 b-instruct-v |  | 
| Meta | Llama 4 Maverick 17B Instruct | b-instruct-vmeta.llama4-maverick-17 1:0 |  | 
| Meta | Llama 4 Scout 17B Instruct | b-instruct-vmeta.llama4-scout-17 1:0 |  | 
| Mistral AI | Mistral Large (24.02) | mistral.mistral-large-2402-v1:0 |  ap-south-1 ap-southeast-2 ca-central-1 eu-west-1 eu-west-2 eu-west-3 sa-east-1 us-east-1 us-west-2  | 
| Mistral AI | Mistral Large (24.07) | mistral.mistral-large-2407-v1:0 |  us-west-2  | 

## Enviar um prompt para otimização
<a name="prompt-management-optimize-submit"></a>

Para saber como otimizar um prompt, escolha a guia correspondente ao método de sua preferência e siga as etapas:

------
#### [ Console ]

É possível otimizar um prompt usando um playground ou o Gerenciamento de Prompts no Console de gerenciamento da AWS. Primeiro você deve selecionar um modelo para poder otimizar um prompt. O prompt é otimizado para o modelo que você escolher.

**Como otimizar um prompt em um playground**

1. Para saber como escrever um prompt em um playground do Amazon Bedrock, siga as etapas em [Gerar respostas no console usando playgrounds](playgrounds.md).

1. Depois de escrever um prompt e selecionar um modelo, escolha o ícone de varinha (![\[Sparkle icon representing cleaning or refreshing functionality.\]](http://docs.aws.amazon.com/pt_br/bedrock/latest/userguide/images/icons/wand.png)). A caixa de diálogo **Otimizar prompt** é aberta e o Amazon Bedrock começa a otimizar o prompt.

1. Quando o Amazon Bedrock terminar de analisar e otimizar o prompt, você poderá comparar o prompt original lado a lado com o prompt otimizado nessa na caixa de diálogo.

1. Para substituir o prompt pelo prompt otimizado no playground, escolha **Usar prompt otimizado**. Para manter o prompt original, escolha **Cancelar**.

1. Para enviar o prompt e gerar uma resposta, escolha **Executar**.

**Como testar um prompt no Gerenciamento de Prompts**

1. Para saber como escrever um prompt usando o Gerenciamento de Prompts, siga as etapas em [Criar um prompt usando o Gerenciamento de Prompts](prompt-management-create.md).

1. Depois de escrever um prompt e selecionar um modelo, escolha **(![\[Sparkle icon representing cleaning or refreshing functionality.\]](http://docs.aws.amazon.com/pt_br/bedrock/latest/userguide/images/icons/wand.png)) Otimizar** na parte superior da caixa **Prompt**.

1. Quando o Amazon Bedrock termina de analisar e otimizar o prompt, o prompt otimizado é exibido como uma variante lado a lado com o prompt original.

1. Para usar o prompt otimizado em vez do original, selecione **Substituir prompt original**. Para manter o prompt original, selecione **Sair da comparação** e escolha salvar o prompt original.
**nota**  
Se você tiver três prompts na visualização de comparação e tentar otimizar outro prompt, será solicitado que você cancele e substitua o prompt original ou uma das variantes.

1. Para enviar o prompt e gerar uma resposta, escolha **Executar**.

------
#### [ API ]

Para otimizar uma solicitação, envie uma [OptimizePrompt](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_OptimizePrompt.html)solicitação com um [endpoint de tempo de execução do Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt). Forneça o prompt a ser otimizado no objeto `input` e especifique o modelo a ser otimizado no campo `targetModelId`.

O fluxo de resposta exibe os seguintes eventos:

1. [analyzePromptEvent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_AnalyzePromptEvent.html)— Aparece quando a solicitação termina de ser analisada. Contém uma mensagem que descreve a análise do prompt.

1. [optimizedPromptEvent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_OptimizedPromptEvent.html)— Aparece quando o prompt termina de ser reescrito. Contém o prompt otimizado.

Execute o seguinte exemplo de código para otimizar um prompt:

```
import boto3

# Set values here
TARGET_MODEL_ID = "anthropic.claude-3-sonnet-20240229-v1:0" # Model to optimize for. For model IDs, see https://docs.aws.amazon.com/bedrock/latest/userguide/model-ids.html
PROMPT = "Please summarize this text: " # Prompt to optimize

def get_input(prompt):
    return {
        "textPrompt": {
            "text": prompt
        }
    }
 
def handle_response_stream(response):
    try:
        event_stream = response['optimizedPrompt']
        for event in event_stream:
            if 'optimizedPromptEvent' in event:
                print("========================== OPTIMIZED PROMPT ======================\n")
                optimized_prompt = event['optimizedPromptEvent']
                print(optimized_prompt)
            else:
                print("========================= ANALYZE PROMPT =======================\n")
                analyze_prompt = event['analyzePromptEvent']
                print(analyze_prompt)
    except Exception as e:
        raise e
 
 
if __name__ == '__main__':
    client = boto3.client('bedrock-agent-runtime')
    try:
        response = client.optimize_prompt(
            input=get_input(PROMPT),
            targetModelId=TARGET_MODEL_ID
        )
        print("Request ID:", response.get("ResponseMetadata").get("RequestId"))
        print("========================== INPUT PROMPT ======================\n")
        print(PROMPT)
        handle_response_stream(response)
    except Exception as e:
        raise e
```

------