

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Testando e consultando bases de conhecimento multimodais
<a name="kb-multimodal-test-and-query"></a>

Depois de ingerir seu conteúdo multimodal, você pode testar e consultar sua base de conhecimento usando o console ou a API. Os tipos de consulta disponíveis dependem da abordagem de processamento escolhida.

------
#### [ Console ]

**Para testar sua base de conhecimento a partir do console**

1. Na página de detalhes da sua base de conhecimento, vá até a seção **Testar a base de conhecimento**.

1. Escolha seu tipo de consulta:
   + **Somente recuperação padrão:** consulte e recupere informações de fontes de dados em uma única Base de Conhecimento.
   + **Recuperação e geração de respostas:** consulte uma única Base de Conhecimento e gere respostas com base nos resultados recuperados usando um modelo básico.
**nota**  
Se você tiver conteúdo multimodal, deverá usar o analisador BDA para recuperação e geração de respostas.

1. Configure opções adicionais conforme necessário:
   + **Partes de origem:** especifique o número máximo de partes de origem a serem retornadas
   + **Tipo de pesquisa:** selecione o tipo de pesquisa para personalizar a estratégia de consulta
   + **Filtros de metadados:** aplique filtros para restringir os resultados da pesquisa
   + **Guardrails:** Selecione um guardrail existente ou crie um novo

1. Insira uma consulta de texto ou faça upload de uma imagem (somente Nova Multimodal Embeddings) para pesquisar seu conteúdo multimodal. Use o botão de anexo para fazer upload de imagens para pesquisa visual por similaridade.

1. Analise os resultados, que incluem:
   + Pedaços de conteúdo recuperados com pontuações de relevância
   + Referências e registros de data e hora do arquivo de origem (para áudio/vídeo)
   + Metadados, incluindo tipos de arquivo e informações de processamento
   + Para conteúdo multimídia, controles de reprodução com posicionamento automático de segmentos com base em registros de data e hora recuperados

------
#### [ API ]

Os exemplos a seguir mostram como usar a API Amazon Bedrock Agent Runtime para consultar programaticamente sua base de conhecimento multimodal:

**Exemplo de consulta de texto**  
Pesquise usando entrada de texto:

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <knowledge-base-id> \
--retrieval-query text="robot automation in manufacturing"
```

**Exemplo de consulta de imagem (somente Nova Multimodal Embeddings)**  
Pesquise usando uma imagem enviada:

```
{
    "knowledgeBaseId": "<knowledge-base-id>",
    "retrievalQuery": {
        "imageQuery": {
            "inlineContent": {
                "mimeType": "image/jpeg",
                "data": "<base64-encoded-image>"
            }
        }
    }
}
```

------

## Tipos de consulta compatíveis
<a name="kb-multimodal-query-types"></a>

**Consultas de texto**  
Compatível com as abordagens Nova Multimodal Embeddings e BDA. Pesquise usando texto em linguagem natural para encontrar conteúdo relevante em todos os tipos de mídia.

**Consultas de imagens**  
Compatível apenas com Nova Multimodal Embeddings. Faça upload de imagens para encontrar conteúdo visualmente semelhante em sua base de conhecimento.

## Entendendo os metadados de resposta
<a name="kb-multimodal-response-metadata"></a>

As respostas de consultas multimodais incluem metadados adicionais para conteúdo multimídia:

**Atribuição da fonte**  
Local do arquivo original (sourceURI) e local de armazenamento multimodal (SupplementalURI) para acesso confiável

**Metadados temporais**  
Carimbos de data e hora de início e término para segmentos de áudio e vídeo, permitindo uma navegação precisa até o conteúdo relevante

**Informações sobre o tipo de conteúdo**  
Indicadores de formato de arquivo, método de processamento e modalidade para ajudar os aplicativos a lidar adequadamente com diferentes tipos de conteúdo

**Estrutura de metadados do banco de dados vetoriais**  
Quando o conteúdo multimodal é processado e armazenado, a seguinte estrutura de metadados é usada no banco de dados vetoriais:
+ **campo de texto:** para arquivos multimídia processados com o Nova Multimodal Embeddings, esse campo contém uma string vazia, pois o conteúdo é incorporado como multimídia nativa em vez de texto
+ **campo de metadados:** contém informações estruturadas, incluindo detalhes da fonte e referências de conteúdo relacionado:

  ```
  {
    "source": {
      "sourceType": "S3",
      "s3Location": {
        "uri": "s3://source-bucket/path/to/file.mp4"
      }
    },
    "relatedContent": [{
      "type": "S3",
      "s3Location": {
        "uri": "s3://multimodal-storage-bucket/processed/file.mp4"
      }
    }]
  }
  ```
+ **Campos criados automaticamente:** campos adicionais para filtragem e identificação:
  + `x-amz-bedrock-kb-source-uri`: URI de origem original para operações de filtragem
  + `x-amz-bedrock-kb-data-source-id`: identificador da fonte de dados para rastrear a origem do conteúdo
  + `x-amz-bedrock-kb-chunk-start-time-in-millis`: inicie o timestamp em milissegundos para segmentos de áudio e vídeo
  + `x-amz-bedrock-kb-chunk-end-time-in-millis`: carimbo de data/hora final em milissegundos para segmentos de áudio e vídeo
  + `x-amz-bedrock-kb-source-file-mime-type`: tipo MIME do arquivo de origem
  + `x-amz-bedrock-kb-source-file-modality`: Modalidade do arquivo de origem (TEXTO, IMAGEM, ÁUDIO, VÍDEO)

**Importante**  
Os aplicativos devem usar os registros de data e hora fornecidos para extrair e reproduzir segmentos específicos de arquivos de áudio e vídeo. A base de conhecimento retorna referências a arquivos completos, não a clipes pré-segmentados.