

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Criação e uso de adaptadores
<a name="creating-and-using-adapters"></a>

Os adaptadores são componentes modulares que podem ser adicionados ao modelo de aprendizado profundo existente do Rekognition, ampliando seus recursos para as tarefas nas quais ele é treinado. Ao treinar um modelo de aprendizado profundo com adaptadores, você pode obter maior precisão nas tarefas de análise de imagens relacionadas ao seu caso de uso específico. 

Para criar e usar um adaptador, você deve fornecer dados de treinamento e teste ao Rekognition. Você pode fazer isso de duas maneiras diferentes:
+ Análise e verificação em massa: você pode criar um conjunto de dados de treinamento analisando em massa imagens que o Rekognition analisará e atribuirá rótulos. Em seguida, você pode revisar as anotações geradas para suas imagens e verificar ou corrigir as previsões. Para obter mais informações sobre como a análise em massa de imagens funciona, consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Anotação manual: com essa abordagem, você cria seus dados de treinamento carregando e anotando imagens. Você cria seus dados de teste carregando e anotando imagens ou dividindo-os automaticamente. 

Escolha um dos tópicos a seguir para saber mais:

**Topics**
+ [Análise e verificação em massa](adapters-bulk-analysis.md)
+ [Anotação manual](adapters-manual-annotation.md)

# Análise e verificação em massa
<a name="adapters-bulk-analysis"></a>

Com essa abordagem, você carrega um grande número de imagens que deseja usar como dados de treinamento e, em seguida, usa o Rekognition para obter previsões para essas imagens, que atribui rótulos automaticamente a elas. Você pode usar essas previsões como ponto de partida para seu adaptador. Você pode verificar a precisão das previsões e depois treinar o adaptador com base nas previsões verificadas. Isso pode ser feito com o AWS console.



 O vídeo a seguir demonstra como usar o recurso de análise em massa do Rekognition para obter e verificar previsões para um grande número de imagens e então treinar um adaptador com essas previsões. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Faça upload de imagens para análise em massa
<a name="adapters-bulk-analysis-upload-images"></a>

Para criar um conjunto de dados de treinamento para seu adaptador, faça upload de imagens em massa para o Rekognition prever rótulos. Para obter melhores resultados, forneça o máximo possível de imagens para treinamento até o limite de 10.000 e garanta que as imagens representem todos os aspectos do seu caso de uso. 

Ao usar o AWS console, você pode fazer upload de imagens diretamente do seu computador ou fornecer um bucket do Amazon Simple Storage Service que armazena suas imagens. No entanto, ao usar o APIs Rekognition com um SDK, você deve fornecer um arquivo de manifesto que faça referência às imagens armazenadas em um bucket do Amazon Simple Storage Service. Consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html) para obter mais informações.

## Revise as previsões
<a name="adapters-bulk-analysis-review-predictions"></a>

Depois de enviar suas imagens para o console do Rekognition, o Rekognition gerará rótulos para elas. Em seguida, você pode verificar as previsões como uma das seguintes categorias: verdadeiro positivo, falso positivo, verdadeiro negativo, falso negativo. Depois de verificar as previsões, você pode treinar um adaptador com base no seu feedback.

## Treine o adaptador
<a name="adapters-bulk-analysis-train-adapter"></a>

Depois de concluir a verificação das previsões retornadas pela análise em massa, você poderá iniciar o processo de treinamento do seu adaptador. 

## Obtenha o AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Depois que o adaptador for treinado, você poderá obter a ID exclusiva para seu adaptador usar com a análise de imagem do Rekognition. APIs

## Chame a operação da API
<a name="adapters-bulk-analysis-call-operation"></a>

Para aplicar seu adaptador personalizado, forneça sua ID ao chamar uma das análises de imagem APIs que suporta adaptadores. Isso aprimora a precisão das previsões para suas imagens.

# Anotação manual
<a name="adapters-manual-annotation"></a>

Com essa abordagem, você cria seus dados de treinamento carregando e anotando imagens manualmente. Você cria seus dados de teste carregando e anotando imagens de teste ou dividindo automaticamente para que o Rekognition use automaticamente uma parte dos seus dados de treinamento como imagens de teste.

## Carregar e anotar imagens
<a name="adapters-upload-sample-images"></a>

Para treinar o adaptador, você precisará fazer o upload de um conjunto de imagens de amostra representativas do seu caso de uso. Para obter melhores resultados, forneça o máximo possível de imagens para treinamento até o limite de 10.000 e garanta que as imagens representem todos os aspectos do seu caso de uso. 

![\[Interface mostrando opções para importar imagens de treinamento, com opções para importar um arquivo de manifesto, importar do bucket do S3 ou fazer upload de imagens do computador. Inclui um campo URI do S3 e uma observação sobre como garantir read/write permissões.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Ao usar o AWS console, você pode fazer upload de imagens diretamente do seu computador, fornecer um arquivo de manifesto ou fornecer um bucket do Amazon S3 que armazene suas imagens.

 No entanto, ao usar o APIs Rekognition com um SDK, você deve fornecer um arquivo de manifesto que faça referência às imagens armazenadas em um bucket do Amazon S3. 

Você pode usar a interface de anotação do [console do Rekognition](https://console.aws.amazon.com/rekognition) para anotar suas imagens. Anote suas imagens marcando-as com rótulos, isso estabelece uma "verdade fundamental" para o treinamento. Você também deve designar conjuntos de treinamento e teste ou usar o recurso de divisão automática antes de treinar um adaptador. Ao terminar de designar seus conjuntos de dados e anotar suas imagens, você pode criar um adaptador com base nas imagens anotadas em seu conjunto de teste. Em seguida, você pode avaliar o desempenho do seu adaptador. 

## Crie um conjunto de testes
<a name="adapters-training-testing"></a>

Você precisará fornecer um conjunto de testes anotado ou usar o recurso de divisão automática. O conjunto de treinamento é usado para realmente treinar o adaptador. O adaptador aprende os padrões contidos nessas imagens anotadas. O conjunto de teste é usado para avaliar o desempenho do modelo antes de finalizar o adaptador. 

## Treine o adaptador
<a name="adapters-train-adapter"></a>

 Depois de terminar de anotar os dados de treinamento ou fornecer um arquivo de manifesto, você poderá iniciar o processo de treinamento para seu adaptador. 

## Obtenha a ID do adaptador
<a name="adapter-get-adapter"></a>

Depois que o adaptador for treinado, você poderá obter a ID exclusiva para seu adaptador usar com a análise de imagem do Rekognition. APIs

## Chame a operação de API .
<a name="adapter-call-operation"></a>

Para aplicar seu adaptador personalizado, forneça sua ID ao chamar uma das análises de imagem APIs que suporta adaptadores. Isso aprimora a precisão das previsões para suas imagens. 