

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Aprimorando a precisão com moderação personalizada
<a name="moderation-custom-moderation"></a>

 A [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API do Amazon Rekognition permite detectar conteúdo impróprio, indesejado ou ofensivo. O recurso de moderação personalizada do Rekognition permite que você aprimore a precisão usando adaptadores. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Os adaptadores são componentes modulares que podem ser adicionados a um modelo existente de aprendizado profundo do Rekognition, ampliando seus recursos para as tarefas nas quais ele é treinado. Ao criar um adaptador e fornecê-lo para a [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)operação, você pode obter maior precisão nas tarefas de moderação de conteúdo relacionadas ao seu caso de uso específico.

Ao personalizar o modelo de moderação de conteúdo do Rekognition para rótulos de moderação específicos, você deve criar um projeto e treinar um adaptador em um conjunto de imagens que você fornece. Em seguida, você pode verificar iterativamente o desempenho do adaptador e treiná-lo novamente até o nível de precisão desejado. Os projetos são usados para conter as diferentes versões dos adaptadores. 

Você pode usar o console do Rekognition para criar projetos e adaptadores. Como alternativa, você pode usar um AWS SDK e o associado APIs para criar um projeto, treinar um adaptador e gerenciar seus adaptadores. 



# Criação e uso de adaptadores
<a name="creating-and-using-adapters"></a>

Os adaptadores são componentes modulares que podem ser adicionados ao modelo de aprendizado profundo existente do Rekognition, ampliando seus recursos para as tarefas nas quais ele é treinado. Ao treinar um modelo de aprendizado profundo com adaptadores, você pode obter maior precisão nas tarefas de análise de imagens relacionadas ao seu caso de uso específico. 

Para criar e usar um adaptador, você deve fornecer dados de treinamento e teste ao Rekognition. Você pode fazer isso de duas maneiras diferentes:
+ Análise e verificação em massa: você pode criar um conjunto de dados de treinamento analisando em massa imagens que o Rekognition analisará e atribuirá rótulos. Em seguida, você pode revisar as anotações geradas para suas imagens e verificar ou corrigir as previsões. Para obter mais informações sobre como a análise em massa de imagens funciona, consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Anotação manual: com essa abordagem, você cria seus dados de treinamento carregando e anotando imagens. Você cria seus dados de teste carregando e anotando imagens ou dividindo-os automaticamente. 

Escolha um dos tópicos a seguir para saber mais:

**Topics**
+ [Análise e verificação em massa](adapters-bulk-analysis.md)
+ [Anotação manual](adapters-manual-annotation.md)

# Análise e verificação em massa
<a name="adapters-bulk-analysis"></a>

Com essa abordagem, você carrega um grande número de imagens que deseja usar como dados de treinamento e, em seguida, usa o Rekognition para obter previsões para essas imagens, que atribui rótulos automaticamente a elas. Você pode usar essas previsões como ponto de partida para seu adaptador. Você pode verificar a precisão das previsões e depois treinar o adaptador com base nas previsões verificadas. Isso pode ser feito com o AWS console.



 O vídeo a seguir demonstra como usar o recurso de análise em massa do Rekognition para obter e verificar previsões para um grande número de imagens e então treinar um adaptador com essas previsões. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Faça upload de imagens para análise em massa
<a name="adapters-bulk-analysis-upload-images"></a>

Para criar um conjunto de dados de treinamento para seu adaptador, faça upload de imagens em massa para o Rekognition prever rótulos. Para obter melhores resultados, forneça o máximo possível de imagens para treinamento até o limite de 10.000 e garanta que as imagens representem todos os aspectos do seu caso de uso. 

Ao usar o AWS console, você pode fazer upload de imagens diretamente do seu computador ou fornecer um bucket do Amazon Simple Storage Service que armazena suas imagens. No entanto, ao usar o APIs Rekognition com um SDK, você deve fornecer um arquivo de manifesto que faça referência às imagens armazenadas em um bucket do Amazon Simple Storage Service. Consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html) para obter mais informações.

## Revise as previsões
<a name="adapters-bulk-analysis-review-predictions"></a>

Depois de enviar suas imagens para o console do Rekognition, o Rekognition gerará rótulos para elas. Em seguida, você pode verificar as previsões como uma das seguintes categorias: verdadeiro positivo, falso positivo, verdadeiro negativo, falso negativo. Depois de verificar as previsões, você pode treinar um adaptador com base no seu feedback.

## Treine o adaptador
<a name="adapters-bulk-analysis-train-adapter"></a>

Depois de concluir a verificação das previsões retornadas pela análise em massa, você poderá iniciar o processo de treinamento do seu adaptador. 

## Obtenha o AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Depois que o adaptador for treinado, você poderá obter a ID exclusiva para seu adaptador usar com a análise de imagem do Rekognition. APIs

## Chame a operação da API
<a name="adapters-bulk-analysis-call-operation"></a>

Para aplicar seu adaptador personalizado, forneça sua ID ao chamar uma das análises de imagem APIs que suporta adaptadores. Isso aprimora a precisão das previsões para suas imagens.

# Anotação manual
<a name="adapters-manual-annotation"></a>

Com essa abordagem, você cria seus dados de treinamento carregando e anotando imagens manualmente. Você cria seus dados de teste carregando e anotando imagens de teste ou dividindo automaticamente para que o Rekognition use automaticamente uma parte dos seus dados de treinamento como imagens de teste.

## Carregar e anotar imagens
<a name="adapters-upload-sample-images"></a>

Para treinar o adaptador, você precisará fazer o upload de um conjunto de imagens de amostra representativas do seu caso de uso. Para obter melhores resultados, forneça o máximo possível de imagens para treinamento até o limite de 10.000 e garanta que as imagens representem todos os aspectos do seu caso de uso. 

![\[Interface mostrando opções para importar imagens de treinamento, com opções para importar um arquivo de manifesto, importar do bucket do S3 ou fazer upload de imagens do computador. Inclui um campo URI do S3 e uma observação sobre como garantir read/write permissões.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Ao usar o AWS console, você pode fazer upload de imagens diretamente do seu computador, fornecer um arquivo de manifesto ou fornecer um bucket do Amazon S3 que armazene suas imagens.

 No entanto, ao usar o APIs Rekognition com um SDK, você deve fornecer um arquivo de manifesto que faça referência às imagens armazenadas em um bucket do Amazon S3. 

Você pode usar a interface de anotação do [console do Rekognition](https://console.aws.amazon.com/rekognition) para anotar suas imagens. Anote suas imagens marcando-as com rótulos, isso estabelece uma "verdade fundamental" para o treinamento. Você também deve designar conjuntos de treinamento e teste ou usar o recurso de divisão automática antes de treinar um adaptador. Ao terminar de designar seus conjuntos de dados e anotar suas imagens, você pode criar um adaptador com base nas imagens anotadas em seu conjunto de teste. Em seguida, você pode avaliar o desempenho do seu adaptador. 

## Crie um conjunto de testes
<a name="adapters-training-testing"></a>

Você precisará fornecer um conjunto de testes anotado ou usar o recurso de divisão automática. O conjunto de treinamento é usado para realmente treinar o adaptador. O adaptador aprende os padrões contidos nessas imagens anotadas. O conjunto de teste é usado para avaliar o desempenho do modelo antes de finalizar o adaptador. 

## Treine o adaptador
<a name="adapters-train-adapter"></a>

 Depois de terminar de anotar os dados de treinamento ou fornecer um arquivo de manifesto, você poderá iniciar o processo de treinamento para seu adaptador. 

## Obtenha a ID do adaptador
<a name="adapter-get-adapter"></a>

Depois que o adaptador for treinado, você poderá obter a ID exclusiva para seu adaptador usar com a análise de imagem do Rekognition. APIs

## Chame a operação de API .
<a name="adapter-call-operation"></a>

Para aplicar seu adaptador personalizado, forneça sua ID ao chamar uma das análises de imagem APIs que suporta adaptadores. Isso aprimora a precisão das previsões para suas imagens. 

# Preparando seus conjuntos de dados
<a name="preparing-datasets-adapters"></a>

A criação de um adaptador exige que você forneça ao Rekognition dois conjuntos de dados, um conjunto de dados de treinamento e um conjunto de dados de teste. Cada conjunto de dados é composto por dois elementos: imagens e anotações/rótulos. As seções a seguir explicam para que rótulos e imagens são usados e como eles se juntam para criar conjuntos de dados. 

## Imagens
<a name="preparing-datasets-adapters-images"></a>

Você precisará treinar um adaptador em amostras representativas de suas imagens. Ao selecionar imagens para treinamento, tente incluir pelo menos algumas imagens que demonstrem a resposta esperada para cada um dos rótulos que você está segmentando com seu adaptador. 

Para criar um conjunto de dados de treinamento, você precisa fornecer um dos dois tipos de imagem a seguir:
+ Imagens com previsões de falsos positivos. Por exemplo, quando um modelo básico prevê que uma imagem tem álcool, mas isso não acontece.
+ Imagens com previsões de falsos negativos. Por exemplo, quando um modelo básico prevê que uma imagem não tem álcool, mas tem. 

Para criar um conjunto de dados balanceado, é recomendável fornecer um dos dois tipos de imagem a seguir:
+ Imagens com previsões verdadeiramente positivas. Por exemplo, quando um modelo básico prediz corretamente que uma imagem tem álcool. É recomendável fornecer essas imagens se você fornecer imagens de falso positivo.
+ Imagens com previsões de Falso negativo. Por exemplo, quando um modelo básico prediz corretamente que uma imagem não tem álcool. É recomendável fornecer essas imagens se você fornecer imagens em falsos negativos.

## Rótulos
<a name="preparing-datasets-adapters-labels"></a>

Um rótulo se refere a qualquer um dos seguintes: objetos, eventos, conceitos ou atividades. Para moderação de conteúdo, um rótulo é uma instância de conteúdo impróprio, indesejado ou ofensivo. 

No contexto da criação de um adaptador treinando o modelo básico do Rekognition, quando um rótulo é atribuído a uma imagem, ele é chamado de anotação. Ao treinar um adaptador com o Rekognition Console, você usará o console para adicionar anotações às suas imagens escolhendo uma etiqueta e marcando as imagens que correspondam à etiqueta. Por meio desse processo, o modelo aprende a identificar elementos de suas imagens com base no rótulo atribuído. Esse processo de vinculação permite que o modelo se concentre no conteúdo mais relevante quando um adaptador é criado, resultando em maior precisão na análise de imagens. 

Como alternativa, você pode fornecer arquivos de manifesto, que contêm informações sobre imagens e as anotações que as acompanham.

## Conjuntos de dados de treinamento e teste
<a name="preparing-datasets-adapters-datasets"></a>

O conjunto de dados de treinamento é a base para ajustar o modelo e criar um adaptador personalizado. Você deve fornecer um conjunto de dados de treinamento anotado para o modelo aprender. O modelo aprende com esse conjunto de dados para melhorar seu desempenho no tipo de imagem que você fornece. 

 Para melhorar a precisão, você deve criar seu conjunto de dados de treinamento por annotation/labeling imagens. É possível fazer isso de duas maneiras: 
+  Atribuição manual de rótulos: você pode usar o Rekognition Console para criar um conjunto de dados de treinamento fazendo o upload das imagens que você deseja que seu conjunto de dados contenha e, em seguida, atribuir manualmente rótulos a essas imagens.
+  Arquivo de manifesto — Você pode usar um arquivo de manifesto para treinar seu adaptador. O arquivo de manifesto contém informações sobre as anotações verdadeiras de suas imagens de treinamento e teste, bem como a localização de suas imagens de treinamento. Você pode fornecer o arquivo de manifesto ao treinar um adaptador usando o APIs Rekognition ou ao usar o Console. AWS 

O conjunto de dados de teste é usado para avaliar o desempenho do adaptador após o treinamento. Para garantir uma avaliação confiável, o conjunto de dados de teste é criado usando uma fatia do conjunto de dados de treinamento original que o modelo nunca viu antes. Esse processo garante que o desempenho do adaptador seja avaliado com novos dados, criando medidas e métricas precisas. Para obter melhorias de precisão ideais, consulte [Práticas recomendadas para adaptadores de treinamento](using-adapters-best-practices.md).

# Gerenciando adaptadores com a AWS CLI e SDKs
<a name="managing-adapters"></a>

 O Rekognition permite que você use vários recursos que utilizam modelos de visão computacional pré-treinados. Com esses modelos, você pode realizar tarefas como detecção de rótulos e moderação de conteúdo. Você também pode personalizar esses determinados modelos usando um adaptador. 

Você pode usar a criação e o gerenciamento de projetos do Rekognition APIs (como e [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)) para criar [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)e treinar adaptadores. As páginas a seguir descrevem como usar as operações de API para criar, treinar e gerenciar seus adaptadores usando o AWS console, o AWS SDK escolhido ou a CLI AWS . 

Depois de treinar um adaptador, você pode usá-lo ao executar a inferência com os recursos compatíveis. Atualmente, há suporte para adaptadores ao usar o recurso de moderação de conteúdo.

Ao treinar um adaptador usando um AWS SDK, você deve fornecer seus rótulos verdadeiros (anotações de imagem) na forma de um arquivo de manifesto. Como alternativa, você pode usar o Console do Rekognition para criar e treinar um adaptador.

**nota**  
 Os adaptadores não podem ser copiados. Apenas as versões do projeto Rekognition Custom Labels podem ser copiadas. 

**Topics**
+ [Status do adaptador](#managing-adapters-project-versions-statuses)
+ [Criação de um projeto](managing-adapters-create-project.md)
+ [Descrevendo projetos](managing-adapters-describe-projects.md)
+ [Excluir um projeto](managing-adapters-delete-project.md)
+ [Criando uma versão do projeto](managing-adapters-create-project-version.md)
+ [Descrevendo uma versão do projeto](managing-adapters-describe-project.md)
+ [Excluindo uma versão do projeto](managing-adapters-delete-project-version.md)

## Status do adaptador
<a name="managing-adapters-project-versions-statuses"></a>

O adaptador de moderação personalizado (versões de projetos) pode estar em um dos seguintes status: 
+ TRAINING\$1IN\$1PROGRESS: o adaptador está em processo de treinamento nos arquivos que você forneceu como documentos de treinamento.
+ TRAINING\$1COMPLETED: o adaptador concluiu com êxito o treinamento e está pronto para que você analise seu desempenho. 
+ TRAINING\$1FAILED: o adaptador falhou ao concluir seu treinamento por algum motivo. Consulte o arquivo de manifesto de saída e o resumo do manifesto de saída para obter informações sobre a causa da falha.
+ DELETING: o adaptador está em processo de ser excluído.
+ DEPRECATED: o adaptador foi treinado em uma versão mais antiga do modelo básico de moderação de conteúdo. Está em um período de carência e expirará dentro de 60 a 90 dias após o lançamento da nova versão do modelo básico. Durante o período de carência, você ainda pode usar o adaptador para inferência [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)ou operações de [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)API. Consulte o console de moderação personalizado para saber a data de validade dos seus adaptadores.
+ EXPIRADO - O adaptador foi treinado em uma versão mais antiga do modelo básico de moderação de conteúdo e não pode mais ser usado para obter resultados personalizados com as operações da StartMediaAnalysisJob API DetectModerationLabels ou da API. Se um adaptador expirado for especificado em uma solicitação de inferência, ele será ignorado e a resposta será retornada da versão mais recente do modelo básico de moderação personalizada. 

# Criação de um projeto
<a name="managing-adapters-create-project"></a>

Com a [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)operação, você pode criar um projeto que conterá um adaptador para as operações de detecção de etiquetas do Rekognition. Um projeto é um grupo de recursos e, no caso de operações de detecção de rótulos DetectModerationLabels, como, um projeto permite armazenar adaptadores que podem ser usados para personalizar o modelo básico do Rekognition. Ao invocar CreateProject, você fornece o nome do projeto que deseja criar para o ProjectName argumento. 

 Para criar um projeto com o AWS console: 
+ Faça login no Console do Rekognition
+ Clique em **Moderação personalizada**
+ Escolha **Criar projeto**
+ Selecione **Criar um novo projeto** ou **Adicionar a um projeto existente**
+ Adicione um **Nome do Projeto**
+ Adicione um **Nome do adaptador**
+ Adicione uma descrição, se desejar
+ Escolha como você deseja importar suas imagens de treinamento: arquivo de manifesto, do bucket do S3 ou do seu computador
+ Escolha se você deseja dividir automaticamente seus dados de treinamento ou importar um arquivo de manifesto
+ Selecione se você deseja ou não que o projeto seja atualizado automaticamente
+ Clique em **Criar projeto**

Para criar um projeto com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para criar um projeto:

------
#### [ CLI ]

```
# Request
# Creating Content Moderation Project
aws rekognition create-project \
    --project-name "project-name" \
    --feature CONTENT_MODERATION \
    --auto-update ENABLED
    --profile profile-name
```

------

# Descrevendo projetos
<a name="managing-adapters-describe-projects"></a>

Você pode usar a [DescribeProjects](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjects.html)API para obter informações sobre seus projetos, incluindo informações sobre todos os adaptadores associados a um projeto. 

Para descrever projetos com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para descrever um projeto:

------
#### [ CLI ]

```
# Request
# Getting CONTENT_MODERATION project details 
aws rekognition describe-projects \
    --features CONTENT_MODERATION
    --profile profile-name
```

------

# Excluir um projeto
<a name="managing-adapters-delete-project"></a>

Você pode excluir um projeto usando o console do Rekognition ou chamando a API. [DeleteProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProject.html) Para excluir um projeto, primeiro você deve excluir cada um dos adaptadores associados. Um projeto ou modelo excluído não pode ser excluído. 

 Para excluir um projeto com o AWS console: 
+ Faça login no Console do Rekognition.
+ Clique em **Moderação personalizada**.
+ Você deve excluir cada adaptador associado ao seu projeto antes de excluir o projeto em si. Exclua todos os adaptadores associados ao projeto selecionando o adaptador e, em seguida, selecionando **Excluir**.
+ Selecione o projeto e, em seguida, selecione o botão **Excluir**.

Para excluir um projeto com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para excluir um projeto: 

------
#### [ CLI ]

```
aws rekognition delete-project 
  --project-arn project_arn \
  --profile profile-name
```

------

# Criando uma versão do projeto
<a name="managing-adapters-create-project-version"></a>

Você pode treinar um adaptador para implantação usando a [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)operação. CreateProjectVersion primeiro cria uma nova versão de um adaptador associado a um projeto e, em seguida, começa a treinar o adaptador. A resposta de CreateProjectVersion é um Amazon Resource Name (ARN) para a versão do modelo. O treinamento demora um pouco para ser concluído. Você pode obter o status atual ligando DescribeProjectVersions. Ao treinar um modelo, o Rekognition usa os conjuntos de dados de treinamento e teste associados ao projeto. Você cria conjuntos de dados usando o console. Para obter mais informações, consulte a seção sobre conjuntos de dados. 

 Para criar uma versão do projeto com o console do Rekognition: 
+  Faça login no console do AWS Rekognition 
+  Clique em Moderação personalizada 
+  Selecione um projeto. 
+  Na página "Detalhes do projeto", escolha **Criar adaptador** 
+  Na página "Criar um projeto", preencha os detalhes necessários para Detalhes do projeto, imagens de treinamento e imagens de teste e selecione **Criar projeto** . 
+  Na página "Atribuir rótulos às imagens", adicione rótulos às suas imagens e, ao terminar, selecione **Iniciar treinamento ** 

Para criar uma versão do projeto com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para criar uma versão do projeto: 

------
#### [ CLI ]

```
# Request
aws rekognition create-project-version \
 --project-arn project-arn \
 --training-data '{Assets=[GroundTruthManifest={S3Object="amzn-s3-demo-source-bucket",Name="manifest.json"}]}' \
 --output-config S3Bucket=amzn-s3-demo-destination-bucket,S3KeyPrefix=my-results \
 --feature-config "ContentModeration={ConfidenceThreshold=70}"
 --profile profile-name
```

------

# Descrevendo uma versão do projeto
<a name="managing-adapters-describe-project"></a>

Você pode listar e descrever os adaptadores associados a um projeto usando a [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)operação. Você pode especificar até 10 versões do modelo em ProjectVersionArns. Se você não especificar um valor, as descrições de todas as versões do modelo no projeto serão retornadas. 

Para descrever uma versão do projeto com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para descrever uma versão do projeto:

------
#### [ CLI ]

```
aws rekognition describe-project-versions 
  --project-arn project_arn \
  --version-names [versions]
```

------

# Excluindo uma versão do projeto
<a name="managing-adapters-delete-project-version"></a>

Você pode excluir um adaptador Rekognition associado a um projeto usando a operação. [DeleteProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProjectVersion.html) Você não pode excluir um adaptador se ele estiver em execução ou em treinamento. Para verificar o status de um adaptador, chame a DescribeProjectVersions operação e verifique o campo Status retornado por ela. Para interromper uma chamada de adaptador em execução StopProjectVersion. Se o modelo estiver treinando, espere até que ele termine o treinamento para excluí-lo. Você deve excluir cada adaptador associado ao seu projeto antes de excluir o projeto em si.

 Para excluir uma versão do projeto com o console do Rekognition: 
+ Faça login no Console do Rekognition
+ Clique em Moderação personalizada
+ Na guia Projetos, você pode ver todos os seus projetos e adaptadores associados. Selecione um adaptador e, em seguida, selecione **Excluir**.

Para excluir uma versão do projeto com a AWS CLI e o SDK:

1. Se você ainda não tiver feito isso, instale e configure a AWS CLI e o. AWS SDKs Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Use o código a seguir para excluir uma versão do projeto:

------
#### [ CLI ]

```
# Request
aws rekognition delete-project-version 
  --project-version-arn model_arn \
  --profile profile-name
```

------

# Tutorial de adaptador de moderação personalizado
<a name="using-adapters-tutorial"></a>

Este tutorial mostra como criar, treinar, avaliar, usar e gerenciar adaptadores usando o Console do Rekognition. Para criar, usar e gerenciar adaptadores com o AWS SDK, consulte. [Gerenciando adaptadores com a AWS CLI e SDKs](managing-adapters.md)

Os adaptadores permitem que você aprimore a precisão das operações de API do Rekognition, personalizando o comportamento do modelo para atender às suas próprias necessidades e casos de uso. Depois de criar um adaptador com este tutorial, você poderá usá-lo ao analisar suas próprias imagens com operações como [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), além de retreinar o adaptador para futuras melhorias. 

Neste tutorial, você aprenderá como:
+ Criar um projeto usando o console do Rekognition
+ Anotar os dados de treinamento
+ Treinar o adaptador no conjunto de dados de treinamento
+ Analisar o desempenho do adaptador
+ Usar o adaptador para análisar a imagem

## Pré-requisitos
<a name="using-adapters-tutorial-prereqs"></a>

Antes de concluir este tutorial, é recomendável que você leia [Criação e uso de adaptadores](creating-and-using-adapters.md).

Para criar um adaptador, você pode usar a ferramenta de console do Rekognition para criar um projeto, carregar e anotar suas próprias imagens e, em seguida, treinar um adaptador nessas imagens. Consulte [Criar um projeto e treinar um adaptador](#using-adapters-tutorial-annotation) para começar.

Como alternativa, você pode usar o console ou a API do Rekognition para recuperar previsões de imagens e depois verificar as previsões antes de treinar um adaptador sobre essas previsões. Consulte [Análise em massa, verificação de previsão e treinamento de um adaptador](#using-adapters-tuorial-annotation-bulk-analysis) para começar.

## Anotação de imagem
<a name="using-adapters-tutorial-image-annotation"></a>

Você mesmo pode anotar imagens rotulando imagens com o console do Rekognition ou usar a análise em massa do Rekognition para anotar imagens que você pode verificar se foram rotuladas corretamente. Escolha um dos tópicos abaixo para começar.

**Topics**
+ [Criar um projeto e treinar um adaptador](#using-adapters-tutorial-annotation)
+ [Análise em massa, verificação de previsão e treinamento de um adaptador](#using-adapters-tuorial-annotation-bulk-analysis)

### Criar um projeto e treinar um adaptador
<a name="using-adapters-tutorial-annotation"></a>

Conclua as etapas a seguir para treinar seu adaptador anotando imagens usando o console do Rekognition.

**Criar um projeto**

Antes de treinar ou usar um adaptador, você deve criar o projeto que o conterá. Você também deve fornecer as imagens usadas para treinar seu adaptador. Para criar um projeto, um adaptador e seus conjuntos de dados de imagem: 

1. Faça login no AWS Management Console e abra o console do Rekognition em. https://console.aws.amazon.com/rekognition/

1. No painel esquerdo, escolha **Moderação personalizada**. A página de destino da Moderação personalizada do Rekognition é exibida.  
![\[A interface de moderação personalizada do Rekognition não mostra adaptadores e opções já ajustados para criar um novo projeto ou pesquisa.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-1-landing-page.png)

1. A página inicial da Moderação personalizada mostra uma lista de todos os seus projetos e adaptadores, além de um botão para criar um adaptador. Escolha **Criar projeto** para criar um novo projeto e adaptador.

1. Se esta for sua primeira vez criando um adaptador, você será solicitado a criar um bucket do Amazon S3 para armazenar arquivos relacionados ao seu projeto e ao seu adaptador. Escolha **Criar bucket do Amazon S3**.

1. Na página seguinte, preencha o **nome do adaptador** e o **nome do projeto**. Forneça uma descrição do adaptador, se desejar.   
![\[Formulário para inserir detalhes do projeto, incluindo nome do projeto, nome do adaptador e descrição opcional do adaptador. Opções para importar o conjunto de dados de imagens de treinamento de um arquivo de manifesto ou bucket do S3.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-2-project-details.png)

1. Nesta etapa, você também fornecerá as imagens do seu adaptador. Você pode selecionar: **Importe imagens do seu computador**, **importe o arquivo manifesto** ou **importe imagens do bucket do Amazon S3**. Se você optar por importar suas imagens de um bucket do Amazon S3, forneça o caminho para o bucket e a pasta que contém suas imagens de treinamento. Se você enviar suas imagens diretamente do seu computador, observe que só poderá carregar até 30 imagens por vez. Se estiver usando um arquivo de manifesto que contenha anotações, pule as etapas listadas abaixo que abrangem a anotação de imagens e prossiga para a seção sobre [Analisando o desempenho do adaptador](#using-adapters-tutorial-performance).

1. Na seção **Detalhes do conjunto de dados de teste**, escolha **Divisão automática** para que o Rekognition selecione automaticamente a porcentagem apropriada de suas imagens como dados de teste ou escolha **Importar manualmente o arquivo manifesto**.

1. Depois de preencher essas informações, selecione **Criar projeto**.

**Treinar um adaptador**

Para treinar um adaptador com suas próprias imagens não anotadas:

1. Selecione o projeto que contém seu adaptador e, em seguida, escolha a opção **Atribuir rótulo às imagens**. 

1. Na página **Atribuir rótulo às imagens**, você pode ver todas as imagens que foram carregadas como imagens de treinamento. Você pode filtrar essas imagens por labeled/unlabeled status e por categoria de rótulo usando os dois painéis de seleção de atributos à esquerda. Você pode adicionar imagens adicionais ao seu conjunto de dados de treinamento selecionando o botão **Adicionar imagens** .  
![\[Interface de rotulagem de imagens com instruções, detalhes do adaptador e painel de imagem vazio.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-4-assign-labels-to-images.png)

1. Depois de adicionar imagens ao conjunto de dados de treinamento, você deve anotar suas imagens com rótulos. Depois de enviar suas imagens, a página "Atribuir rótulos às imagens" será atualizada para mostrar as imagens que você enviou. Você será solicitado a selecionar o rótulo apropriado para suas imagens em uma lista suspensa de rótulos compatíveis com o Rekognition Moderation. Você pode selecionar mais de um rótulo. 

1. Continue esse processo até adicionar rótulos a cada uma das imagens em seus dados de treinamento.

1. Depois de rotular todos os seus dados, selecione **Iniciar treinamento** para começar a treinar o modelo, que cria seu adaptador.  
![\[Interface mostrando duas imagens com opções para atribuir rótulos a categorias como nudez explícita, conteúdo sugestivo, violência, símbolos de ódio, álcool, drogas, tabaco etc.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-5-labels-images-blurred.png)

1. Antes de iniciar o processo de treinamento, você pode adicionar quaisquer **Tags** ao adaptador que desejar. Você também pode fornecer ao adaptador uma chave de criptografia personalizada ou usar uma chave AWS KMS. Depois de terminar de adicionar as tags desejadas e personalizar a criptografia ao seu gosto, selecione **Treinar adaptador** para iniciar o processo de treinamento do seu adaptador. 

1. Aguarde até que seu adaptador termine o treinamento. Depois que o treinamento for concluído, você receberá uma notificação de que seu adaptador terminou de ser criado.

Quando o status do seu adaptador for "Treinamento concluído", você poderá revisar as métricas do seu adaptador

### Análise em massa, verificação de previsão e treinamento de um adaptador
<a name="using-adapters-tuorial-annotation-bulk-analysis"></a>

Conclua as etapas a seguir para treinar seu adaptador verificando as previsões de análise em massa do modelo de moderação de conteúdo do Rekognition.

 Para treinar um adaptador verificando as previsões do modelo de moderação de conteúdo do Rekognition, você deve: 

1.  Realize análises em massa em suas imagens 

1.  Verifique as previsões retornadas para suas imagens 

Você pode obter previsões para imagens realizando análises em massa com o modelo básico do Rekognition ou com um adaptador que você já criou. 

**Execute análises em massa em suas imagens**

Para treinar um adaptador com base nas previsões que você verificou, primeiro você deve iniciar um trabalho de análise em massa para analisar um lote de imagens usando o modelo básico do Rekognition ou um adaptador de sua escolha. Para executar um trabalho de análise em massa: 

1. Faça login no Console de gerenciamento da AWS e abra o console do Amazon Rekognition em. [https://console.aws.amazon.com/rekognition/](https://console.aws.amazon.com/rekognition/)

1. No painel esquerdo, escolha **Análise em massa**. A página inicial da análise em massa é exibida. Escolha **Iniciar análise em massa**. A visão geral do atributo de análise em massa mostra as etapas para fazer upload de imagens, aguardar a análise, revisar os resultados e, opcionalmente, verificar as predições de modelo. Lista trabalhos recentes de análise em massa para moderação de conteúdo usando o modelo básico.  
![\[Visão geral do atributo de análise em massa mostrando o fluxo de trabalho e listando trabalhos recentes de análise em massa para moderação de conteúdo usando o modelo básico.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-1-create-bulk-analysis.png)

1. Se esta for sua primeira vez criando um adaptador, você será solicitado a criar um bucket do Amazon Simple Storage Service para armazenar arquivos relacionados ao seu projeto e ao seu adaptador. Escolha **Criar bucket do Amazon S3**.

1. Selecione o adaptador que você deseja usar para a análise em massa usando o menu suspenso **Escolher um adaptador** . Se nenhum adaptador for escolhido, o modelo básico será usado por padrão. Para os fins deste tutorial, não escolha um adaptador.  
![\[Interface de análise em massa com menus suspensos para escolher um atributo do Rekognition, adaptador, definir um nome de trabalho e um limite mínimo de confiança para rótulos. Alguns campos são obrigatórios.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-2-bulk-analysis-job.png)

1.  No campo **Nome do trabalho de análise em massa**, preencha o nome do trabalho de análise em massa. 

1. Escolha um valor para o **Limite mínimo de confiança**. As previsões de rótulos com menos do que o limite de confiança escolhido não serão retornadas. Observe que, ao avaliar o desempenho do modelo posteriormente, você não poderá ajustar o limite de confiança abaixo do limite mínimo de confiança escolhido.

1. Nesta etapa, você também fornecerá as imagens que deseja analisar com a análise em massa. Essas imagens também podem ser usadas para treinar seu adaptador. Você pode escolher **Carregar imagens do seu computador** ou **Importar imagens do bucket Amazon S3**. Se você optar por importar seus documentos de um bucket do Amazon S3, forneça o caminho para o bucket e a pasta que contém suas imagens de treinamento. Se você enviar seus documentos diretamente do seu computador, observe que só poderá fazer upload de 50 imagens por vez.

1. Depois de preencher essas informações, escolha **Iniciar análise**. Isso iniciará o processo de análise usando o modelo básico do Rekognition.

1.  Você pode verificar o status de seu trabalho de análise em massa verificando o status de análise em massa do trabalho na página principal de análise em massa. Quando o status da análise em massa se torna "Bem-sucedida", os resultados da análise estão prontos para análise.   
![\[Tabela de trabalhos de análise em massa mostrando um trabalho chamado “Avaliação 01" com status “Bem-sucedido”, usando a API Content moderation Recognition e o modelo básico.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-3-bulk-analysis-status.png)

1.  Escolha a análise que você criou na lista de **Trabalhos de análise em massa**. 

1. Na página de detalhes da análise em massa, você pode ver as previsões que o modelo básico do Rekognition fez para as imagens que você enviou. 

1. Analise o desempenho do modelo básico. Você pode alterar o limite de confiança que seu adaptador deve ter para atribuir um rótulo a uma imagem usando o controle deslizante de limite de confiança. O número de instâncias sinalizadas e não sinalizadas mudará à medida que você ajusta o limite de confiança. O painel Categorias de rótulos exibe as categorias de nível superior que o Rekognition reconhece, e você pode selecionar uma categoria nessa lista para exibir qualquer imagem que tenha sido atribuída a esse rótulo.   
![\[O gráfico de barras da análise em massa mostrando a contagem de imagens marcadas para vários rótulos.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-4-bulk-analysis-complete.png)

**Verificar as previsões**

Se você analisou a precisão do modelo básico do Rekognition ou de um adaptador escolhido e deseja melhorar essa precisão, você pode utilizar o fluxo de trabalho de verificação: 

1. Depois de terminar de revisar o desempenho do modelo básico, você desejará verificar as previsões. A correção das previsões permitirá que você treine um adaptador. Escolha **Verificar previsões** na parte superior da página de análise em massa.  
![\[Um painel solicitando que você verifique as previsões para calcular taxas de falsos positivos e negativos ou treine um adaptador de moderação personalizado para aumentar a precisão.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-6-start-verification.png)

1. Na página Verificar previsões, você pode ver todas as imagens que forneceu ao modelo básico do Rekognition, ou a um adaptador escolhido, junto com o rótulo previsto para cada imagem. Você deve verificar se cada previsão está correta ou incorreta usando os botões abaixo da imagem. Use o botão "X" para marcar uma previsão como incorreta e o botão de marca de seleção para marcar uma previsão como correta. Para treinar um adaptador, você precisará verificar pelo menos 20 previsões falso-positivas e 50 predições falso-negativas para um determinado rótulo. Quanto mais previsões você verificar, melhor será o desempenho do adaptador.   
![\[Três imagens mostrando pessoas segurando bebidas alcoólicas, usadas para ilustrar a previsão da categoria “Álcool” para rótulos de imagens.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-7-verify-predictions-1.png)

   Depois de verificar uma previsão, o texto abaixo da imagem será alterado para mostrar o tipo de previsão que você verificou. Depois de verificar uma imagem, você também pode adicionar rótulos adicionais à imagem usando o menu **Atribuir rótulos à imagem** . Você pode ver quais imagens estão marcadas ou não marcadas pelo modelo de acordo com o limite de confiança escolhido ou filtrar imagens por categoria.   
![\[Imagem mostrando três exemplos de moderação de conteúdo para bebidas alcoólicas, bem como um menu para aplicar rótulos.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-8-verify-predictions-2.png)

1. Depois de concluir a verificação de todas as previsões que deseja verificar, você poderá ver estatísticas sobre suas previsões verificadas na seção **Desempenho por rótulo** da página Verificação. Você também pode retornar à página de detalhes da análise em massa para ver essas estatísticas.  
![\[Página de verificação de moderação de conteúdo mostrando taxas de falsos positivos para rótulos de nudez explícita, sugestiva e álcool com limite de confiança de 50%.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-8.5-predictions-stats.png)

1. Quando estiver satisfeito com as estatísticas sobre o **Desempenho por rótulo**, acesse a página **Verificar previsões** novamente e selecione o botão **Treinar um adaptador** para começar a treinar o adaptador.  
![\[Verifique a página de previsões mostrando os detalhes do trabalho, incluindo nome, data de criação, versão do modelo, locais de entrada e saída. O botão Treinar um adaptador está presente.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-9-train-adapter.png)

1. Na página Treinar um adaptador, você será solicitado a criar um projeto ou escolher um projeto existente. Nomeie o projeto e o adaptador que serão contidos no projeto. Você também deve especificar a origem das imagens de teste. Ao especificar as imagens, você pode escolher a divisão automática para que o Rekognition use automaticamente uma parte dos seus dados de treinamento como imagens de teste, ou você pode especificar manualmente um arquivo de manifesto. É recomendável escolher Divisão Automática.   
![\[Interface para criar um novo projeto de adaptador com campos para inserir nome do projeto, nome do adaptador, descrição do adaptador, especificar a fonte de dados de teste e dividir dados automaticamente ou importar um arquivo de manifesto.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-10-train-adapter-project.png)

1. Especifique as tags desejadas, bem como uma AWS KMS chave, se não quiser usar a AWS chave padrão. É recomendável deixar a **Atualização automática** ativada. 

1. Escolha **Treinar adaptador**.  
![\[Configurações de um adaptador, incluindo opções para adicionar tags, criptografia de dados, limite de confiança e atualização automática. O adaptador pode ser treinado com base nessa interface.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/BA-11-train-adapter.png)

1. Quando o status do seu adaptador na página inicial da Moderação personalizada se tornar "Treinamento concluído", você poderá revisar o desempenho do adaptador. Consulte [Analisando o desempenho do adaptador](#using-adapters-tutorial-performance) para obter mais informações.

## Analisando o desempenho do adaptador
<a name="using-adapters-tutorial-performance"></a>

Para analisar o desempenho do adaptador:

1. Ao usar o console, você poderá ver o status de qualquer adaptador associado a um projeto na guia Projetos na página inicial da Moderação personalizada. Navegue até a página inicial da Moderação personalizada.  
![\[Página inicial de moderação personalizada mostrando uma lista de projetos de moderação com detalhes como status, ID do adaptador, localização dos dados de entrada, versão do modelo base, data de criação e mensagens de status. Os projetos podem ser criados, excluídos ou retomados.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-7-status-alt.png)

1. Selecione o adaptador que você deseja revisar nesta lista. Na página de detalhes do adaptador a seguir, você pode ver uma variedade de métricas do adaptador.  
![\[Métricas de desempenho do adaptador mostram 25% de melhoria de falsos positivos e 24% de redução de falsos negativos para diferentes categorias de rótulos, como sugestivo e álcool, com dados reais sobre verdadeiros positivos, modelo básico e falsos negativos do adaptador.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-8.5-new-performance-review.png)

1. Com o painel **Limite**, você pode alterar o limite mínimo de confiança que seu adaptador deve ter para atribuir uma etiqueta a uma imagem. O número de instâncias sinalizadas e não sinalizadas mudará à medida que você ajusta o limite de confiança. Você também pode filtrar por categoria de rótulo para ver as métricas das categorias que você selecionou. Defina o limite escolhido.

1. Você pode avaliar o desempenho do adaptador nos dados de teste examinando as métricas no painel Desempenho do adaptador. Essas métricas são calculadas comparando as extrações do adaptador com as anotações de "verdade fundamental" no conjunto de teste. 

O painel de desempenho do adaptador mostra as taxas de melhoria de falsos positivos e de melhoria de falsos negativos do adaptador que você criou. A guia Desempenho por etiqueta pode ser usada para comparar o desempenho do adaptador e do modelo básico em cada categoria de etiqueta. Ele mostra contagens de previsões de falsos positivos e falsos negativos pelo modelo básico e pelo adaptador, estratificadas por categoria de rótulo. Ao analisar essas métricas, você pode determinar onde o adaptador precisa ser aprimorado. Para ter mais informações sobre essas métricas, consulte [Avaliar e melhorar o adaptador](using-adapters-evaluating-improving.md). 

Para melhorar o desempenho, você pode coletar mais imagens de treinamento e criar um novo adaptador baseado dentro do projeto. Basta retornar à página inicial da Moderação personalizada e criar um novo adaptador dentro do seu projeto, fornecendo mais imagens de treinamento para o adaptador a ser treinado. Desta vez, escolha a opção **Adicionar a um projeto existente** em vez de **Criar um novo projeto** e selecione o projeto no qual você deseja criar o novo adaptador no menu suspenso **Nome do projeto**. Como antes, anote suas imagens ou forneça um arquivo de manifesto com anotações.

![\[Interface para criar um novo adaptador de moderação de conteúdo ou adicionar a um projeto existente, com opções para nomear o adaptador e o projeto.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-9-create-new-adapter.png)


## Usar o adaptador
<a name="using-adapters-tutorial-using-adapter"></a>

Depois de criar seu adaptador, você pode fornecê-lo a uma operação de Rekognition compatível, como. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Para ver exemplos de código que você pode usar para realizar inferências com seu adaptador, selecione a guia “Usar adaptador”, onde você pode ver exemplos de código para a AWS CLI e o Python. Você também pode visitar a seção respectiva da documentação da operação para a qual você criou um adaptador para ver mais exemplos de código, instruções de configuração e um exemplo de JSON. 

![\[Interface mostrando locais para dados de teste, dados de treinamento e dados de saída com os campos de URL do S3 correspondentes. Opções para usar um adaptador, visualizar imagens e tags de treinamento e acessar detalhes do adaptador, incluindo sua ID e exemplos de código para AWS CLI e Python usarem o adaptador treinado.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/adapters-12-use-adapter.png)


## Excluir adaptador e projeto
<a name="using-adapters-tutorial-deleting-adapter"></a>

Você pode excluir adaptadores ou projeto individualmente. Você deve excluir cada adaptador associado ao seu projeto antes de excluir o projeto em si.

1. Para excluir um adaptador associado ao projeto, escolha o adaptador e escolha **Excluir**.

1. Para excluir um projeto, escolha o projeto que você deseja excluir e escolha **Excluir**.

# Avaliar e melhorar o adaptador
<a name="using-adapters-evaluating-improving"></a>

Depois de cada rodada de treinamento do adaptador, você deve analisar as métricas de desempenho na ferramenta console do Rekognition para determinar o quão próximo o adaptador está do nível de desempenho desejado. Em seguida, você pode melhorar ainda mais a precisão de suas imagens do adaptador fazendo o upload de um novo lote de imagens de treinamento e treinando um novo adaptador dentro do seu projeto. Depois de criar uma versão aprimorada do adaptador, você pode usar o console para excluir qualquer versão antiga do adaptador que não seja mais necessária. 

Você também pode recuperar métricas usando a operação da [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)API.

## Métricas de performance
<a name="using-adapters-performance-metrics"></a>

Depois de concluir o processo de treinamento e criar seu adaptador, é importante avaliar o quão bem o adaptador está extraindo informações de suas imagens.

Duas métricas são fornecidas no Console do Rekognition para ajudá-lo a analisar o desempenho do seu adaptador: melhoria de falsos positivos e melhoria de falsos negativos. 

Você pode ver essas métricas para qualquer adaptador selecionando a guia "Desempenho do adaptador" na parte do adaptador do console. O painel de desempenho do adaptador mostra as taxas de melhoria de falsos positivos e de melhoria de falsos negativos do adaptador que você criou. 

A melhoria de falsos positivos mede o quanto o reconhecimento de falsos positivos pelo adaptador melhorou em relação ao modelo básico. Se o valor de melhoria de falsos positivos for 25%, isso significa que o adaptador melhorou seu reconhecimento de falsos positivos em 25% no conjunto de dados de teste.

A melhoria de falsos negativos mede o quanto o reconhecimento de falsos negativos pelo adaptador melhorou em relação ao modelo básico. Se o valor de melhoria de falsos negativos for 25%, isso significa que o adaptador melhorou seu reconhecimento de falsos negativos em 25% no conjunto de dados de teste.

A guia Desempenho por etiqueta pode ser usada para comparar o desempenho do adaptador e do modelo básico em cada categoria de etiqueta. Ele mostra contagens de previsões de falsos positivos e falsos negativos pelo modelo básico e pelo adaptador, estratificadas por categoria de rótulo. Ao analisar essas métricas, você pode determinar onde o adaptador precisa ser aprimorado.

Por exemplo, se a taxa de falsos negativos do modelo básico para a categoria de rótulo de álcool for 15, enquanto a taxa de falsos negativos do adaptador for 15 ou superior, você sabe que deve se concentrar em adicionar mais imagens contendo o rótulo de álcool ao criar um novo adaptador.

Ao usar as operações da API Rekognition, a métrica F1-Score é retornada ao chamar a operação. [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)

## Melhorar o modelo
<a name="using-adapters-improving-model"></a>

A implantação do adaptador é um processo iterativo, pois você provavelmente precisará treinar um adaptador várias vezes para atingir o nível de precisão desejado. Depois de criar e treinar seu adaptador, você deve testar e avaliar o desempenho do adaptador em vários tipos de etiquetas. 

Se a precisão do adaptador estiver insuficiente em alguma área, adicione novos exemplos dessas imagens para aumentar o desempenho do adaptador para essas etiquetas. Tente fornecer ao adaptador exemplos adicionais e variados que reflitam os casos em que ele tem dificuldades. Fornecer ao seu adaptador imagens representativas e variadas permite que ele manipule diversos exemplos do mundo real.

Depois de adicionar novas imagens ao seu conjunto de treinamento, treine novamente o adaptador e reavalie-o no conjunto de teste e nas etiquetas. Repita esse processo até que o adaptador atinja o nível de desempenho desejado. Se você fornecer imagens e anotações mais representativas, as pontuações de falso positivo e falso negativo melhorarão gradualmente ao longo das sucessivas iterações de treinamento.

# Formatos de arquivo manifesto
<a name="using-adapters-manifest-files"></a>

As seções a seguir mostram exemplos dos formatos de arquivo de manifesto para arquivos de entrada, saída e avaliação.

## Manifesto de entrada
<a name="using-adapters-manifest-files-input"></a>

Um arquivo manifesto é um arquivo delimitado por linha json, com cada linha contendo um JSON que contém informações sobre uma única imagem. 

Cada entrada no manifesto de entrada deve conter o campo `source-ref` com um caminho para a imagem no bucket do Amazon S3 e, para moderação personalizada, o campo `content-moderation-groundtruth` com anotações básicas. Espera-se que todas as imagens em um conjunto de dados estejam no mesmo bucket. A estrutura é comum aos arquivos de manifesto de treinamento e teste.

A operação `CreateProjectVersion` de moderação personalizada usa as informações fornecidas no manifesto de entrada para treinar um adaptador. 

O exemplo a seguir é uma linha de um arquivo de manifesto para uma única imagem que contém uma única classe não segura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            }
        ]
   }
}
```

O exemplo a seguir é uma linha de um arquivo de manifesto para uma única imagem insegura que contém várias classes inseguras, especificamente Nudez e Gesto Rude.

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            },
            {
                "Name": "Nudity"
            }
        ]
   }
}
```

O exemplo a seguir é uma linha de um arquivo de manifesto para uma única imagem que não contém nenhuma classe insegura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": []
   }
}
```

Para ver a lista completa de rótulos compatíveis, consulte [Moderação de conteúdo](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).



## Manifesto de saída
<a name="using-adapters-manifest-files-output"></a>

Ao concluir um trabalho de treinamento, um arquivo de manifesto de saída é retornado. O arquivo de manifesto de saída é um arquivo delimitado por linha JSON com cada linha contendo um JSON que contém informações para uma única imagem. O caminho do Amazon S3 para o OutputManifest pode ser obtido a partir da `DescribeProjectVersion` resposta:
+  `TrainingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` para conjunto de dados de treinamento 
+  `TestingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` para testar o conjunto de dados 

As informações a seguir são retornadas para cada entrada no manifesto de saída:


|  |  | 
| --- |--- |
| Nome da chave | Description | 
|  source-ref  | Referência a uma imagem em s3 que foi fornecida no manifesto de entrada | 
|  content-moderation-groundtruth  | Anotações verídicas básicas que foram fornecidas no manifesto de entrada | 
|  detect-moderation-labels  | Previsões do adaptador, apenas parte do conjunto de dados de teste | 
|  detect-moderation-labels-base-model  | Previsões do modelo básico, apenas parte do conjunto de dados de teste | 

As previsões do adaptador e do modelo básico são retornadas em ConfidenceTrehsold 5.0 no formato semelhante à [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)resposta.

O exemplo a seguir mostra a estrutura das previsões do modelo Adaptador e Base:

```
{
   "ModerationLabels": [ 
      { 
         "Confidence": number,
         "Name": "string",
         "ParentName": "string"
      }
   ],
   "ModerationModelVersion": "string",
   "ProjectVersion": "string"
}
```

Para ver a lista completa de rótulos devolvidos, consulte [Moderação de conteúdo](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).

## Manifesto dos resultados da avaliação
<a name="using-adapters-manifest-files-eval"></a>

Ao concluir um trabalho de treinamento, um arquivo de manifesto do resultado da avaliação é retornado. O manifesto dos resultados da avaliação é um arquivo JSON gerado pelo trabalho de treinamento e contém informações sobre o desempenho do adaptador nos dados de teste.

O caminho do Amazon S3 para o manifesto dos resultados da avaliação pode ser obtido no `EvaluationResult.Summary.S3Object` campo na DescribeProejctVersion resposta.

O exemplo a seguir mostra a estrutura do manifesto dos resultados da avaliação:

```
{
    "AggregatedEvaluationResults": {
       "F1Score": number
    },

    "EvaluationDetails": {
        "EvaluationEndTimestamp": "datetime",
        "Labels": [
            "string"
        ],
        "NumberOfTestingImages": number,
        "NumberOfTrainingImages": number,
        "ProjectVersionArn": "string"
    },

    "ContentModeration": {
        "InputConfidenceThresholdEvalResults": {
            "ConfidenceThreshold": float,
            "AggregatedEvaluationResults": {
                "BaseModel": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                },
                "Adapter": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                }
            },
            "LabelEvaluationResults": [
                {
                    "Label": "string",
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                }
            ]
        }
        "AllConfidenceThresholdsEvalResults": [
            {
                "ConfidenceThreshold": float,
                "AggregatedEvaluationResults": {
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                },
                "LabelEvaluationResults": [
                    {
                       "Label": "string",
                        "BaseModel": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        },
                        "Adapter": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        }
                    }
                ]
            }
        ]
    }
}
```

O arquivo de manifesto de avaliação contém:
+ Resultados agregados conforme definido por `F1Score` 
+ Detalhes do trabalho de avaliação ProjectVersionArn, incluindo o número de imagens de treinamento, o número de imagens de teste e as etiquetas nas quais o adaptador foi treinado.
+  FalseNegative Resultados agregados TruePositive, TrueNegative, FalsePositive, para o modelo básico e para o desempenho do adaptador.
+ Por etiqueta TruePositive,, TrueNegative FalsePositive, e FalseNegative resultados para o modelo básico e o desempenho do adaptador, calculados no limite de confiança de entrada.
+  FalseNegative Resultados agregados e por rótulo TruePositive, TrueNegative, FalsePositive, e para o desempenho do modelo básico e do adaptador em diferentes limites de confiança. O limite de confiança varia de 5 a 100 em etapas de 5.

# Práticas recomendadas para adaptadores de treinamento
<a name="using-adapters-best-practices"></a>

É sugerido que você siga as seguintes práticas recomendadas ao criar, treinar e usar seus adaptadores:



1.  Os dados da imagem da amostra devem capturar os erros representativos que os clientes pretendem suprimir. Se o modelo estiver cometendo erros repetidos em imagens visualmente semelhantes, certifique-se de trazer muitas dessas imagens para treinamento. 

1.  Em vez de incluir apenas imagens de que a modelo cometeu erros em um rótulo de moderação específico, certifique-se de incluir imagens de que a modelo não esteja cometendo erros nesse rótulo de moderação. 

1.  Forneça no mínimo cinquenta amostras de falsos negativos OU vinte amostras de falsos positivos para treinamento e um mínimo de vinte amostras para teste. No entanto, forneça o máximo possível de imagens anotadas para melhorar o desempenho do adaptador. 

1.  Anotar todos os rótulos que são importantes para você em todas as imagens, se você decidir que precisa anotar a ocorrência de um rótulo em uma imagem, certifique-se de anotar a ocorrência desse rótulo em todas as outras imagens. 

1.  Os dados da imagem da amostra devem conter o máximo possível de variações na etiqueta, concentrando-se em instâncias representativas das imagens que serão analisadas em um ambiente de produção. 

# Configurando AutoUpdate permissões
<a name="using-adapters-autoupdate"></a>

O Rekognition suporta o recurso de adaptadores personalizados. AutoUpdate Isso significa que a reciclagem automatizada é feita da melhor maneira possível quando o AutoUpdate sinalizador está HABILITADO em um projeto. Essas atualizações automáticas exigem permissão para acessar seus Training/Testing conjuntos de dados e a AWS KMS chave com a qual você treina seu adaptador cliente. Você pode fornecer essas permissões seguindo as etapas abaixo.



## Permissões do bucket do Amazon S3
<a name="using-adapters-autoupdate-s3"></a>

 Por padrão, todos os buckets e objetos do Amazon S3 são privados. Somente o proprietário do recurso, a AWS conta que criou o bucket, pode acessar o bucket e quaisquer objetos que ele contenha. No entanto, o proprietário do recurso pode optar por conceder permissões de acesso a outros recursos e usuários escrevendo uma política de bucket.

 Se você quiser criar ou modificar um bucket do Amazon S3 para ser usado como fonte de conjuntos de dados de entrada e destino dos resultados do treinamento em um treinamento de adaptador personalizado, você deve modificar ainda mais a política do bucket. Para ler ou gravar em um bucket do Amazon S3, o Rekognition deve ter as seguintes permissões. 

**Política de reconhecimento obrigatório do Amazon S3**

O Rekognition exige uma política de permissão com os seguintes atributos:
+ A declaração SID
+ O nome do bucket
+ O nome da entidade principal do serviço do Rekognition.
+ Os recursos necessários para o Rekognition: o bucket e todo o seu conteúdo
+ As ações necessárias que o Rekognition precisa realizar.

A política a seguir permite que o Rekognition acesse um bucket do Amazon S3 durante um novo treinamento automatizado.

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Sid": "AllowRekognitionAutoUpdateActions",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "s3:ListBucket",
                "s3:GetObject",
                "s3:PutObject",
                "s3:HeadObject",
                "s3:HeadBucket"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket",
                "arn:aws:s3:::amzn-s3-demo-bucket/*"
            ]
        }
    ]
}
```

Você pode seguir [este guia](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) para adicionar a política de bucket acima ao seu bucket do S3.

Veja mais informações sobre políticas de bucket [aqui](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html).

## AWS KMS Permissões principais
<a name="using-adapters-autoupdate-KMS"></a>

 O Rekognition permite que você forneça um opcional enquanto treina um adaptador personalizado. KmsKeyId Quando fornecida, o Rekognition usa essa chave para criptografar imagens de treinamento e teste copiadas no serviço para treinamento de modelos. A chave também é usada para criptografar resultados de treinamento e arquivos de manifesto gravados no bucket OutputConfig de saída do Amazon S3 (). 

 Se você optar por fornecer uma chave do KMS como entrada para seu treinamento de adaptador personalizado (ou seja, `Rekognition:CreateProjectVersion`), deverá modificar a política de chave do KMS para permitir que a entidade principal de serviços do Rekognition use essa chave para reciclagem automatizada no futuro. O Rekognition deve ter as permissões a seguir. 

**Política de Chave Obrigatória do Rekognition AWS KMS **

O Amazon Rekognition exige uma política de permissão com os seguintes atributos:
+ A declaração SID
+ O nome da entidade principal do serviço do Amazon Rekognition.
+ As ações necessárias que o Amazon Rekognition precisa realizar.

A política de chave a seguir permite que o Amazon Rekognition acesse uma chave do Amazon KMS durante um novo treinamento automatizado:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "KeyPermissions",
            "Effect": "Allow",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "kms:DescribeKey",
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Você pode seguir [este guia](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) para adicionar a AWS KMS política acima à sua AWS KMS chave.

Veja mais informações sobre AWS KMS políticas [aqui](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html).

# AWS Notificação do Health Dashboard para Rekognition
<a name="using-adapters-health-notification"></a>

 Seu AWS Health Dashboard fornece suporte para notificações provenientes do Rekognition. Essas notificações fornecem orientação de conscientização e remediação sobre mudanças programadas nos modelos do Rekognition que podem afetar seus aplicativos. Somente eventos específicos do recurso de moderação de conteúdo do Rekognition estão disponíveis atualmente. 

O AWS Health Dashboard faz parte do serviço AWS Health. Ele não requer configuração e pode ser visualizado por qualquer usuário autenticado em sua conta. Para obter mais informações, consulte [Conceitos básicos do AWS Health Dashboard](https://docs.aws.amazon.com/health/latest/ug/getting-started-phd.html).

Se você receber uma mensagem de notificação semelhante às mensagens a seguir, ela deverá ser tratada como um alarme para agir.

**Exemplo de notificação: Uma nova versão do modelo está disponível para a moderação de conteúdo do Rekognition.**

O Rekognition publica `AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION` o evento no Health Dashboard para indicar que uma nova versão AWS do modelo de moderação foi lançada. Esse evento é importante se você estiver usando a DetectModerationLabels API e os adaptadores com essa API. Novos modelos podem afetar a qualidade dependendo do seu caso de uso e, eventualmente, substituirão as versões anteriores do modelo. É recomendável validar a qualidade do seu modelo e estar ciente dos cronogramas de atualização do modelo ao receber esse alerta. 

Se você receber uma notificação de atualização da versão do modelo, deverá tratá-la como um alarme para agir. Se você não usa adaptadores, deve avaliar a qualidade do modelo atualizado em seu caso de uso existente. Se você usa adaptadores, deve treinar novos adaptadores com o modelo atualizado e avaliar sua qualidade. Se você tiver configurado o treinamento automático, os novos adaptadores serão treinados automaticamente e, em seguida, você poderá avaliar sua qualidade.

```
{
   "version": "0",
    "id": "id-number",
    "detail-type": "AWS Health Event",
    "source": "aws.health",
    "account": "123456789012",
    "time": "2023-10-06T06:27:57Z",
    "region": "region",
    "resources": [],
    "detail": {
        "eventArn": "arn:aws:health:us-east-1::event/AWS_MODERATION_MODEL_UPDATE_NOTIFICATION_event-number",
        "service": "Rekognition",
        "eventTypeCode": "AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION",
        "eventScopeCode": "ACCOUNT_SPECIFIC",
        "communicationId": "communication-id-number",
        "eventTypeCategory": "scheduledChange",
        "startTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "lastUpdatedTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "statusCode": "open",
        "eventRegion": "us-east-1",
        "eventDescription": [
            {
                "language": "en_US",
                "latestDescription": "A new model version is available for Rekognition Content Moderation."
            }
        ]
    }
}
```

 Consulte [Monitoramento de eventos de saúde da AWS com EventBridge a Amazon](https://docs.aws.amazon.com/health/latest/ug/cloudwatch-events-health.html) para detectar e reagir aos eventos de AWS saúde usando EventBridge. 