

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Como o Amazon Rekognition funciona
<a name="how-it-works"></a>

O Amazon Rekognition fornece dois conjuntos de APIs para análise visual:
+  Amazon Rekognition Image para análise de imagem 
+  Amazon Rekognition Video para análise de vídeo 

**Análise de imagem**

Com o Amazon Rekognition Image, seus aplicativos podem:
+ Detectar objetos, cenas e conceitos em imagens
+ Reconhecer celebridades
+ Detectar texto em várias linguagens
+ Detectar conteúdo ou imagens explícitos, impróprios ou violentos
+ Detectar, analisar e comparar faces e atributos faciais, como idade e emoções
+ Detectar a presença de EPI

Os casos de uso incluem aprimoramento de aplicativos de fotos, catalogação de imagens e moderação de conteúdo.

**Análise de vídeo**

Com o Amazon Rekognition Video, seus aplicativos podem:
+ Rastrear pessoas e objetos em quadros de vídeo
+ Reconhecer objetos
+ Reconhecer celebridades
+ Pesquisar vídeos armazenados e transmitidos por pessoas de interesse
+ Analisar rostos em busca de atributos como idade e emoções
+ Detectar conteúdo ou imagens explícitos, impróprios ou violentos
+ Agregar e classificar os resultados da análise por registros de data e hora e segmentos
+ Detectar pessoas, animais de estimação e pacotes em streaming de vídeo

Os casos de uso incluem análise de vídeo, catalogação de vídeos e filtragem de conteúdo impróprio.

**Recursos principais**
+ Análise avançada de aprendizado profundo
+ Detecção de alta precisão para objetos, cenas, faces, texto
+ API fácil de usar para integração em aplicativos
+ Modelos personalizáveis ajustados aos seus dados
+ Análise dimensionável de bibliotecas de mídia



O Amazon Rekognition permite que você aprimore a precisão de determinados modelos de aprendizado profundo treinando um adaptador personalizado. Por exemplo, com o Amazon Rekognition Custom Moderation, você pode adaptar o modelo básico de análise de imagens do Amazon Rekognition treinando um adaptador personalizado com suas imagens. Consulte [Enhancing accuracy with Custom Moderation](https://docs.aws.amazon.com/rekognition/latest/dg/moderation-custom-moderation.html) para obter mais informações.

As seções a seguir abrangem os tipos de análise que o Amazon Rekognition fornece e uma visão geral das operações do Amazon Rekognition Image e do Amazon Rekognition Video. Inclui também a diferença entre as operações de armazenamento e de não armazenamento.

Para demonstrar o APIs Amazon Rekognition, você [pode ver a Etapa 3: Começar a usar a AWS CLI e a API do AWS SDK](https://docs.aws.amazon.com/rekognition/latest/dg/get-started-exercise.html), que abrange o teste do Rekognition no console. AWS 

**Topics**
+ [Entender os tipos de análise do Rekognition](how-it-works-types.md)
+ [Entender as operações de imagem e vídeo do Rekognition](how-it-works-operations-intro.md)
+ [Entender operações de API sem armazenamento e com armazenamento](how-it-works-storage-non-storage.md)
+ [Noções básicas do versionamento de modelo](face-detection-model.md)

# Entender os tipos de análise do Rekognition
<a name="how-it-works-types"></a>

A seguir estão os tipos de análise que a API Amazon Rekognition Image e a API Amazon Rekognition Video podem realizar. Para obter informações sobre o APIs, consulte[Entender as operações de imagem e vídeo do Rekognition](how-it-works-operations-intro.md).

A tabela a seguir lista as operações que você precisa usar com relação ao tipo de mídia com a qual você está trabalhando e seu caso de uso:


****  

| Caso de uso | Tipo de mídia | Operações | 
| --- | --- | --- | 
|  [Como moderar um conteúdo](moderation.md)  | Imagens |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html), [GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html), [ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | Vídeo armazenado |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html), [GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| Verificação de identidade | [Imagens](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html), [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html), [SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [Vídeo armazenado](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html), [GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | Streaming de vídeo ([Detectando a vivacidade da face](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html), [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html), [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html),  | 
| [Análise facial](faces.md) | Imagens | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | Vídeo armazenado | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html), [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | Streaming de vídeo | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html), [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Reconhecimento de objetos e atividades](labels.md) | Imagens | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | Vídeos armazenados | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html), [GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [Casa conectada](https://github.com/aws-samples/rekognition-streaming-video-events) | Streaming de vídeo | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Análise de mídia](segments.md) | Vídeo armazenado | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html), [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [Segurança no local de trabalho](ppe-detection.md) | Imagens | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [Detecção de texto](text-detection.md) | Imagens | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | Vídeo | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html), [GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [Pessoas trafegando](persons.md) | Vídeo | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html), [GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [Reconhecimento de celebridades](celebrities.md) | Imagens | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | Vídeo | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html), [GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [Detecção de rótulo personalizado](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | Imagens | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | Treinamento de modelos | [Consulte o guia do desenvolvedor de etiquetas personalizadas](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## Rótulos
<a name="how-it-works-labels-intro"></a>

Um *rótulo* se refere a qualquer um dos seguintes: objetos (por exemplo, flor, árvore ou mesa), eventos (por exemplo, um casamento, formatura ou festa de aniversário), conceitos (por exemplo, paisagem, noite e natureza) ou atividades (por exemplo, correr ou jogar basquete). O Amazon Rekognition pode detectar rótulos em imagens e vídeos. Para obter mais informações, consulte [Detectando objetos e conceitos](labels.md).

O Rekognition pode detectar uma grande lista de rótulos na imagem e no vídeo armazenado. O Rekognition também pode detectar um pequeno número de rótulos no streaming de vídeo.

Use as seguintes operações para detectar rótulos com base no seu caso de uso:
+ Para detectar rótulos em imagens: Use [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html). Você pode identificar as propriedades da imagem, como as cores dominantes e a qualidade da imagem. Para conseguir isso, use [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)with `IMAGE_PROPERTIES` como parâmetro de entrada.
+ Para detectar marcadores em vídeos armazenados: Use [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html). A detecção de cores e qualidade de imagem dominantes não é compatível com o vídeo armazenado.
+ Para detectar rótulos em streaming de vídeo: Use [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). A detecção de cores e qualidade de imagem dominantes não é compatível com streaming de vídeo.

Você pode especificar quais tipos de rótulos deseja retornar para a detecção de rótulos de imagens e vídeos armazenados usando opções de filtragem inclusivas e exclusivas.

## Etiquetas personalizadas
<a name="how-it-works-custom-labels-intro"></a>

Os Amazon Rekognition Custom Labels podem identificar objetos e cenas em imagens que são específicos para suas necessidades comerciais treinando um modelo de machine learning. Por exemplo, é possível treinar um modelo para detectar logotipos ou detectar peças de máquinas de engenharia em uma linha de montagem.

**nota**  
Para obter informações sobre as Amazon Rekognition Custom Labels, consulte o [Guia do desenvolvedor de Amazon Rekognition Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html).

O Amazon Rekognition fornece um console que você usa para criar, treinar, avaliar e executar um modelo de machine learning. Para mais informações, veja [Conceitos básicos dos Amazon Rekognition Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html) no *Guia de desenvolvimento de Amazon Rekognition Custom Labels*. Você também pode usar a API Amazon Rekognition Custom Labels para treinar e executar um modelo. *Para obter mais informações, consulte [Conceitos básicos do Amazon Rekognition Custom Labels SDK no Guia do desenvolvedor do Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html). CustomLabels *

Para analisar imagens usando um modelo treinado, use [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html).

## Detecção de vivacidade facial
<a name="face-liveness-detection"></a>

O Amazon Rekognition Face Liveness pode ajudar você a verificar se um usuário que está passando pela verificação de identidade facial está fisicamente presente na frente da câmera e não é um malfeitor falsificando a face do usuário. Ele detecta ataques falsos que são apresentados a uma câmera e ataques que ignoram uma câmera. Um usuário pode concluir uma verificação de vivacidade facial tirando uma pequena selfie em vídeo, e uma pontuação de vivacidade é retornada para a verificação. A vivacidade facial é determinada com um cálculo probabilístico e uma pontuação de confiança (entre 0 e 100) é retornada após a verificação. Quanto maior a pontuação, maior a confiança de que a pessoa que recebe o cheque está viva. 

Para obter mais informações sobre o Face Liveness, consulte [Detectando a vivacidade da face](face-liveness.md).

## Detecção e análise facial
<a name="how-it-works-faces-intro"></a>

O Amazon Rekognition pode detectar faces em imagens e vídeos armazenados. Com o Amazon Rekognition, você pode obter informações sobre:
+ Onde as faces são detectadas em uma imagem ou vídeo
+ Marcos faciais, como a posição dos olhos
+ A presença de oclusão facial nas imagens
+ Emoções detectadas, como felicidade ou tristeza
+ Direção do olhar de uma pessoa em imagens

Você também pode interpretar informações demográficas, como sexo ou idade. Você pode comparar uma face em uma imagem com faces detectadas em outra imagem. Informações sobre faces também podem ser armazenadas para recuperação posterior. Para obter mais informações, consulte [Detectando e analisanda faces](faces.md).

Para detectar faces em imagens, use [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Para detectar faces em vídeos armazenados, use [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html).

## Pesquisa facial
<a name="how-it-works-search-faces-intro"></a>

O Amazon Rekognition pode pesquisar faces. As informações faciais são indexadas em um contêiner conhecido como uma coleção. As informações da face na coleção podem ser então correspondidas com as faces detectadas em imagens, vídeos armazenados e streaming de vídeo. Para obter mais informações, [Pesquisa de faces em uma coleção](collections.md).

Para pesquisar faces conhecidas em imagens, use [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Para pesquisar faces conhecidas em vídeos armazenados, use [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html). Para pesquisar faces conhecidas em streaming de vídeo, use [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html).

## Tráfego de pessoas
<a name="how-it-works-persons-intro"></a>

O Amazon Rekognition pode rastrear os caminhos das pessoas detectadas em um vídeo armazenado. O Amazon Rekognition Video fornece rastreamento de caminhos, detalhes faciais e informações de localização no quadro para pessoas detectadas em um vídeo. Para obter mais informações, consulte [Pessoas trafegando](persons.md). 

Para detectar pessoas em vídeos armazenados, use [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html).

## Equipamento de proteção individual
<a name="how-it-works-ppe-intro"></a>

 O Amazon Rekognition pode detectar equipamentos de proteção individual (EPI) usados por pessoas detectadas em uma imagem. O Amazon Rekognition detecta coberturas faciais, protetores para mãos e coberturas para a cabeça. O Amazon Rekognition prevê se um item de EPI cobre a parte apropriada do corpo. Você também pode obter caixas delimitadoras para pessoas detectadas e itens de EPI. Para obter mais informações, consulte [Detecção de equipamento de proteção individual](ppe-detection.md). 

Para detectar PPE em imagens, use [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html).

## Celebridades
<a name="how-it-works-celebrities-intro"></a>

 O Amazon Rekognition pode reconhecer milhares de celebridades em imagens e vídeos armazenados. É possível obter informações sobre onde a face de uma celebridade está localizada em uma imagem, pontos de referência faciais e a pose da face de uma celebridade. Você pode obter informações de rastreamento de celebridades conforme elas aparecem em um vídeo armazenado. Você também pode obter mais informações sobre uma celebridade reconhecida, como a emoção expressa e a apresentação do gênero. Para obter mais informações, consulte [Reconhecendo celebridades](celebrities.md). 

Para reconhecer celebridades em imagens, use [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html). Para reconhecer celebridades em vídeos armazenados, use [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html).

## Detecção de texto
<a name="how-it-works-text-intro"></a>

O Amazon Rekognition Text in Image pode detectar texto em imagens e convertê-lo em texto legível por máquina. Para obter mais informações, consulte [Detectar texto](text-detection.md).

Para detectar texto em imagens, use [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html).

## Conteúdo impróprio ou ofensivo
<a name="how-it-works-moderation-intro"></a>

O Amazon Rekognition pode analisar imagens e vídeos armazenados para conteúdo adulto e violento. Para obter mais informações, consulte [Como moderar um conteúdo](moderation.md).

Para detectar imagens desprotegidas, use [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Para detectar vídeos armazenados desprotegidos, use [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html).

## Personalização
<a name="how-it-works-customization"></a>

Algumas análises de imagem APIs oferecidas pelo Rekognition permitem que você aprimore a precisão dos modelos de aprendizado profundo criando adaptadores personalizados treinados com base em seus próprios dados. Os adaptadores são componentes que se conectam ao modelo pré-treinado de aprendizado profundo do Rekognition, aprimorando sua precisão com conhecimento de domínio baseado em suas imagens. Você treina um adaptador para atender às suas necessidades fornecendo e anotando imagens de amostra. 

Depois de criar um adaptador, você recebe um AdapterId. Você pode fornecer isso AdapterId a uma operação para especificar que deseja usar o adaptador que você criou. Por exemplo, você fornece o AdapterId para a [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API para análise síncrona de imagens. Fornecendo o AdapterId como parte da solicitação, o Rekognition o usará automaticamente para aprimorar as previsões de suas imagens. Isso permite que você aproveite os recursos do Rekognition enquanto o personaliza para atender às suas necessidades. 

Você também tem a opção de obter previsões para imagens em massa com a [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)API. Consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html) para obter mais informações.

Você pode avaliar a precisão das operações do Rekognition fazendo upload de imagens para o console do Rekognition e executando análises nessas imagens. O Rekognition fará anotações em suas imagens usando o recurso selecionado e, em seguida, você poderá revisar as previsões usando as previsões verificadas para determinar quais rótulos se beneficiariam com a criação de um adaptador.

Atualmente, você pode usar adaptadores com o. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Para obter mais informações sobre como criar e usar adaptadores, consulte [Aprimorando a precisão com moderação personalizada](moderation-custom-moderation.md).

## Análise em massa
<a name="how-it-works-bulk"></a>

O Rekognition Bulk Analysis permite processar uma grande coleção de imagens de forma assíncrona usando um arquivo de manifesto junto com a operação. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Consulte [Análise em massa](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html) para obter mais informações.

# Entender as operações de imagem e vídeo do Rekognition
<a name="how-it-works-operations-intro"></a>

O Amazon Rekognition oferece dois conjuntos principais de APIs para análise de imagens e vídeos:
+ Amazon Rekognition Image: essa API foi projetada para analisar imagens.
+ Amazon Rekognition Video: essa API se concentra na análise de vídeos armazenados e em streaming.

Ambos APIs podem detectar várias entidades, como rostos e objetos. Para uma compreensão abrangente dos tipos de comparação e detecção com suporte, consulte a seção sobre [Entender os tipos de análise do Rekognition](how-it-works-types.md).

## Operações do Amazon Rekognition Image
<a name="how-it-works-operations-images"></a>

As operações do Amazon Rekognition Image são síncronas. A entrada e a resposta estão em formato JSON. As operações do Amazon Rekognition Image analisam uma imagem de entrada que está no formato de imagem.jpg ou.png. A imagem passada para uma operação do Amazon Rekognition Image pode ser armazenada em um bucket do Amazon S3. Se você não estiver usando a AWS CLI, você também pode passar bytes de imagens codificadas em Base64 diretamente para uma operação do Amazon Rekognition. Para obter mais informações, consulte [Trabalhar com imagens](https://docs.aws.amazon.com/rekognition/latest/dg/images.html).

## Operações de vídeo do Amazon Rekognition Video
<a name="how-it-works-operations-video-intro"></a>

A API do Amazon Rekognition Video facilita a análise de vídeos armazenados em um bucket do Amazon S3 ou transmitidos por meio do Amazon Kinesis Video Streams.

Para operações de vídeo armazenadas, observe o seguinte:
+ As operações são assíncronas.
+ A análise deve ser iniciada com uma operação “Iniciar” (por exemplo, [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)para detecção facial em vídeos armazenados).
+ O status de conclusão da análise é publicado em um tópico do Amazon SNS.
+ Para recuperar os resultados de uma análise, use a operação “Obter” correspondente (por exemplo, [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html)).
+ Para ter mais informações, consulte [Trabalhar com operações de análise de vídeo](https://docs.aws.amazon.com/rekognition/latest/dg/video.html).

Para análise de streaming de vídeo:
+ Os recursos incluem pesquisa facial nas coleções de vídeos do Rekognition e detecção de rótulos (objetos ou conceitos).
+ Os resultados da análise de rótulos são enviados como notificações do Amazon SNS e do Amazon S3.
+ Os resultados de pesquisa facial são enviados a um fluxo de dados do Kinesis.
+ O gerenciamento da análise de streaming de vídeo é feito por meio de um processador de streaming de vídeo Amazon Rekognition Video (por exemplo, crie um processador usando). [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)
+ Para ter mais informações consulte [Trabalhar com eventos de vídeo em streaming](https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html).

Cada operação de análise de vídeo retorna metadados sobre o vídeo que está sendo analisado, bem como um ID de trabalho e uma tag de trabalho. Operações como Detecção de rótulo e Moderação de conteúdo para vídeo permitem classificar por carimbo de data/hora ou nome do rótulo e agregar os resultados por carimbo de data/hora ou segmento.

## Operações não baseadas em armazenamento e baseadas em armazenamento
<a name="how-it-works-operations-video-storage"></a>

As operações do Amazon Rekognition estão agrupadas nas seguintes categorias.
+ **Operações de API que não são de armazenamento** — Nessas operações, o Amazon Rekognition não mantém nenhuma informação. Você fornece imagens e vídeos de entrada, a operação realiza a análise e retorna os resultados, mas nada é salvo pelo Amazon Rekognition. Para obter mais informações, consulte [Operações que não são de armazenamento](how-it-works-storage-non-storage.md#how-it-works-non-storage).
+ **Operações de API baseadas em armazenamento** — Os servidores Amazon Rekognition podem armazenar informações faciais detectadas em contêineres conhecidos como coleções. O Amazon Rekognition fornece operações adicionais de API que você pode usar para pesquisar as informações persistentes da face em busca de correspondências faciais. Para obter mais informações, consulte [Operações de API baseadas em armazenamento](how-it-works-storage-non-storage.md#how-it-works-storage-based).

## Usando o AWS SDK ou HTTP para chamar as operações da API Amazon Rekognition
<a name="images-java-http"></a>

Você pode chamar as operações da API Amazon Rekognition usando o AWS SDK ou diretamente usando HTTP. Você deve usar sempre o AWS SDK, a menos que tenha um bom motivo para não fazer isso. Os exemplos de Java nesta seção usam o [AWS SDK](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/setup-install.html). Embora um arquivo de projeto Java não seja fornecido, é possível usar o [AWS Toolkit for Eclipse](https://docs.aws.amazon.com/AWSToolkitEclipse/latest/GettingStartedGuide/) para desenvolver aplicativos da AWS usando Java. 

Os exemplos do .NET nesta seção usam o [AWS SDK para .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/welcome.html). É possível usar o [AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/AWSToolkitVS/latest/UserGuide/welcome.html) para desenvolver aplicativos da AWS que usam o .NET. Ele inclui modelos úteis e o AWS Explorer para implantar aplicativos e gerenciar serviços. 

A [referência de API](https://docs.aws.amazon.com/rekognition/latest/APIReference/Welcome.html) neste guia aborda a chamada de operações do Amazon Rekognition usando HTTP. Para obter informações de referência sobre Java, consulte [AWS SDK para Java](https://docs.aws.amazon.com/sdk-for-java/latest/reference/index.html).

 Os endpoints do serviço Amazon Rekognition que você pode usar estão documentados nas [Regiões e endpoints da AWS.](https://docs.aws.amazon.com/general/latest/gr/rande.html#rekognition_region) 

Ao chamar o Amazon Rekognition com HTTP, use as operações HTTP POST.

# Entender operações de API sem armazenamento e com armazenamento
<a name="how-it-works-storage-non-storage"></a>

O Amazon Rekognition fornece dois tipos de operações de API. São operações sem armazenamento, nas quais nenhuma informação é armazenada pelo Amazon Rekognition, e operações de armazenamento, nas quais determinadas informações faciais são armazenadas pelo Amazon Rekognition. 

## Operações que não são de armazenamento
<a name="how-it-works-non-storage"></a>

O Amazon Rekognition fornece as seguintes operações de API sem armazenamento para imagens:
+ [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)
+ [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) 
+ [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) 
+ [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) 
+ [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) 
+ [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) 
+ [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) 
+ [GetCelebrityInfo](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityInfo.html) 

O Amazon Rekognition fornece as seguintes operações de API sem armazenamento para vídeos:
+ [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartlabelDetection.html) 
+ [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) 
+ [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)
+ [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)
+ [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)

Essas são chamadas de operações de API *sem armazenamento* porque, quando você faz a chamada da operação, o Amazon Rekognition não mantém nenhuma informação descoberta sobre a imagem de entrada. Como todas as outras operações da API Amazon Rekognition, nenhum byte de imagem de entrada é persistido por operações de API que não sejam de armazenamento. 

Os cenários de exemplo a seguir mostram onde você pode integrar operações da API de não armazenamento no aplicativo. Esses cenários pressupõem que você tem um repositório local de imagens.

**Example 1: um aplicativo que encontra imagens no repositório local que contêm rótulos específicos**  
Primeiro, você detecta rótulos (objetos e conceitos) usando a operação `DetectLabels` do Amazon Rekognition em cada uma das imagens em seu repositório e cria um índice do lado do cliente, conforme mostrado a seguir:  

```
Label        ImageID

tree          image-1
flower        image-1
mountain      image-1
tulip         image-2
flower        image-2
apple         image-3
```
Em seguida, o aplicativo pode pesquisar esse índice para encontrar imagens no repositório local que contenham um rótulo específico. Por exemplo, exibir imagens que contenham uma árvore.  
Cada rótulo que o Amazon Rekognition detecta tem um valor de confiança associado. Ele indica o nível de confiança da imagem de entrada que contém esse rótulo. Você pode usar esse valor de confiança para, como opção, realizar a filtragem do lado do cliente adicional em rótulos de acordo com os requisitos do aplicativo relacionados ao nível de confiança na detecção. Por exemplo, caso você precise de rótulos precisos, convém filtrar e escolher apenas os rótulos com maior valor de confiança (como 95% ou superior). Caso o aplicativo não exija um valor de confiança mais alto, convém optar por filtrar rótulos com um valor de confiança mais baixo (próximo a 50%).

**Example 2: um aplicativo para exibir imagens faciais aprimoradas**  
Primeiro, você pode detectar faces em cada uma das imagens em seu repositório local usando a operação `DetectFaces` do Amazon Rekognition e criar um índice do lado do cliente. Para cada face, a operação retorna metadados dentre os quais estão uma caixa delimitadora, pontos de referência faciais (por exemplo, a posição da boca e da orelha) e atributos faciais (por exemplo, sexo). Você pode armazenar esses metadados em um índice local do lado do cliente, conforme mostrado a seguir:  

```
ImageID     FaceID     FaceMetaData

image-1     face-1     <boundingbox>, etc.
image-1     face-2     <boundingbox>, etc.
image-1     face-3     <boundingbox>, etc.
...
```
Neste índice, a chave primária é uma combinação de `ImageID` e `FaceID`.  
Assim, você pode usar as informações no índice para aprimorar as imagens quando o aplicativo as exibe no repositório local. Por exemplo, convém adicionar uma caixa delimitadora em torno da face ou destacar traços faciais.  
 

## Operações de API baseadas em armazenamento
<a name="how-it-works-storage-based"></a>

O Amazon Rekognition Image [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)suporta a operação, que você pode usar para detectar faces em uma imagem e manter informações sobre características faciais detectadas em uma coleção do Amazon Rekognition. Este é um exemplo de uma operação da API *com base em armazenamento*, porque o serviço mantém informações no servidor. 

O Amazon Rekognition Image fornece as seguintes operações de API de armazenamento:
+ [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)
+ [ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html) 
+ [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) 
+ [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) 
+ [DeleteFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteFaces.html) 
+ [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) 
+ [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html)
+ [ListCollections](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListCollections.html)
+ [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html) 

O Amazon Rekognition Video fornece as seguintes operações de API de armazenamento:
+ [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) 
+ [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)

Para armazenar informações faciais, você deve primeiro criar uma coleção de faces em uma das regiões da AWS em sua conta. Você especifica essa coleção de faces ao chamar a operação `IndexFaces`. Depois de criar uma coleção de faces e armazenar informações sobre o traço facial de todas as faces, você poderá pesquisar a coleção em busca de correspondências de face. Por exemplo, você pode detectar a maior face em uma imagem e pesquisar faces correspondentes em uma coleção chamando `searchFacesByImage.`

As informações faciais armazenadas em coleções pelo `IndexFaces` estão acessíveis às operações de vídeo do Amazon Rekognition Video. Por exemplo, é possível pesquisar em um vídeo pessoas cujas faces correspondem às de uma coleção existente chamando [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html).

Para obter informações sobre a criação e o gerenciamento de coleções, consulte [Pesquisa de faces em uma coleção](collections.md).

**nota**  
As coleções armazenam vetores faciais, que são representações matemáticas de faces. As coleções não armazenam imagens de faces.

**Example 1: Um aplicativo que autentica o acesso a um edifício**  
Você inicia criando uma coleção de faces para armazenar imagens de crachás digitalizadas usando a operação `IndexFaces`, que extrai e armazena faces como vetores de imagem pesquisáveis. Em seguida, quando um funcionário entra no prédio, uma imagem da face dele é capturada e enviada para a operação `SearchFacesByImage`. Se a correspondência de face produzir uma pontuação de similaridade suficientemente alta (por exemplo, 99%), você poderá autenticar o funcionário.

# Noções básicas do versionamento de modelo
<a name="face-detection-model"></a>

O Amazon Rekognition usa modelos de aprendizado profundo para realizar a detecção facial e pesquisar faces em coleções. Ele continua melhorando a precisão de seus modelos com base no feedback dos clientes e os avanços na pesquisa de aprendizado profundo. Essas melhorias são fornecidas como atualizações no modelo. Por exemplo, com a versão 1.0 do modelo, [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) pode indexar as 15 maiores faces em uma imagem. As versões posteriores do modelo permitem que `IndexFaces` faça a indexação das 100 maiores faces em uma imagem.

Quando você cria uma nova coleção, ela é associada à versão mais recente do modelo. Para melhorar a precisão, o modelo é ocasionalmente atualizado.

 Quando uma nova versão do modelo é lançada, acontece o seguinte: 
+ Novas coleções que você cria são associados ao modelo mais recente. As faces que você adicionar às novas coleções usando [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) serão detectadas usando o modelo mais recente.
+ Suas coleções existentes continuam usando a versão do modelo com o qual elas foram criadas. Os vetores de face armazenados nessas coleções não são atualizados automaticamente para a versão mais recente do modelo.
+ As novas faces que são adicionadas a uma coleção existente são detectadas usando o modelo que já está associado à coleção.

As diferentes versões do modelo não são compatíveis entre elas. Especificamente, se uma imagem for indexada em várias coleções que usam diferentes versões do modelo, os identificadores de faces para as mesmas faces detectadas serão diferentes. Se uma imagem for indexada em várias coleções associadas ao mesmo modelo, os identificadores de faces serão os mesmos. 

O aplicativo poderá enfrentar problemas de compatibilidade se o gerenciamento da coleção não considerar as atualizações do modelo. É possível determinar a versão do modelo que uma coleção usa utilizando o campo `FaceModelVersion` que é retornado na resposta de uma operação de coleção (por exemplo, `CreateCollection`). Você pode obter a versão do modelo de uma coleção existente chamando o [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html). Para obter mais informações, consulte [Descrever uma coleção](describe-collection-procedure.md).

Os vetores de faces existentes em uma coleção não podem ser atualizados para uma versão posterior do modelo. Como o Amazon Rekognition não armazena bytes da imagem de origem, ele não pode reindexar imagens automaticamente usando uma versão posterior do modelo.

Para usar o modelo posterior em faces que são armazenados em uma coleção existente, crie uma nova coleção ([CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)) e faça a reindexação das imagens de origem na nova coleção (`Indexfaces`). Você precisa atualizar quaisquer identificadores de faces que foram armazenados pelo seu aplicativo, porque na nova coleção os identificadores de face são diferentes dos identificadores da coleção antiga. Caso você não precise mais da coleção antiga, poderá excluí-la usando [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html). 

Operações stateless, como [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), usam a versão mais recente do modelo.