

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Detectando a vivacidade da face
<a name="face-liveness"></a>

O Amazon Rekognition Face Liveness ajuda você a verificar se um usuário que está passando pela verificação facial está fisicamente presente na frente de uma câmera. Ele detecta ataques falsos apresentados a uma câmera ou tentando contornar uma câmera. Os usuários podem concluir uma verificação de Face Liveness tirando uma pequena selfie em vídeo, seguindo uma série de instruções destinadas a verificar sua presença.

A vivacidade facial é determinada com um cálculo probabilístico e, em seguida, uma pontuação de confiança (entre 0 e 100) é retornada após a verificação. Quanto maior a pontuação, maior a confiança de que a pessoa que recebe o cheque está viva. O Face Liveness também retorna uma moldura, chamada de imagem de referência, que pode ser usada para comparação e pesquisa de faces. Como acontece com qualquer sistema baseado em probabilidade, o Face Liveness não pode garantir resultados perfeitos. Use-o com outros fatores para tomar uma decisão baseada em riscos sobre a identidade pessoal dos usuários.

O Face Liveness usa vários componentes: 
+ AWS Amplifique o SDK ([React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift (iOS](https://ui.docs.amplify.aws/swift/connected-components/liveness)) e [Android](https://ui.docs.amplify.aws/android/connected-components/liveness)) com componente FaceLivenessDetector 
+ AWS SDKs
+ AWS Nuvem APIs

 Quando você configura seu aplicativo para se integrar ao recurso Face Liveness, ele usa as seguintes operações de API: 
+ [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)- Inicia uma sessão de Face Liveness, permitindo que o modelo de detecção de Face Liveness seja usado em seu aplicativo. Retorna um SessionId para a sessão criada. Também permite que você defina seu ChallengePrefrence, para que você possa usar a FaceMovementChallenge opção.
+  [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)- Chamado pelo AWS Amplify FaceLivenessDetector. Inicia um fluxo de eventos contendo informações sobre eventos e atributos relevantes na sessão atual.
+  [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)- Recupera os resultados de uma sessão específica do Face Liveness, incluindo uma pontuação de confiança do Face Liveness, imagem de referência e imagens de auditoria.

Você usará o SDK do AWS Amplify para integrar o recurso Face Liveness aos seus fluxos de trabalho de verificação baseados em face para aplicativos da web. Quando os usuários embarcarem ou se autenticarem por meio de seu aplicativo, envie-os para o fluxo de trabalho de verificação do Face Liveness no SDK do Amplify. O SDK do Amplify gerencia a interface do usuário e o feedback em tempo real dos usuários enquanto eles capturam sua selfie em vídeo.

Ao usar FaceMovementAndLightChallenge o rosto do usuário em direção ao oval exibido em seu dispositivo, o SDK do Amplify exibe uma sequência de luzes coloridas na tela. Em seguida, ele transmite com segurança o vídeo da selfie para a nuvem. APIs Como alternativa, ao usar FaceMovementChallenge, o rosto do usuário se move para o oval exibido no dispositivo, mas não há uma sequência de luzes coloridas. Embora 'FaceMovementAndLightChallenge' continue sendo a melhor configuração para maximizar a precisão, 'FaceMovementChallenge' permite que os clientes priorizem a velocidade mais rápida das verificações de atividade em vez da precisão. Ao selecionar entre essas configurações, os clientes devem considerar seus requisitos de caso de uso, incluindo os tipos de ataque esperados, as taxas desejadas de aceitação falsa e rejeição e verificações adicionais, como geolocalização (por exemplo, com base em IP), códigos One Time Pass (OTPs) etc. Os clientes devem tomar essa decisão após testar o desempenho do Liveness com vários limites de pontuação de confiança em seu conteúdo específico. Além disso, com os dois tipos de verificação de vivacidade, os proprietários do aplicativo precisam implementar controles para proteger o dispositivo do qual o fluxo de vídeo é enviado. Depois que a análise for concluída, você receberá o seguinte no back-end:
+ Uma pontuação de confiança do Face Liveness (entre 0 e 100)
+ Uma imagem de alta qualidade chamada imagem de referência que pode ser usada para correspondência facial ou pesquisa facial
+ Um conjunto de até quatro imagens, chamadas de imagens de auditoria, selecionadas do vídeo selfie 

O Face Liveness pode ser aproveitado para uma variedade de casos de uso. Por exemplo, o Face Liveness pode ser usado junto com a correspondência facial (com [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html)e [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html)) para verificação de identidade, para [estimativa de idade](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) em plataformas com restrição de acesso com base na idade e para detectar usuários humanos reais e, ao mesmo tempo, deter bots. 

Você pode aprender mais sobre os casos de uso aos quais o serviço se destina, como o machine learning (ML) é usado pelo serviço e as principais considerações sobre o design e o uso responsáveis do serviço no [cartão de serviço Rekognition Face Liveness AI](https://aws.amazon.com/machine-learning/responsible-machine-learning/rekognition-face-liveness/). 

Você pode definir limites para as pontuações de confiança de Face Liveness e Face Match. Os limites escolhidos devem refletir seu caso de uso. Em seguida, você envia uma verificação de identidade approval/denial ao usuário com base na pontuação acima ou abaixo dos limites. Se negado, peça ao usuário que tente novamente ou o envie para outro método. 

O gráfico a seguir demonstra o fluxo do usuário, das instruções à verificação de vivacidade e ao resultado retornado:

![\[Fluxo do usuário mostrando o rosto centralizado, aproximando-se, mantendo-se imóvel para verificar a vivacidade e um resultado bem-sucedido com pontuação de confiança.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/mobile-flow.png)


# Requisitos de vivacidade facial do lado do usuário
<a name="face-liveness-requirements"></a>

O Amazon Rekognition Face Liveness exige as seguintes especificações mínimas:

Dispositivos: 
+  O dispositivo deve ter uma câmera frontal 
+  Taxa mínima de atualização da tela do dispositivo: 60 Hz 
+  Tamanho mínimo de exibição ou tela: 4 polegadas 
+  O dispositivo não deve ser desbloqueado ou enraizado 

Especificações da câmera: 
+  Câmera colorida: a câmera frontal deve ser capaz de gravar cores. 
+  Sem câmera virtual ou software de câmera. 
+  Capacidade mínima de gravação: 15 quadros por segundo. 
+  Resolução mínima de gravação de vídeo: 480x640px.
+  Quando os usuários usam uma webcam com um desktop para uma verificação de vivacidade facial, é importante montar a webcam em cima da mesma tela em que a verificação de vida facial começa. 

Requisito mínimo de largura de banda: 100 kbps

Navegadores compatíveis: as três versões mais recentes dos principais navegadores, como Google Chrome, Mozilla Firefox, Apple Safari e Microsoft Edge. Para obter mais informações sobre o suporte de navegadores, consulte [Quais navegadores são compatíveis com o Console de Gerenciamento da AWS?](https://aws.amazon.com/premiumsupport/knowledge-center/browsers-management-console/)

# Diagramas de arquitetura e sequência
<a name="face-liveness-diagrams"></a>

 Os diagramas a seguir detalham como o Amazon Rekognition Face Liveness opera em relação à arquitetura e à sequência de operações do recurso: 

![\[Diagrama de fluxo de detecção de vivacidade mostrando as interações entre o usuário final, o aplicativo cliente, o FaceLivenessDetector componente, o back-end do cliente, o serviço Rekognition e o serviço de streaming do Rekognition para configuração de sessões ao vivo, análise de vídeo e recuperação de resultados.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/SequenceDiagramLivenessFlowGuide-v5.png)


![\[Fluxo de trabalho do aplicativo do cliente para verificação do Face Liveness envolvendo o componente FaceLivenessDetector Amplify, o serviço Rekognition, o back-end do cliente e o bucket Amazon S3 que armazena imagens de referência e auditoria.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/RekognitionLivenessArchitectureDeveloperGuide_v2.jpg)


O processo de verificação do Face Liveness envolve várias etapas, conforme descrito a seguir:

1.  O usuário inicia uma verificação do Face Liveness no aplicativo cliente. 

1.  O aplicativo do cliente liga para o back-end do cliente, que por sua vez chama o serviço Amazon Rekognition. O serviço cria uma sessão de vivacidade facial e retorna uma sessão exclusiva SessionId. **Nota:** Depois que um SessionId é enviado, ele expira em 3 minutos, portanto, há apenas uma janela de 3 minutos para concluir as etapas 3 a 7 abaixo. Um novo SessionID deve ser usado para cada verificação de vivacidade facial. Se um determinado SessionID for usado para verificações subsequentes do Face Liveness, as verificações falharão. Além disso, a SessionId expira 3 minutos após o envio, tornando todos os dados do Liveness associados à sessão (por exemplo, ID da sessão, imagem de referência, imagens de auditoria etc.) indisponíveis. 

1.  O aplicativo cliente renderiza o componente FaceLivenessDetector Amplify usando os retornos de chamada SessionId obtidos e apropriados. 

1.  O FaceLivenessDetector componente estabelece uma conexão com o serviço de streaming Amazon Rekognition, renderiza um oval na tela do usuário e exibe uma sequência de luzes coloridas. FaceLivenessDetector grava e transmite vídeo em tempo real para o serviço de streaming Amazon Rekognition. 

1.  O serviço de streaming Amazon Rekognition processa o vídeo em tempo real, armazena os resultados e DisconnectEvent retorna a FaceLivenessDetector para o componente quando o streaming é concluído. 

1.  O FaceLivenessDetector componente chama o `onAnalysisComplete` retorno de chamada para sinalizar ao aplicativo cliente que o streaming foi concluído e que as pontuações estão prontas para recuperação. 

1.  O aplicativo cliente chama o back-end do cliente para obter um sinalizador booleano indicando se o usuário estava ativo ou não. O back-end do cliente faz a solicitação ao serviço Amazon Rekognition para obter a pontuação de confiança, a referência e as imagens de auditoria. O back-end do cliente usa esses atributos para determinar se o usuário está ativo e retorna uma resposta apropriada ao aplicativo do cliente. 

1.  Por fim, o aplicativo cliente passa a resposta para o FaceLivenessDetector componente, que renderiza adequadamente a success/failure mensagem para concluir o fluxo. 

# Pré-requisitos
<a name="face-liveness-prerequisites"></a>

 Os pré-requisitos para usar o Amazon Rekognition Face Liveness incluem o seguinte: 

1. Configurar uma AWS conta

1. Configure o Face Liveness AWS SDKs

1. Configurar recursos do AWS Amplify

## Etapa 1: configurar uma AWS conta
<a name="face-liveness-prerequisites-setup"></a>

Se você ainda não tiver uma AWS conta, conclua as etapas descritas em [Crie uma AWS conta e um usuário](setting-up.md#setting-up-iam) para criar uma.

## Etapa 2: configurar o Face Liveness AWS SDKs
<a name="face-liveness-prerequisites-sdks"></a>

Se você ainda não o fez, instale AWS CLI e configure o AWS SDKs e. Para obter mais informações, consulte [Etapa 2: configurar o AWS CLI e AWS SDKs](setup-awscli-sdk.md). 

Há várias maneiras de autenticar chamadas do AWS SDK. Os exemplos neste guia pressupõem que você esteja usando um perfil de credenciais padrão para chamar comandos da AWS CLI AWS e operações da API do SDK. 

Consulte a página Como [conceder acesso programático](https://docs.aws.amazon.com/rekognition/latest/dg/sdk-programmatic-access.html) para obter mais informações sobre como conceder acesso à sua conta de usuário ao SDK escolhido. AWS A página também explica como usar um perfil em seu computador local e como executar o código de amostra em AWS ambientes. 

Certifique-se de que o usuário que está chamando as operações do Face Liveness tenha as permissões corretas para chamar as operações, como as permissões `AmazonS3FullAccess` e `AmazonRekognitionFullAccess`.

## Etapa 3: configurar os recursos do AWS Amplify
<a name="face-liveness-prerequisites-amplify"></a>

Para integrar o Amazon Rekognition Face Liveness ao seu aplicativo, você deve configurar o SDK do Amplify para usar o componente AWS Amplify. FaceLivenessDetector 

Se ainda não o fez, siga as instruções para configurar a AWS Command Line Interface (AWS CLI) em [Conceitos básicos da AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html). Depois que a CLI for instalada, conclua as etapas de configuração da autenticação, vistas no site de [documentos da interface do usuário do Amplify, para configurar seus](https://ui.docs.amplify.aws/react/connected-components/liveness#step-1-configure-auth) recursos do Amplify. AWS 

## Melhores práticas para detectar a vivacidade facial
<a name="face-liveness-best-practices"></a>

Recomendamos que você siga várias práticas recomendadas ao usar o Amazon Rekognition Face Liveness. As melhores práticas do Face Liveness incluem diretrizes sobre onde as verificações do Face Liveness devem ser conduzidas, o uso de imagens de auditoria e a escolha de limites de pontuação de confiança.

Consulte [Recomendações para o uso do Face Liveness](recommendations-liveness.md) para ver a lista completa das melhores práticas.

# Programando o Amazon Rekognition Face Liveness APIs
<a name="face-liveness-programming-api"></a>

Para usar a API Amazon Rekognition Face Liveness, você deve criar um back-end que execute as seguintes etapas:

1. Ligue [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)para iniciar uma sessão de Face Liveness. Quando a operação `CreateFaceLivenessSession` for concluída, a interface do usuário solicita que o usuário envie uma selfie em vídeo. O FaceLivenessDetector componente do AWS Amplify então liga [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)para realizar a detecção de Liveness.

1. Ligue [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)para retornar os resultados da detecção associados a uma sessão de Face Liveness.

1. Continue configurando seu aplicativo React para usar o FaceLivenessDetector componente seguindo as etapas no guia [Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness).

Antes de usar o Face Liveness, certifique-se de ter criado uma conta da AWS, configurado a AWS CLI e a AWS e configurado o SDKs AWS Amplify. Você também deve garantir que a política do IAM para sua API de back-end tenha permissões que abranjam o seguinte: `GetFaceLivenessSessionResults`, e `CreateFaceLivenessSession`. Consulte a seção [Pré-requisitos](face-liveness-prerequisites.md) para obter mais informações.

## Etapa 1: CreateFaceLivenessSession
<a name="face-liveness-programming-api-create-session"></a>

CreateFaceLivenessSession A operação da API cria uma sessão de Face Liveness e retorna uma única`SessionId`.

Como parte da entrada para essa operação, também é possível especificar uma localização de bucket do Amazon S3. Isso permite o armazenamento de uma imagem de referência e imagens de auditoria geradas durante a sessão Face Liveness. O bucket do Amazon S3 deve estar localizado na conta da AWS do chamador e na mesma região do endpoint Face Liveness. Além disso, as chaves de objeto do S3 são geradas pelo sistema Face Liveness.

Também é possível fornecer um `AuditImagesLimit`, que é um número entre 0 e 4. Por padrão, ele é definido como 0. O número de imagens retornadas é o melhor esforço e é baseado na duração do vídeo de selfie.

Por fim, você pode fornecer um ChallengePreference, incluindo o tipo e a versão do desafio que você deseja que sua sessão use como padrão. Por padrão, isso será usado FaceLivenessMovementAndLightChallenge, mas pode ser definido como FaceMovementChallenge.

**Exemplo de solicitação**

```
{
   "ClientRequestToken": "string",
   "KmsKeyId": "string",
   "Settings": { 
      "AuditImagesLimit": number,
      "ChallengePreferences": [ 
         { 
            "Type": "string",
            "Versions": { 
               "Maximum": "string",
               "Minimum": "string"
            }
         }
      ],
      "OutputConfig": { 
         "S3Bucket": "string",
         "S3KeyPrefix": "string"
      }
   }
}
```

**Exemplo de resposta**

```
{
    {"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
}
```

## Etapa 2: StartFaceLivenessSession
<a name="face-liveness-programming-api-start-session"></a>

Quando a operação CreateFaceLivenessSession da API termina, o componente AWS Amplify executa a operação StartFaceLivenessSession da API. O usuário é solicitado a capturar uma selfie em vídeo. Para uma verificação bem-sucedida, o usuário deve posicionar a face dentro do oval na tela, mantendo uma boa iluminação. Para obter mais informações, consulte [Recomendações para o uso do Face Liveness](recommendations-liveness.md). 

Essa operação de API requer o vídeo capturado durante a sessão do Face Liveness, o sessionID obtido da operação CreateFaceLivenessSession da API e um retorno de chamada. `onAnalysisComplete` O retorno de chamada pode ser usado para sinalizar o back-end para chamar a operação da GetFaceLivenessSessionResults API, que retorna uma pontuação de confiança, referência e imagens de auditoria. 

Observe que essa etapa é executada pelo FaceLivenessDetector componente AWS Amplify no aplicativo cliente. Você não precisa fazer configurações adicionais para ligar `StartFaceLivenessSession`. 

## Etapa 3: GetFaceLivenessSessionResults
<a name="face-liveness-programming-api-get-session-results"></a>

A operação GetFaceLivenessSessionResults da API recupera os resultados de uma sessão específica do Face Liveness. Ele requer o SessionID como entrada e retorna a pontuação de confiança correspondente do Face Liveness. Ele também fornece uma imagem de referência que inclui uma caixa delimitadora de face e imagens de auditoria que também contêm caixas delimitadoras de face. A pontuação de confiança do Face Liveness varia de 0 a 100. 

**Exemplo de solicitação**

```
{"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
```

**Exemplo de resposta**

```
{
    "SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8",
    "Confidence": 98.9735,
    "ReferenceImage": {
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "file-name",
        },
        "BoundingBox": { 
           "Height": 0.4943420886993408, 
            "Left": 0.8435328006744385, 
            "Top": 0.8435328006744385, 
            "Width": 0.9521094560623169}
    },
    "AuditImages": [{
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "audit-image-name",
        },
        "BoundingBox": { 
           "Width": 0.6399999856948853,
           "Height": 0.47999998927116394,
           "Left": 0.1644444465637207,
           "Top": 0.17666666209697723}
    }],
    "Status": "SUCCEEDED"
}
```

## Etapa 4: Responda aos resultados
<a name="face-liveness-programming-api-respond-results"></a>

Após a sessão Face Liveness, compare a pontuação de confiança da verificação com o limite especificado. Se a pontuação for maior que o limite, o usuário poderá ir para a próxima tela ou tarefa. Se a verificação falhar, o usuário será notificado e solicitado a tentar novamente. 

# Chamando o rosto de vivacidade APIs
<a name="face-liveness-calling-apis"></a>

[Você pode testar o Amazon Rekognition Face Liveness com qualquer SDK compatível, como o AWS Python AWS SDK Boto3 ou o [AWS SDK](https://docs.aws.amazon.com/pythonsdk/) for Java.](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/welcome.html) Você pode chamar o `CreateFaceLivenessSession` e `GetFaceLivenessSessionResults` APIs com o SDK escolhido. A seção a seguir demonstra como chamá-los APIs com o Python e o Java. SDKs

 **Para chamar o Face Liveness APIs**: 
+ Se você ainda não o fez, crie ou atualize um usuário com permissões `AmazonRekognitionFullAccess`. Para obter mais informações, consulte a [Etapa 1: Configure uma conta da AWS e crie um usuário](https://docs.aws.amazon.com/rekognition/latest/dg/setting-up.html#setting-up-iam).
+ Se você ainda não tiver feito isso, instale e configure a AWS CLI e a AWS. SDKs Para obter mais informações, consulte [Etapa 2: Configurar a AWS CLI e a AWS](https://docs.aws.amazon.com/rekognition/latest/dg/setup-awscli-sdk.html). SDKs

------
#### [ Python ]

O trecho a seguir mostra como você pode chamá-los APIs em seus aplicativos Python. Observe que, para executar este exemplo, você precisará usar pelo menos a versão 1.26.110 do SDK do Boto3, embora a versão mais recente do SDK seja recomendada.

```
import boto3

session = boto3.Session(profile_name='default') 
client = session.client('rekognition')

def create_session():

    response = client.create_face_liveness_session()
    
    session_id = response.get("SessionId")
    print('SessionId: ' + session_id)

    return session_id
    
    
def get_session_results(session_id):

    response = client.get_face_liveness_session_results(SessionId=session_id)
    
    confidence = response.get("Confidence")
    status = response.get("Status")
    
    print('Confidence: ' + "{:.2f}".format(confidence) + "%")
    print('Status: ' + status)
    
    return status


def main():
    session_id = create_session()
    print('Created a Face Liveness Session with ID: ' + session_id)
    
    status = get_session_results(session_id)
    print('Status of Face Liveness Session: ' + status)
        

if __name__ == "__main__":
    main()
```

------
#### [ Java ]

O trecho a seguir mostra como você pode chamá-los APIs em seus aplicativos Java:

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Java V2 ]

O trecho a seguir demonstra como chamar o Face Liveness APIs com o SDK Java V2: AWS 

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Node.Js ]

O trecho a seguir demonstra como chamar o Face Liveness APIs com o SDK do Node.Js: AWS 

```
const Rekognition = require("aws-sdk/clients/rekognition");

const rekognitionClient = new Rekognition({ region: "us-east-1" });

async function createSession() {
    const response = await rekognitionClient.createFaceLivenessSession().promise();

    const sessionId = response.SessionId;
    console.log("SessionId:", sessionId);

    return sessionId;
}

async function getSessionResults(sessionId) {
    const response = await rekognitionClient
        .getFaceLivenessSessionResults({
            SessionId: sessionId,
        })
        .promise();

    const confidence = response.Confidence;
    const status = response.Status;
    console.log("Confidence:", confidence);
    console.log("Status:", status);

    return status;
}

async function main() {
    const sessionId = await createSession();
    console.log("Created a Face Liveness Session with ID:", sessionId);

    const status = await getSessionResults(sessionId);
    console.log("Status of Face Liveness Session:", status);
}

main();
```

------
#### [ Node.Js (Javascript SDK v3) ]

O trecho a seguir demonstra como chamar o Face Liveness APIs com o SDK do AWS Node.Js para Javascript v3:

```
import { RekognitionClient, CreateFaceLivenessSessionCommand } from "@aws-sdk/client-rekognition"; // ES Modules 
import const { RekognitionClient, CreateFaceLivenessSessionCommand } = require("@aws-sdk/client-rekognition"); // CommonJS import
const client = new RekognitionClient(config);
const input = { 
  KmsKeyId: "STRING_VALUE",
  Settings: { 
    OutputConfig: { // LivenessOutputConfig
      S3Bucket: "STRING_VALUE", // required
      S3KeyPrefix: "STRING_VALUE",
    },
    AuditImagesLimit: Number("int"),
  },
  ClientRequestToken: "STRING_VALUE",
};
const command = new CreateFaceLivenessSessionCommand(input);
const response = await client.send(command);
// { // CreateFaceLivenessSessionResponse
//   SessionId: "STRING_VALUE", // required
// };
```

------

# Configurando e personalizando seu aplicativo
<a name="face-liveness-configure-cutomize-amplify"></a>

## Configurar seu aplicativo
<a name="face-liveness-configuring-amplify.title"></a>

Seu aplicativo Face Liveness pode operar em dispositivos móveis ou navegadores de desktop. Você desejará configurar os componentes do Face Liveness para se integrarem à solução escolhida. Você também deve garantir que seu aplicativo tenha permissão para usar a câmera de um dispositivo. O [ guia Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness) fornece instruções detalhadas sobre como:
+  Instalar e configurar o AWS Amplify
+  Importe e renderize o FaceLivenessDetector componente 
+  Ouvir os retornos de chamada 
+  Exemplo de mensagem de erro do Render Amplify 

## Personalize seu aplicativo
<a name="face-liveness-customize-amplify.title"></a>

Você pode personalizar determinados componentes do seu aplicativo Liveness usando o [AWS Amplify](https://ui.docs.amplify.aws/react/getting-started/introduction). 

Para obter informações sobre tradução, consulte a documentação do [Amplify Authenticator](https://ui.docs.amplify.aws/react/connected-components/authenticator/customization#internationalization-i18n). 

Para obter informações sobre como personalizar os componentes e temas do Amplify, consulte a documentação do Amplify sobre [temas](https://ui.docs.amplify.aws/react/theming).

# Modelo de responsabilidade compartilhada Face Liveness
<a name="face-liveness-shared-responsibility-model"></a>

 

A segurança e a conformidade são uma responsabilidade compartilhada entre AWS e você, o cliente. Leia mais sobre o modelo de responsabilidade compartilhada da AWS [aqui](https://aws.amazon.com/compliance/shared-responsibility-model/).

1.  Todas as chamadas para o AWS serviço (via aplicativo cliente ou back-end do cliente) são autenticadas e autorizadas com AWS Auth (AWS Authentication). É responsabilidade dos proprietários do serviço Face Liveness garantir que isso aconteça. 

1.  Todas as chamadas para o back-end do cliente (a partir do aplicativo do cliente) são autenticadas e autorizadas pelo cliente. Essa responsabilidade recai sobre o cliente. O cliente deve garantir que as chamadas do aplicativo cliente sejam autenticadas e não tenham sido manipuladas de forma alguma. 

1.  O back-end do cliente deve identificar o usuário final que está executando o desafio Face Liveness. É responsabilidade do cliente vincular o usuário final a uma sessão do Face Liveness. O serviço Face Liveness não faz distinção entre usuários finais. Ele só consegue identificar a identidade AWS da chamada (que o cliente manipula). 

1. A AWS recomenda que os clientes apliquem verificações de validação adicionais, como localização geográfica (por exemplo, com base em IP), códigos de senha de uso único (OTPs), etc. além do Face Liveness, que se alinha aos requisitos de seu caso de uso e postura de segurança.

A configuração “FaceMovementAndLightChallenge” oferece a mais alta precisão para o Rekognition Liveness. Ela exige que os usuários movam o rosto em direção à tela e fiquem parados enquanto uma série de luzes pisca. Recomendamos que os clientes usem essa configuração padrão. Como alternativa, os clientes podem ativar a configuração “FaceMovementChallenge”, que reduz o tempo de verificação em vários segundos ao eliminar as luzes piscantes. Embora a “FaceMovementAndLightChallenge” continue sendo a melhor configuração para maximizar a precisão, a “FaceMovementChallenge” permite que os clientes priorizem verificações de vivacidade mais rápidas. Ao escolher entre essas configurações, os clientes devem considerar seus requisitos de caso de uso, incluindo os tipos de ataque esperados, as taxas desejadas de aceitação e rejeição falsas, e também implementar verificações adicionais, como geolocalização (por exemplo, com base em IP), códigos de senha de uso único (OTPs), etc. Os clientes devem tomar essa decisão após testar o desempenho do Liveness com vários limites de pontuação de confiança, dependendo do caso de uso. Eles também são responsáveis por implementar controles para proteger o dispositivo do qual o vídeo é enviado

O diagrama de fluxo a seguir mostra quais chamadas são autenticadas pelo serviço da AWS ou pelo cliente:

![\[Fluxo de detecção de vivacidade mostrando interações entre o aplicativo cliente, o componente detector de vivacidade facial, o backend do cliente, o serviço Rekognition e o serviço de streaming Rekognition para uma sessão segura de vivacidade facial.\]](http://docs.aws.amazon.com/pt_br/rekognition/latest/dg/images/SequenceDiagramLivenessFlow-v5.png)


Todas as chamadas para o serviço Amazon Rekognition Face Liveness são protegidas pelo AWS Auth (usando mecanismo de assinatura da AWS). Isso inclui as seguintes chamadas:
+  [3] Chamada de API [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html) (do backend do cliente) 
+  [7] Chamada de API [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html) (do aplicativo cliente) 
+  [11] Chamada de API [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html) (do backend do cliente) 

Todas as chamadas para o back-end do cliente precisam ter um mecanismo de autenticação e autorização. Os clientes precisam garantir que o código/biblioteca/etc de terceiros usado esteja sendo mantido e desenvolvido ativamente. Os clientes também precisam garantir que o usuário final correto esteja fazendo chamadas para a sessão correta do Face Liveness. Os clientes devem autenticar e autorizar os seguintes fluxos:
+  [2] Criar sessão Face Liveness (a partir do aplicativo cliente) 
+  [10] Obtenha o resultado da sessão Face Liveness (do aplicativo cliente) 

Os clientes podem seguir o modelo de segurança [STRIDE](https://owasp.org/www-community/Threat_Modeling_Process#stride-threat-list) para garantir que suas chamadas de API estejam protegidas.


| 
| 
| Tipo | Descrição | Controle de segurança | 
| --- |--- |--- |
| Spoofing | Threat action aimed at accessing and use of another user’s credentials, such as username and password. | Authentication | 
| Tampering | Threat action intending to maliciously change or modify persistent data. Examples include records in a database, and the alteration of data in transit between two computers over an open network, such as the internet. | Integrity | 
| Repudiation | Threat action aimed at performing prohibited operations in a system that lacks the ability to trace the operations. | Non-Repudiation | 
| Information disclosure | Threat action intending to read a file that one was not granted access to, or to read data in transit. | Confidentiality | 
| Denial of service | Threat action attempting to deny access to valid users, such as by making a web server temporarily unavailable or unusable. | Availability | 
| Elevation of privilege | Threat action intending to gain privileged access to resources in order to gain unauthorized access to information or to compromise a system. | Authorization | 

AWS protege suas conexões das seguintes maneiras:

1.  Calcular a assinatura da solicitação e, em seguida, verificar a assinatura no lado do serviço. As solicitações são * **autenticadas** * usando essa assinatura. 

1.  Os clientes da AWS precisam configurar os perfis do IAM adequadas para * **autorizar** * determinadas ações/operações. Esses perfis do IAM são necessárias para fazer chamadas ao serviço da AWS. 

1.  Somente solicitações HTTPS para o serviço AWS são permitidas. As solicitações são criptografadas na rede aberta usando TLS. Isso protege a * **confidencialidade** * das solicitações e mantém a * **integridade** * da solicitação. 

1. AWS o serviço registra dados suficientes para identificar as chamadas feitas pelos clientes. Isso evita ataques de * **repúdio** *.

1.  AWS o serviço possui a manutenção de * **disponibilidade** suficiente * 

O cliente é responsável por proteger seu serviço e suas chamadas de API das seguintes formas:

1.  O cliente deve garantir que siga um mecanismo adequado de autenticação. Há vários mecanismos de autenticação que podem ser usados para autenticar uma solicitação. Os clientes podem explorar a [autenticação baseada em resumo](https://en.wikipedia.org/wiki/Digest_access_authentication), [OAuth](https://oauth.net/), [conexão OpenID](https://openid.net/connect/) e outros mecanismos. 

1.  Os clientes devem garantir que seu serviço ofereça suporte aos canais de criptografia adequados (como TLS/HTTPS) para fazer chamadas de API de serviço. 

1.  Os clientes devem se certificar de registrar os dados necessários para identificar de forma exclusiva uma chamada de API e o chamador. Eles devem ser capazes de identificar o cliente que está chamando sua API com parâmetros definidos e a hora das chamadas. 

1.  Os clientes devem garantir que seus sistemas estejam disponíveis e protegidos contra [ataques de DDoS](https://en.wikipedia.org/wiki/Denial-of-service_attack). Aqui estão alguns exemplos de [técnicas de defesa](https://en.wikipedia.org/wiki/Denial-of-service_attack#Defense_techniques) contra ataques DDoS.

Os clientes são responsáveis por manter seus aplicativos atualizados. Para obter mais informações, consulte [Diretrizes de atualização do Face Liveness](face-liveness-update-guidelines.md).

# Diretrizes de atualização do Face Liveness
<a name="face-liveness-update-guidelines"></a>

 AWS atualiza regularmente o Face Liveness AWS SDKs (usado no back-end do cliente) e FaceLivenessDetector os componentes do AWS Amplify SDKs (usados em aplicativos do cliente) para fornecer novos recursos, segurança atualizada e aprimorada APIs, correções de bugs, melhorias de usabilidade e muito mais. Recomendamos que você mantenha o SDKs up-to-date para garantir o funcionamento ideal do recurso. Se você continuar usando versões mais antigas do SDKs, as solicitações poderão ser bloqueadas por motivos de manutenção e segurança. 

O Face Liveness exige que você use o FaceLivenessDetector componente incluído no AWS SDKs Amplify (React, iOS, Android). 

## Versionamento e prazos
<a name="face-liveness-update-guidelines-versioning"></a>

Estamos fazendo o versionamento dos seguintes componentes principais do recurso Face Liveness. Seguimos um formato de versionamento semântico. Por exemplo, um formato de versão de X.Y.Z em que X representa a versão principal, Y representa a versão secundária e Z representa a versão do patch. 
+ Os desafios do usuário do Face Liveness (por exemplo, FaceMovementAndLightChallenge desafio) fazem parte da API StartFaceLivenessSession 
+ FaceLivenessDetector componentes fornecidos por meio do AWS Amplify SDKs são usados em aplicativos clientes

Versões *principais*: Reservamos as principais atualizações de versão para atualizações críticas de segurança, API inovadora e usabilidade espetaculares. Os aplicativos e o back-end do cliente devem ser atualizados o mais rápido possível para que você continue usando os recursos do Face Liveness. Depois de lançarmos uma nova versão principal, oferecemos suporte à versão principal anterior por 120 dias a partir do dia da nova versão. Podemos bloquear as solicitações provenientes da versão principal anterior após 120 dias. 

Versões *secundárias*: Reservamos pequenas atualizações de versão para recursos e melhorias importantes de segurança e usabilidade. É altamente recomendável aplicar essas atualizações. Embora nos esforcemos para garantir que pequenas atualizações sejam compatíveis com versões anteriores pelo maior tempo possível, podemos anunciar end-of-support uma versão secundária anterior 180 dias após o lançamento de uma nova versão secundária. 

Versões de *correção*: Reservamos atualizações da versão do patch para correções e melhorias opcionais. Embora recomendemos que você mantenha sua versão up-to-date para obter a melhor segurança e experiência do usuário, nos esforçamos para garantir que as atualizações de patch sejam totalmente compatíveis com versões anteriores até lançarmos uma nova versão principal ou secundária. 

A janela de tempo de versionamento (120 dias para versões principais e 180 dias para menores) se aplica à atualização do SDK em seu aplicativo, ao upload do aplicativo para a loja de aplicativos ou ao site e aos usuários que baixam a versão mais recente do aplicativo.

## Lançamento da versão e matriz de compatibilidade
<a name="face-liveness-update-guidelines-compatibility"></a>

O lançamento de uma versão principal para desafio de FaceLivenessDetector componente ou usuário geralmente coincide. Para ajudar você a acompanhar as dependências de versão, consulte os recursos vinculados nas tabelas a seguir.

**Versões do SDK e registros de alterações:**


|  |  |  | 
| --- |--- |--- |
| FaceLivenessDetector para web SDK | FaceLivenessDetector para iOS SDK | FaceLivenessDetector para Android SDK | 
| [Versão atual](https://www.npmjs.com/package/@aws-amplify/ui-react-liveness) | [Registro de alterações](https://github.com/aws-amplify/amplify-ui/blob/main/packages/react-liveness/CHANGELOG.md) | [Versão atual/Changelog](https://github.com/aws-amplify/amplify-ui-swift-liveness/releases) | [Versão atual/Changelog](https://github.com/aws-amplify/amplify-ui-android/releases) | 

 **Desafios do usuário:** 


|  |  |  |  | 
| --- |--- |--- |--- |
| Nome do desafio | Versão | Data de lançamento | Data de aposentadoria | 
| FaceMovementAndLightChallenge | v1.0.0 | 4/10/2023 | N/D | 
| FaceMovementChallenge | v1.0.0 | 30/04/2025 | N/D | 

## Comunicação de novos lançamentos
<a name="face-liveness-update-guidelines-communication"></a>

 AWS comunica novos lançamentos por meio dos seguintes canais: 
+ Notificações por e-mail de atualização da integridade do serviço enviadas para o e-mail da conta associado ao ID da conta Face Liveness.
+ Atualizações publicadas AWS SDKs e notificações associadas nos respectivos GitHub repositórios.
+ Atualizações publicadas para o AWS Amplify SDKs e notificações associadas nos respectivos GitHub repositórios.

Recomendamos que você se inscreva nesses canais para ficar up-to-date.

# Perguntas frequentes sobre o Face Liveness
<a name="face-liveness-faq"></a>

Use os itens de perguntas frequentes a seguir para encontrar respostas às perguntas mais frequentes sobre o Rekognition Face Liveness.
+ **Quais são os resultados de uma verificação de vivacidade facial?**

  

  O Rekognition Face Liveness fornece os seguintes resultados para cada verificação de vivacidade:
  + Pontuação de confiança: Uma pontuação numérica que varia de 0 a 100 é retornada. Essa pontuação indica a probabilidade de o vídeo de selfie ser de uma pessoa real e não de um malfeitor usando paródia. 
  + Imagem de alta qualidade: Uma única imagem de alta qualidade é extraída do vídeo selfie. Esse quadro pode ser utilizado para vários fins, como comparação facial, estimativa de idade ou pesquisa facial.
  + Imagens de auditoria: Até quatro imagens são retornadas do vídeo de selfie, que podem ser usadas para fins de trilha de auditoria. 
+ **O Rekognition Face Liveness está em conformidade com os testes iBeta Presentation Attack Detection (PAD)? **

  

  O teste de Detecção de Ataques de Apresentação (PAD) do iBeta Quality Assurance é conduzido de acordo com ISO/IEC 30107-3. O iBeta é credenciado pelo NIST/NVLAP para testar e fornecer resultados de acordo com esse padrão PAD. O Rekognition Face Liveness passou nos testes de conformidade iBeta Presentation Attack Detection (PAD) de nível 1 e 2 com uma pontuação PAD perfeita. O relatório pode ser encontrado na página da iBeta [aqui](https://www.ibeta.com/wp-content/uploads/2023/10/231019-Amazon-Rekognition-PAD-Level-2-Confirmation-Letter.pdf). 
+ **Como posso obter uma moldura de alta qualidade e molduras adicionais? **

  

  O quadro de alta qualidade e os quadros adicionais podem ser retornados como bytes brutos ou carregados em um bucket do Amazon S3 que você especificar, dependendo das configurações da sua [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)solicitação de API.
+ **Posso alterar a localização das luzes ovais e coloridas?**

  

  Não. A localização oval e as luzes coloridas são recursos que permitem maior precisão e, portanto, não podem ser personalizadas.
+ **Posso personalizar a interface do usuário de acordo com nosso aplicativo?**

  

  Sim, você pode personalizar a maioria dos componentes da tela, como tema, cor, idioma, conteúdo de texto e fonte, para alinhá-los ao seu aplicativo. Detalhes sobre como personalizar esses componentes podem ser encontrados na documentação de nossos componentes de interface do usuário [React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift](https://ui.docs.amplify.aws/swift/connected-components/liveness) e [Android](https://ui.docs.amplify.aws/android/connected-components/liveness).
+ **Posso personalizar o tempo e o tempo da contagem regressiva para ajustar um rosto em formato oval?**

  

  Não, o tempo de contagem regressiva e o tempo de ajuste facial foram predeterminados com base em estudos internos de grande escala com milhares de usuários, visando fornecer um equilíbrio ideal que oferece maior segurança e latência. Por esse motivo, essas configurações de horário não podem ser personalizadas.
+ **As luzes de cores diferentes atendem às diretrizes de acessibilidade? **

  

  Sim, as luzes de cores diferentes em nosso produto seguem as diretrizes de acessibilidade descritas nas WCAG 2.1. Conforme verificado em mais de 1000 verificações de usuários, a experiência do usuário exibe aproximadamente duas cores por segundo, o que está em conformidade com a recomendação de limitar as cores a três por segundo. Isso reduz a probabilidade de desencadear crises epilépticas na maioria da população.
+ **O SDK ajusta o brilho da tela para obter os melhores resultados?**

  

  O celular Face Liveness SDKs (para Android e iOS) ajusta automaticamente o brilho quando a verificação é iniciada. No entanto, para o SDK da Web, há limitações nas páginas da Web que impedem o ajuste automático do brilho. Nesses casos, esperamos que o aplicativo web instrua os usuários finais a aumentarem manualmente o brilho da tela para obter os melhores resultados.
+ **Precisa ser oval? Poderíamos usar outras formas semelhantes?**

  

  Não, o tamanho, a forma e a localização do oval não são personalizáveis. O design oval específico foi cuidadosamente escolhido por sua eficácia em capturar e analisar com precisão os movimentos faciais. Portanto, a forma oval não pode ser modificada.
+ **Qual é a end-to-end latência?**

  

  Medimos a end-to-end latência desde o momento em que o usuário inicia a ação necessária para concluir a verificação de atividade até o momento em que o usuário obtém o resultado (aprovação ou falha). Na melhor das hipóteses, a latência é de 5 s. Em média, esperamos que seja cerca de 7 s. Na melhor das hipóteses, a latência é de 11 s. Vemos uma variação na end-to-end latência, pois ela depende: do tempo em que o usuário conclui a ação necessária (ou seja, mover o rosto para o oval), da conectividade de rede, da latência do aplicativo etc.
+ **Posso usar o recurso Face Liveness sem o SDK do Amplify?**

  

  Não, o SDK do Amplify é necessário para usar o recurso Rekognition Face Liveness.
+ **Onde posso encontrar os estados de erro associados ao Face Liveness?**

  

  Você pode ver os diferentes estados de erro do Face Liveness [aqui](https://ui.docs.amplify.aws/react/connected-components/liveness#error-states).
+ **O Face Liveness não está disponível na minha região. Como posso usar o recurso?**

  

  Você pode optar por ligar para o Face Liveness em qualquer uma das regiões onde ele estiver disponível, dependendo da carga de tráfego e da proximidade. Atualmente, a vivacidade facial está disponível nas seguintes AWS regiões: 
  + Leste dos EUA (N. da Virgínia)
  + Oeste dos EUA (Oregon)
  + Europa (Irlanda)
  + Ásia-Pacífico (Tóquio, Mumbai)

  Mesmo que sua AWS conta esteja localizada em uma região diferente, não se espera que a diferença de latência seja significativa. Você pode obter molduras de selfie e imagens de auditoria de alta qualidade por meio da localização do Amazon S3 ou como bytes brutos, mas seu bucket do Amazon S3 deve corresponder à região AWS do Face Liveness. Se forem diferentes, você deverá receber as imagens como bytes brutos.
+ **O Amazon Rekognition Liveness Detection usa o conteúdo do cliente para melhorar o serviço?**

  

  Você pode optar por não permitir que suas entradas de imagem e vídeo sejam usadas para melhorar ou desenvolver a qualidade do Rekognition e de outras tecnologias de machine learning/inteligência artificial da Amazon usando uma política de exclusão das Organizações da AWS . Para obter informações sobre como desativar, consulte a [Política de exclusão do Managing AI Services](https://docs.aws.amazon.com//organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html).