

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Detección de la pruebas de vida del rostro
<a name="face-liveness"></a>

Amazon Rekognition Face Liveness le ayuda a comprobar que un usuario que se está sometiendo a una verificación facial está físicamente presente frente a una cámara. Detecta los ataques simulados que se presentan ante una cámara o cuando se intenta esquivar una cámara. Los usuarios pueden comprobar la vitalidad de sus rostros haciéndose una breve selfie en vídeo en la que siguen una serie de instrucciones destinadas a comprobar su presencia.

La vitalidad del rostro se determina mediante un cálculo probabilístico y, a continuación, se obtiene una puntuación de confianza (entre 0 y 100) tras la comprobación. Cuanto más alta sea la puntuación, mayor será la confianza en que la persona que recibe el cheque está viva. Face Liveness también devuelve un fotograma, denominado imagen de referencia, que se puede utilizar para comparar y buscar rostros. Como ocurre con cualquier sistema basado en probabilidades, Face Liveness no puede garantizar resultados perfectos. Úselo junto con otros factores para tomar una decisión basada en el riesgo sobre la identidad personal de los usuarios.

Face Liveness utiliza varios componentes: 
+ AWS Amplify el SDK ([React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift (iOS](https://ui.docs.amplify.aws/swift/connected-components/liveness)) y [Android) con](https://ui.docs.amplify.aws/android/connected-components/liveness) componentes FaceLivenessDetector 
+ AWS SDKs
+ AWS Cloud APIs

 Cuando configura su aplicación para que se integre con la característica Face Liveness, utilice las siguientes operaciones de API: 
+ [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)- Inicia una sesión de Face Liveness, lo que permite utilizar el modelo de detección de Face Liveness en su aplicación. Devuelve un valor SessionId para la sesión creada. También te permite configurar tu ChallengePrefrence, para que puedas usar la FaceMovementChallenge opción.
+  [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)- Llamado por AWS Amplify FaceLivenessDetector. Inicia una secuencia de eventos que contiene información sobre los eventos y atributos relevantes de la sesión actual.
+  [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)- Recupera los resultados de una sesión específica de Face Liveness, incluida la puntuación de confianza de Face Liveness, una imagen de referencia y las imágenes de auditoría.

Utilizará el SDK AWS Amplify para integrar la función Face Liveness con sus flujos de trabajo de verificación basada en rostros para aplicaciones web. Cuando los usuarios se incorporen a su aplicación o se autentiquen a través de ella, envíelos al flujo de trabajo Face Liveness Check en el Amplify SDK. El Amplify SDK gestiona la interfaz de usuario y los comentarios en tiempo real para los usuarios mientras capturan su selfie en vídeo.

Cuando FaceMovementAndLightChallenge el rostro del usuario se mueve hacia el óvalo que se muestra en su dispositivo, el SDK de Amplify muestra una secuencia de luces de colores en la pantalla. A continuación, transmite de forma segura el vídeo de la selfie a la nube APIs. Alternativamente, al usarlo FaceMovementChallenge, el rostro del usuario se mueve hacia el óvalo que se muestra en su dispositivo, pero no hay una secuencia de luces de colores. Si bien «FaceMovementAndLightChallenge» sigue siendo la mejor opción para maximizar la precisión, «FaceMovementChallenge» permite a los clientes dar prioridad a una velocidad más rápida en las comprobaciones de funcionamiento que a la precisión. Al seleccionar una de estas opciones, los clientes deberían tener en cuenta los requisitos de su caso de uso, incluidos los tipos de ataque esperados, las tasas de falsas aceptaciones y rechazos erróneos deseadas y comprobaciones adicionales, como la geolocalización (por ejemplo, basada en IP), los códigos de pase único (OTPs), etc. Los clientes deben tomar esta decisión después de probar el rendimiento de Liveness con varios umbrales de confianza en su contenido específico. Además, con ambos tipos de comprobación de actividad, los propietarios de las aplicaciones deberían implementar controles para proteger el dispositivo desde el que se envía la transmisión de vídeo. Una vez finalizado el análisis, recibirá lo siguiente en el backend:
+ Una puntuación de confianza en Face Liveness (entre 0 y 100)
+ Una imagen de alta calidad llamada imagen de referencia que se puede utilizar para buscar rostros o buscar rostros
+ Un conjunto de hasta cuatro imágenes, denominadas imágenes de auditoría, seleccionadas del vídeo de la selfie 

Face Liveness se puede aprovechar para una variedad de casos de uso. Por ejemplo, Face Liveness se puede utilizar junto con la coincidencia de rostros (con [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html)y [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html)) para verificar la identidad, [estimar la edad](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) en plataformas con restricciones de acceso basadas en la edad y detectar usuarios humanos reales y, al mismo tiempo, disuadir a los robots. 

Puede obtener más información sobre los casos de uso a los que se destina el servicio, cómo utiliza este el machine learning (ML) y las consideraciones clave para el diseño y el uso responsables del servicio en la [tarjeta de servicio de IA de Rekognition Face Liveness](https://aws.amazon.com/machine-learning/responsible-machine-learning/rekognition-face-liveness/). 

Puede establecer umbrales para Face Liveness y las puntuaciones de confianza en las coincidencias faciales. Los umbrales que elija deben reflejar su caso de uso. A continuación, envías una verificación de identidad approval/denial al usuario en función de si la puntuación está por encima o por debajo de los umbrales. Si se rechaza, pide al usuario que vuelva a intentarlo o le envía a otro método. 

En el siguiente gráfico se muestra el flujo de usuarios, desde las instrucciones hasta la comprobación de la actividad y el resultado obtenido:

![\[Flujo de usuario que muestra cómo se centra el rostro, se acerca el foco, se mantiene inmóvil para comprobar la actividad y se obtiene un resultado positivo con una puntuación de confianza.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/mobile-flow.png)


# Requisitos de Face Liveness por parte del usuario
<a name="face-liveness-requirements"></a>

Amazon Rekognition Face Liveness requiere las siguientes especificaciones mínimas:

Dispositivos: 
+  El dispositivo debe tener una cámara frontal 
+  Frecuencia de actualización mínima de la pantalla del dispositivo: 60 Hz 
+  Tamaño mínimo de pantalla: 4 pulgadas 
+  El dispositivo no debe estar manipulado ni rooteado 

Especificaciones de la cámara: 
+  Cámara a color: la cámara frontal debería poder grabar colores. 
+  Sin cámara virtual ni software de cámara. 
+  Capacidad mínima de grabación: 15 fotogramas por segundo. 
+  Resolución mínima de grabación de vídeo: 480 x 640 px.
+  Cuando los usuarios utilizan una cámara web con un ordenador de sobremesa para una comprobación de Face Liveness, es importante montar la cámara web en la parte superior de la misma pantalla en la que se inicia la comprobación de Face Liveness. 

Ancho de banda mínimo requerido: 100 kbps

Navegadores compatibles: las tres últimas versiones de los principales navegadores, como Google Chrome, Mozilla Firefox, Apple Safari y Microsoft Edge. Para obtener más información acerca de los navegadores compatibles, consulte [¿Qué navegadores admite la Consola de administración de AWS?](https://aws.amazon.com/premiumsupport/knowledge-center/browsers-management-console/)

# Diagramas de arquitectura y secuencia
<a name="face-liveness-diagrams"></a>

 Los siguientes diagramas detallan el funcionamiento de Amazon Rekognition Face Liveness con respecto a la arquitectura y la secuencia de operaciones de la característica: 

![\[Diagrama de flujo de detección de Liveness que muestra las interacciones entre el usuario final, la aplicación cliente, el FaceLivenessDetector componente, el backend del cliente, el servicio Rekognition y el servicio de streaming Rekognition para la configuración de las sesiones de Liveness, el análisis de vídeo y la recuperación de resultados.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/SequenceDiagramLivenessFlowGuide-v5.png)


![\[Flujo de trabajo de aplicaciones de clientes para la comprobación de Face Liveness que incluye el FaceLivenessDetector componente Amplify, el servicio Rekognition, el backend del cliente y un depósito de Amazon S3 que almacena imágenes de referencia y auditoría.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/RekognitionLivenessArchitectureDeveloperGuide_v2.jpg)


El proceso de verificación de Face Liveness consta de varios pasos, como se describe a continuación:

1.  El usuario inicia una comprobación de Face Liveness en la aplicación cliente. 

1.  La aplicación cliente llama al backend del cliente, que a su vez llama al servicio Amazon Rekognition. El servicio crea una sesión de Face Liveness y devuelve una única. SessionId **Nota:** Una SessionId vez enviada, caduca en 3 minutos, por lo que solo hay un período de 3 minutos para completar los pasos 3 a 7 que se indican a continuación. Debe utilizarse un valor sessionID nuevo para cada comprobación de Face Liveness. Si se utiliza un valor sessionID dado para las siguientes comprobaciones de Face Liveness, estas generarán un error. Además, una SessionId caduca 3 minutos después de su envío, por lo que todos los datos de Liveness asociados a la sesión (p. ej., el ID de sesión, la imagen de referencia, las imágenes de auditoría, etc.) no estarán disponibles. 

1.  La aplicación cliente renderiza el componente FaceLivenessDetector Amplify utilizando las devoluciones de llamada SessionId obtenidas y apropiadas. 

1.  El FaceLivenessDetector componente establece una conexión con el servicio de streaming Amazon Rekognition, representa un óvalo en la pantalla del usuario y muestra una secuencia de luces de colores. FaceLivenessDetector graba y transmite vídeo en tiempo real al servicio de streaming Amazon Rekognition. 

1.  El servicio de streaming Amazon Rekognition procesa el vídeo en tiempo real, almacena los resultados y DisconnectEvent devuelve FaceLivenessDetector a al componente una vez finalizada la transmisión. 

1.  El FaceLivenessDetector componente `onAnalysisComplete` devuelve la llamada para indicar a la aplicación cliente que la transmisión ha finalizado y que las partituras están listas para su recuperación. 

1.  La aplicación cliente llama al servidor del cliente para obtener un indicador booleano que indica si el usuario estaba en directo o no. El backend del cliente realiza la solicitud al servicio de Amazon Rekognition para obtener la puntuación de confianza, la referencia y las imágenes de auditoría. El backend del cliente utiliza estos atributos para determinar si el usuario está activo y devuelve la respuesta adecuada a la aplicación del cliente. 

1.  Por último, la aplicación cliente pasa la respuesta al FaceLivenessDetector componente, que procesa el success/failure mensaje de forma adecuada para completar el flujo. 

# Requisitos previos
<a name="face-liveness-prerequisites"></a>

 Los requisitos previos para usar Amazon Rekognition Face Liveness son los siguientes: 

1. Configure una cuenta AWS 

1. Configura Face Liveness AWS SDKs

1. Configura los recursos de AWS Amplify

## Paso 1: Configurar una cuenta AWS
<a name="face-liveness-prerequisites-setup"></a>

Si aún no tiene una AWS cuenta, complete los pasos que se indican en [Crea una AWS cuenta y un usuario](setting-up.md#setting-up-iam) para crear una.

## Paso 2: Configura la viveza facial AWS SDKs
<a name="face-liveness-prerequisites-sdks"></a>

Si aún no lo ha hecho, instale y configure el AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md). 

Hay varias formas de autenticar las llamadas al AWS SDK. En los ejemplos de esta guía se supone que se utiliza un perfil de credenciales predeterminado para llamar a los comandos de AWS CLI y a las operaciones de la API AWS del SDK. 

Consulte la página [Cómo conceder acceso mediante programación](https://docs.aws.amazon.com/rekognition/latest/dg/sdk-programmatic-access.html) para obtener más información sobre cómo conceder a su cuenta de usuario el acceso al AWS SDK que elija. En la página también se explica cómo usar un perfil en el equipo local y cómo ejecutar el código de ejemplo en los AWS entornos. 

Asegúrese de que el usuario que realiza las operaciones de Face Liveness tiene los permisos correctos para llamar a las operaciones, como los permisos `AmazonRekognitionFullAccess` y `AmazonS3FullAccess`.

## Paso 3: Configurar AWS Amplify Resources
<a name="face-liveness-prerequisites-amplify"></a>

Para integrar Amazon Rekognition Face Liveness en su aplicación, debe configurar el SDK de Amplify para usar AWS el componente Amplify. FaceLivenessDetector 

Si aún no lo ha hecho, siga las instrucciones para configurar la Interfaz de la línea de comandos de AWS (AWS CLI) en [Comenzar a utilizar la AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html). Una vez instalada la CLI, complete los pasos de configuración de la autenticación que se muestran en [el sitio de documentos de la interfaz de usuario de Amplify](https://ui.docs.amplify.aws/react/connected-components/liveness#step-1-configure-auth) para configurar los recursos de AWS Amplify.

## Prácticas recomendadas para detectar la vitalidad del rostro
<a name="face-liveness-best-practices"></a>

Es conveniente que siga varias prácticas recomendadas si va a utilizar Amazon Rekognition Face Liveness. Las prácticas recomendadas de Face Liveness incluyen pautas sobre dónde se deben realizar las comprobaciones de la vitalidad facial, el uso de imágenes de auditoría y la elección de los umbrales de confianza.

Consulte [Recomendaciones para el uso de Face Liveness](recommendations-liveness.md) para ver la lista completa de las prácticas recomendadas.

# Programación de Amazon Rekognition Face Liveness APIs
<a name="face-liveness-programming-api"></a>

Para usar la API de Amazon Rekognition Face Liveness, debe crear un backend que lleve a cabo los siguientes pasos:

1. Llame [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)para iniciar una sesión de Face Liveness. Cuando se completa la operación `CreateFaceLivenessSession`, la interfaz de usuario solicita al usuario que envíe una selfie en vídeo. A continuación, el FaceLivenessDetector componente de AWS Amplify llama [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)para realizar la detección de Liveness.

1. Llame [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)para obtener los resultados de detección asociados a una sesión de Face Liveness.

1. Continúe configurando su aplicación React para usar el FaceLivenessDetector componente siguiendo los pasos de la guía [Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness).

Antes de usar Face Liveness, asegúrese de haber creado una cuenta de AWS, configurar AWS CLI y AWS SDKs, y configurar AWS Amplify. También debe asegurarse de que la política de IAM de su API de backend tenga permisos que cubran lo siguiente: `GetFaceLivenessSessionResults` y `CreateFaceLivenessSession`. Consulte la sección [Requisitos previos](face-liveness-prerequisites.md) para obtener más información.

## Paso 1: CreateFaceLivenessSession
<a name="face-liveness-programming-api-create-session"></a>

CreateFaceLivenessSession La operación de la API crea una sesión de Face Liveness y devuelve una única`SessionId`.

Como parte de la entrada para esta operación, también es posible especificar la ubicación de un bucket de Amazon S3. Esto permite almacenar una imagen de referencia y las imágenes de auditoría generadas durante la sesión de Face Liveness. El bucket de Amazon S3 debe estar ubicado en la cuenta de AWS de la persona que llama y en la misma región que el punto de conexión de Face Liveness. Además, las claves de objeto de S3 las genera el sistema Face Liveness.

También es posible proporcionar un `AuditImagesLimit`, que es un número entre 0 y 4. De forma predeterminada, está establecido en 0. El número de imágenes devueltas es el máximo posible y se basa en la duración del vídeo de autorretrato.

Por último, puede proporcionar un desafío ChallengePreference, incluidos el tipo y la versión del desafío que desea que su sesión utilice de forma predeterminada. De forma predeterminada, se usará, FaceLivenessMovementAndLightChallenge pero se puede configurar en FaceMovementChallenge.

**Ejemplo de solicitud**

```
{
   "ClientRequestToken": "string",
   "KmsKeyId": "string",
   "Settings": { 
      "AuditImagesLimit": number,
      "ChallengePreferences": [ 
         { 
            "Type": "string",
            "Versions": { 
               "Maximum": "string",
               "Minimum": "string"
            }
         }
      ],
      "OutputConfig": { 
         "S3Bucket": "string",
         "S3KeyPrefix": "string"
      }
   }
}
```

**Ejemplo de respuesta**

```
{
    {"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
}
```

## Paso 2: StartFaceLivenessSession
<a name="face-liveness-programming-api-start-session"></a>

Cuando finaliza la operación de CreateFaceLivenessSession API, el componente AWS Amplify realiza la operación de StartFaceLivenessSession API. Se le pide al usuario que capture un autorretrato en vídeo. Para que la comprobación se realice correctamente, el usuario debe colocar su cara dentro del óvalo que aparece en la pantalla y, al mismo tiempo, mantener una buena iluminación. Para obtener más información, consulte [Recomendaciones para el uso de Face Liveness](recommendations-liveness.md). 

Esta operación de API requiere el vídeo capturado durante la sesión de Face Liveness, el sessionID obtenido de la operación de API y una devolución CreateFaceLivenessSession de llamada. `onAnalysisComplete` La devolución de llamada se puede utilizar para indicar al backend que llame a la operación de la GetFaceLivenessSessionResults API, lo que devuelve una puntuación de confianza, una referencia e imágenes de auditoría. 

Tenga en cuenta que este paso lo realiza el FaceLivenessDetector componente AWS Amplify de la aplicación cliente. No necesita realizar una configuración adicional para llamar a `StartFaceLivenessSession`. 

## Paso 3: GetFaceLivenessSessionResults
<a name="face-liveness-programming-api-get-session-results"></a>

La operación GetFaceLivenessSessionResults de la API recupera los resultados de una sesión específica de Face Liveness. Requiere el SessionId como entrada y devuelve la puntuación de confianza de Face Liveness correspondiente. También proporciona una imagen de referencia que incluye un recuadro delimitador de caras e imágenes de auditoría que también contienen recuadros delimitadores de caras. La puntuación de confianza de Face Liveness oscila entre 0 y 100. 

**Ejemplo de solicitud**

```
{"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
```

**Ejemplo de respuesta**

```
{
    "SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8",
    "Confidence": 98.9735,
    "ReferenceImage": {
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "file-name",
        },
        "BoundingBox": { 
           "Height": 0.4943420886993408, 
            "Left": 0.8435328006744385, 
            "Top": 0.8435328006744385, 
            "Width": 0.9521094560623169}
    },
    "AuditImages": [{
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "audit-image-name",
        },
        "BoundingBox": { 
           "Width": 0.6399999856948853,
           "Height": 0.47999998927116394,
           "Left": 0.1644444465637207,
           "Top": 0.17666666209697723}
    }],
    "Status": "SUCCEEDED"
}
```

## Paso 4: Responder a los resultados
<a name="face-liveness-programming-api-respond-results"></a>

Tras la sesión de Face Liveness, compare la puntuación de confianza de la prueba con el umbral especificado. Si la puntuación es superior al umbral, el usuario puede pasar a la siguiente pantalla o tarea. Si la comprobación no se realiza correctamente, se notificará al usuario y se le pedirá que vuelva a intentarlo. 

# Llamando a la cara vivacidad APIs
<a name="face-liveness-calling-apis"></a>

[Puede probar Amazon Rekognition Face Liveness con cualquier SDK AWS compatible, como el [AWS Python SDK Boto3 o el AWS](https://docs.aws.amazon.com/pythonsdk/) SDK for Java.](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/welcome.html) Puede llamar al y con el `CreateFaceLivenessSession` SDK que elija. `GetFaceLivenessSessionResults` APIs La siguiente sección muestra cómo llamarlos APIs con Python y Java SDKs.

 **Para llamar a Face Liveness APIs**: 
+ Si aún no lo ha hecho, debe crear o actualizar un usuario con permisos de `AmazonRekognitionFullAccess`. Para obtener más información, consulte [Step 1: Set up an AWS account and create a User](https://docs.aws.amazon.com/rekognition/latest/dg/setting-up.html#setting-up-iam).
+ Si aún no lo ha hecho, instale y configure la AWS CLI y AWS SDKs. Para obtener más información, consulte el [paso 2: configurar la AWS CLI y AWS SDKs](https://docs.aws.amazon.com/rekognition/latest/dg/setup-awscli-sdk.html).

------
#### [ Python ]

El siguiente fragmento muestra cómo puede llamarlos APIs en sus aplicaciones de Python. Tenga en cuenta que para ejecutar este ejemplo necesitará usar al menos la versión 1.26.110 del SDK de Boto3, aunque se recomienda utilizar la versión más reciente del SDK.

```
import boto3

session = boto3.Session(profile_name='default') 
client = session.client('rekognition')

def create_session():

    response = client.create_face_liveness_session()
    
    session_id = response.get("SessionId")
    print('SessionId: ' + session_id)

    return session_id
    
    
def get_session_results(session_id):

    response = client.get_face_liveness_session_results(SessionId=session_id)
    
    confidence = response.get("Confidence")
    status = response.get("Status")
    
    print('Confidence: ' + "{:.2f}".format(confidence) + "%")
    print('Status: ' + status)
    
    return status


def main():
    session_id = create_session()
    print('Created a Face Liveness Session with ID: ' + session_id)
    
    status = get_session_results(session_id)
    print('Status of Face Liveness Session: ' + status)
        

if __name__ == "__main__":
    main()
```

------
#### [ Java ]

El siguiente fragmento muestra cómo puede llamarlos APIs en sus aplicaciones Java:

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Java V2 ]

En el siguiente fragmento se muestra cómo llamar a Face Liveness APIs con el SDK de Java V2: AWS 

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Node.Js ]

En el siguiente fragmento se muestra cómo llamar a Face APIs Liveness con el SDK de Node.Js: AWS 

```
const Rekognition = require("aws-sdk/clients/rekognition");

const rekognitionClient = new Rekognition({ region: "us-east-1" });

async function createSession() {
    const response = await rekognitionClient.createFaceLivenessSession().promise();

    const sessionId = response.SessionId;
    console.log("SessionId:", sessionId);

    return sessionId;
}

async function getSessionResults(sessionId) {
    const response = await rekognitionClient
        .getFaceLivenessSessionResults({
            SessionId: sessionId,
        })
        .promise();

    const confidence = response.Confidence;
    const status = response.Status;
    console.log("Confidence:", confidence);
    console.log("Status:", status);

    return status;
}

async function main() {
    const sessionId = await createSession();
    console.log("Created a Face Liveness Session with ID:", sessionId);

    const status = await getSessionResults(sessionId);
    console.log("Status of Face Liveness Session:", status);
}

main();
```

------
#### [ Node.Js (Javascript SDK v3) ]

En el siguiente fragmento se muestra cómo llamar a Face Liveness APIs con el SDK de Node.Js para Javascript v3: AWS 

```
import { RekognitionClient, CreateFaceLivenessSessionCommand } from "@aws-sdk/client-rekognition"; // ES Modules 
import const { RekognitionClient, CreateFaceLivenessSessionCommand } = require("@aws-sdk/client-rekognition"); // CommonJS import
const client = new RekognitionClient(config);
const input = { 
  KmsKeyId: "STRING_VALUE",
  Settings: { 
    OutputConfig: { // LivenessOutputConfig
      S3Bucket: "STRING_VALUE", // required
      S3KeyPrefix: "STRING_VALUE",
    },
    AuditImagesLimit: Number("int"),
  },
  ClientRequestToken: "STRING_VALUE",
};
const command = new CreateFaceLivenessSessionCommand(input);
const response = await client.send(command);
// { // CreateFaceLivenessSessionResponse
//   SessionId: "STRING_VALUE", // required
// };
```

------

# Configuración y personalización de la aplicación
<a name="face-liveness-configure-cutomize-amplify"></a>

## Configuración de su aplicación
<a name="face-liveness-configuring-amplify.title"></a>

La aplicación Face Liveness puede funcionar en dispositivos móviles o navegadores web de escritorio. Querrá configurar los componentes de Face Liveness para que se integren con la solución que elija. También debe asegurarse de que su aplicación tenga permiso para usar la cámara de un dispositivo. La [guía de Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness) proporciona instrucciones detalladas sobre cómo:
+  Instalar y configurar AWS Amplify
+  Importe y renderice el componente FaceLivenessDetector 
+  Escuchar las devoluciones de llamadas 
+  Ejemplo de mensaje de error de Render Amplify 

## Personalizar su aplicación
<a name="face-liveness-customize-amplify.title"></a>

Puede personalizar determinados componentes de su aplicación de animación con [AWS Amplify](https://ui.docs.amplify.aws/react/getting-started/introduction). 

Para obtener información sobre la traducción, consulte la [documentación de Amplify Authenticator](https://ui.docs.amplify.aws/react/connected-components/authenticator/customization#internationalization-i18n). 

Para obtener información sobre la personalización de los componentes y temas de Amplify, consulte la documentación de Amplify relativa a la [creación de temas](https://ui.docs.amplify.aws/react/theming).

# Modelo de responsabilidad compartida de Face Liveness
<a name="face-liveness-shared-responsibility-model"></a>

 

Los asuntos relacionados con la seguridad y la conformidad son una responsabilidad compartida entre AWS y el cliente. Obtenga más información sobre el modelo de responsabilidad compartida de AWS [aquí](https://aws.amazon.com/compliance/shared-responsibility-model/).

1.  Todas las llamadas al servicio de AWS (a través de la aplicación del cliente o del servidor del cliente) se autentican y autorizan con AWS Auth (AWS Authentication). Es responsabilidad de los propietarios del servicio Face Liveness garantizar que esto suceda. 

1.  Todas las llamadas al backend del cliente (desde la aplicación del cliente) se autentican y autorizan a través del cliente. Esta responsabilidad recae en el cliente. El cliente debe asegurarse de que las llamadas desde la aplicación cliente estén autenticadas y no hayan sido manipuladas de ninguna manera. 

1.  El backend del cliente debe identificar al usuario final que realiza el desafío Face Liveness. Es responsabilidad del cliente vincular a un usuario final a una sesión de Face Liveness. El servicio Face Liveness no distingue entre los usuarios finales. Solo puede identificar la identidad de AWS que llama (que gestiona el cliente). 

1. AWS recomienda a los clientes aplicar comprobaciones de validación adicionales, como la geolocalización de la ubicación (por ejemplo, basada en IP), códigos One Time Pass (OTP), etc., además de Face Liveness, que se ajuste a los requisitos de sus casos de uso y a su posición de seguridad.

La configuración “FaceMovementAndLightChallenge” ofrece la máxima precisión para Rekognition Liveness, ya que requiere que los usuarios muevan la cara hacia la pantalla y se queden quietos durante una serie de luces parpadeantes. Recomendamos a los clientes que utilicen esta configuración predeterminada. Como alternativa, los clientes pueden activar la configuración “FaceMovementChallenge”, que reduce el tiempo de comprobación en varios segundos al eliminar las luces parpadeantes. Aunque “FaceMovementAndLightChallenge” sigue siendo la mejor opción para maximizar la precisión, “FaceMovementChallenge” permite a los clientes priorizar los controles de actividad más rápidos. Al seleccionar entre estas configuraciones, los clientes deberían tener en cuenta los requisitos de cada caso de uso, incluidos los tipos de ataque esperados y las tasas deseadas de falsas aceptaciones y falsos rechazos, y también deberían implementar comprobaciones adicionales, como la geolocalización (por ejemplo, basada en IP), los códigos One Time Pass (OTP), etc. Los clientes deben tomar esta decisión después de probar el rendimiento de Liveness con varios umbrales de confianza en función de su caso de uso. Los clientes son responsables de implementar controles para proteger el dispositivo desde el que se envía el vídeo.

El siguiente diagrama de flujo muestra qué llamadas autentican el servicio de AWS o el cliente:

![\[Flujo de detección de Liveness que muestra las interacciones entre la aplicación del cliente, el componente detector de Face Liveness, el backend del cliente, el servicio Rekognition y el servicio de transmisión de Rekognition para una sesión segura de Face Liveness.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/SequenceDiagramLivenessFlow-v5.png)


Todas las llamadas al servicio Amazon Rekognition Face Liveness están protegidas por AWS Auth (mediante un mecanismo de firma de AWS). Estas incluyen las siguientes llamadas:
+  [3] Llamada a la API [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html) (desde el backend del cliente) 
+  [7] Llamada a la API [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html) (desde la aplicación del cliente) 
+  [11] Llamada a la API [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html) (desde el backend del cliente) 

Todas las llamadas al backend del cliente deben tener un mecanismo de autenticación y autorización. Los clientes deben asegurarse de que el código/biblioteca/etc. de terceros utilizado se mantenga y desarrolle activamente. Los clientes también deben asegurarse de que el usuario final correcto realiza las llamadas a la sesión correcta de Face Liveness. Los clientes deben autenticar y autorizar los siguientes flujos:
+  [2] Cree una sesión de Face Liveness (desde la aplicación del cliente) 
+  [10] Obtenga el resultado de la sesión de Face Liveness (desde la aplicación del cliente) 

Los clientes pueden seguir el modelo de seguridad [STRIDE](https://owasp.org/www-community/Threat_Modeling_Process#stride-threat-list) para asegurarse de que sus llamadas a la API estén protegidas.


| 
| 
| Tipo | Descripción | Control de seguridad | 
| --- |--- |--- |
| Spoofing | Threat action aimed at accessing and use of another user’s credentials, such as username and password. | Authentication | 
| Tampering | Threat action intending to maliciously change or modify persistent data. Examples include records in a database, and the alteration of data in transit between two computers over an open network, such as the internet. | Integrity | 
| Repudiation | Threat action aimed at performing prohibited operations in a system that lacks the ability to trace the operations. | Non-Repudiation | 
| Information disclosure | Threat action intending to read a file that one was not granted access to, or to read data in transit. | Confidentiality | 
| Denial of service | Threat action attempting to deny access to valid users, such as by making a web server temporarily unavailable or unusable. | Availability | 
| Elevation of privilege | Threat action intending to gain privileged access to resources in order to gain unauthorized access to information or to compromise a system. | Authorization | 

AWS protege sus conexiones de las siguientes maneras:

1.  Calcule la firma de la solicitud y, a continuación, verifique la firma en el lado del servicio. Las solicitudes se ***autentican*** con esta firma. 

1.  Los clientes de AWS deben configurar los roles de IAM adecuados para ***autorizar*** determinadas acciones u operaciones. Estos roles de IAM son necesarios para realizar llamadas al servicio de AWS. 

1.  Solo se permiten las solicitudes HTTPS al servicio de AWS. Las solicitudes se cifran en la red abierta mediante TLS. Esto protege la ***confidencialidad*** de las solicitudes y mantiene su ***integridad***. 

1. El servicio de AWS registra datos suficientes para identificar las llamadas realizadas por los clientes. Esto evita los ataques de ***rechazo***.

1.  El servicio AWS es propietario y mantiene una ***disponibilidad suficiente*** 

El cliente es responsable de proteger sus llamadas al servicio y a la API de las siguientes maneras:

1.  El cliente debe asegurarse de seguir un mecanismo de autenticación adecuado. Existen varios mecanismos de autenticación que se pueden utilizar para autenticar una solicitud. Los clientes pueden explorar la [autenticación basada en resúmenes](https://en.wikipedia.org/wiki/Digest_access_authentication), [OAuth](https://oauth.net/), [OpenID Connect](https://openid.net/connect/) y otros mecanismos. 

1.  Los clientes deben asegurarse de que su servicio admite los canales de cifrado adecuados (como TLS/HTTPS) para realizar llamadas a la API del servicio. 

1.  Los clientes deben asegurarse de registrar los datos necesarios para identificar de forma exclusiva una llamada a la API y a la persona que llama. Deben poder identificar al cliente que llama a su API con parámetros definidos y la hora de las llamadas. 

1.  Los clientes deben asegurarse de que su sistema esté disponible y de que estén protegidos contra [ataques DDoS](https://en.wikipedia.org/wiki/Denial-of-service_attack). Estos son algunos ejemplos de [técnicas de defensa](https://en.wikipedia.org/wiki/Denial-of-service_attack#Defense_techniques) contra los ataques DDoS.

Los clientes son responsables de mantener sus aplicaciones actualizadas. Para obtener más información, consulte [Directrices de actualización de Face Liveness](face-liveness-update-guidelines.md).

# Directrices de actualización de Face Liveness
<a name="face-liveness-update-guidelines"></a>

 AWS actualiza periódicamente Face Liveness AWS SDKs (que se usa en el backend del cliente) y FaceLivenessDetector los componentes de AWS Amplify SDKs (que se usan en las aplicaciones de los clientes) para proporcionar nuevas funciones, seguridad mejorada y actualizada APIs, correcciones de errores, mejoras de usabilidad y más. Te recomendamos que mantengas esta opción SDKs up-to-date para garantizar un funcionamiento óptimo de la función. Si sigues utilizando versiones anteriores de SDKs, es posible que se bloqueen las solicitudes por motivos de mantenimiento y seguridad. 

Face Liveness requiere que utilices el FaceLivenessDetector componente, incluido en AWS SDKs Amplify (React, iOS, Android). 

## Control de versiones y plazos
<a name="face-liveness-update-guidelines-versioning"></a>

Estamos realizando el control de versiones de los siguientes componentes clave de la característica Face Liveness. Seguimos un formato de control de versiones semántico. Por ejemplo, un formato de versión de X.Y.Z donde X representa la versión principal, Y representa la versión secundaria y Z representa la versión del parche. 
+ Los desafíos de los usuarios de Face Liveness (por ejemplo, el FaceMovementAndLightChallenge desafío) forman parte de la API StartFaceLivenessSession 
+ FaceLivenessDetector los componentes suministrados a través de AWS Amplify SDKs se utilizan en aplicaciones cliente

Versiones *principales*: reservamos las actualizaciones de las versiones principales para actualizaciones críticas de seguridad, de última generación de API y de usabilidad espectaculares. Las aplicaciones y el backend del cliente deben actualizarse lo antes posible para que pueda seguir utilizando las característica de Face Liveness. Una vez que publiquemos una nueva versión principal, admitiremos la versión principal anterior durante 120 días a partir del día de publicación de la nueva versión. Es posible que bloqueemos las solicitudes procedentes de la versión principal anterior después de 120 días. 

Versiones *secundarias*: reservamos las actualizaciones de las versiones secundarias para características y mejoras importantes de seguridad y usabilidad. Recomendamos encarecidamente aplicar estas actualizaciones. Si bien nos esforzamos por garantizar que las actualizaciones menores sean compatibles con versiones anteriores durante el mayor tiempo posible, es posible que end-of-support anunciemos una versión secundaria anterior 180 días después del lanzamiento de una nueva versión secundaria. 

Versiones de *parches*: reservamos las actualizaciones de las versiones de parches para corregir errores y realizar mejoras opcionales. Si bien le recomendamos que conserve su versión up-to-date para disfrutar de la mejor seguridad y experiencia de usuario, nos esforzamos por garantizar que las actualizaciones de los parches sean totalmente compatibles con versiones anteriores hasta que publiquemos una nueva versión principal o secundaria. 

El período de control de versiones (120 días para la versión principal y 180 días para la versión secundaria) se aplica a la actualización del SDK de la aplicación, a la carga de la aplicación a la tienda de aplicaciones o al sitio web y a la descarga de la última versión de la aplicación por parte de los usuarios.

## Matriz de versiones, lanzamientos y compatibilidad
<a name="face-liveness-update-guidelines-compatibility"></a>

El lanzamiento de una versión principal por un FaceLivenessDetector componente o por un problema de usuario suele coincidir. Para ayudarle a realizar un seguimiento de las dependencias de las versiones, consulte los recursos enlazados en las siguientes tablas.

**Versiones y registros de cambios del SDK:**


|  |  |  | 
| --- |--- |--- |
| FaceLivenessDetector para el SDK web | FaceLivenessDetector para iOS SDK | FaceLivenessDetector para el SDK de Android | 
| [Versión actual](https://www.npmjs.com/package/@aws-amplify/ui-react-liveness) | [registro de cambios](https://github.com/aws-amplify/amplify-ui/blob/main/packages/react-liveness/CHANGELOG.md) | [Versión actual/registro de cambios](https://github.com/aws-amplify/amplify-ui-swift-liveness/releases) | [Versión actual/registro de cambios](https://github.com/aws-amplify/amplify-ui-android/releases) | 

 **Desafíos de los usuarios:** 


|  |  |  |  | 
| --- |--- |--- |--- |
| Nombre del desafío | Versión | Fecha de lanzamiento | Fecha de jubilación | 
| FaceMovementAndLightChallenge | v1.0.0 | 10/04/2023 | N/A | 
| FaceMovementChallenge | v1.0.0 | 30 de abril de 2025 | N/A | 

## Comunicación de las nuevas versiones
<a name="face-liveness-update-guidelines-communication"></a>

 AWS comunica los nuevos lanzamientos a través de los siguientes canales: 
+ Se envían notificaciones por correo electrónico sobre las actualizaciones del estado del servicio al correo electrónico de la cuenta asociado al ID de cuenta de Face Liveness.
+ Publicó las actualizaciones AWS SDKs y las notificaciones asociadas en los GitHub repositorios respectivos.
+ Publicó actualizaciones para AWS Amplify SDKs y las notificaciones asociadas en los repositorios respectivos GitHub .

Te recomendamos que te suscribas a estos canales para quedarte. up-to-date

# Preguntas frecuentes sobre Face Liveness
<a name="face-liveness-faq"></a>

Utilice las siguientes preguntas frecuentes para encontrar respuestas a las preguntas más frecuentes sobre Rekognition Face Liveness.
+ **¿Cuáles son los resultados de una prueba de vitalidad facial?**

  

  Rekognition Face Liveness proporciona los siguientes resultados para cada comprobación de vitalidad:
  + Puntuación de confianza: se devuelve una puntuación numérica que va de 0 a 100. Esta puntuación indica la probabilidad de que el vídeo de autorretrato sea de una persona real y no de un actor malintencionado que utilice una suplantación de identidad. 
  + Imagen de alta calidad: se extrae una única imagen de alta calidad del vídeo de autorretrato. Este fotograma se puede utilizar para diversos fines, como la comparación de rostros, la estimación de la edad o la búsqueda de rostros.
  + Imágenes de auditoría: se obtienen hasta cuatro imágenes del vídeo de autorretrato, que se pueden utilizar como registro de auditoría. 
+ **¿Rekognition Face Liveness cumple con las pruebas de detección de ataques de presentación (PAD) de iBeta?**

  

  Las pruebas de detección de ataques (PAD) de presentación de iBeta Quality Assurance se llevan a cabo de acuerdo con la norma ISO/IEC 30107-3. iBETA está acreditada por el NIST/NVLAP para realizar pruebas y proporcionar resultados según esta norma PAD. Rekognition Face Liveness superó las pruebas de conformidad de detección de ataques de presentación (PAD) iBeta de nivel 1 y 2 con una puntuación PAD perfecta. [El informe puede consultarse en la página web de iBeta aquí.](https://www.ibeta.com/wp-content/uploads/2023/10/231019-Amazon-Rekognition-PAD-Level-2-Confirmation-Letter.pdf) 
+ **¿Cómo puedo obtener un marco de alta calidad y marcos adicionales?**

  

  El marco de alta calidad y los marcos adicionales pueden devolverse como bytes sin procesar o cargarse en un bucket de Amazon S3 que especifique, en función de las configuraciones de su solicitud de [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)API.
+ **¿Puedo cambiar la ubicación del óvalo y las luces de colores?**

  

  No. La ubicación del óvalo y las luces de colores son características que permiten una mayor precisión y, por lo tanto, no se pueden personalizar.
+ **¿Puedo personalizar la interfaz de usuario según nuestra aplicación?**

  

  Sí, puede personalizar la mayoría de los componentes de la pantalla, como el tema, el color, el idioma, el contenido del texto y la fuente, para adaptarlos a su aplicación. Encontrará detalles sobre cómo personalizar estos componentes en la documentación de nuestros componentes de interfaz de usuario de [React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift](https://ui.docs.amplify.aws/swift/connected-components/liveness) y [Android](https://ui.docs.amplify.aws/android/connected-components/liveness).
+ **¿Puedo personalizar la hora y el tiempo de la cuenta atrás para poner una cara en la forma ovalada?**

  

  No, el tiempo de cuenta atrás y el tiempo de ajuste facial se han predeterminado a partir de estudios internos a gran escala realizados con miles de usuarios, con el objetivo de proporcionar un equilibrio óptimo entre mayor precisión y latencia. Por este motivo, estos ajustes de tiempo no se pueden personalizar.
+ **¿Las luces de diferentes colores cumplen con las normas de accesibilidad?**

  

  Sí, las luces de diferentes colores de nuestro producto cumplen con las pautas de accesibilidad descritas en las WCAG 2.1. Como se ha comprobado con más de 1000 controles de usuario, la experiencia de usuario muestra aproximadamente dos colores por segundo, lo que cumple con la recomendación de limitar los colores a tres por segundo. Esto reduce la probabilidad de desencadenar ataques epilépticos en la mayoría de la población.
+ **¿El SDK ajusta el brillo de la pantalla para obtener resultados óptimos?**

  

  El móvil Face Liveness SDKs (para Android e iOS) ajusta automáticamente el brillo cuando se inicia la comprobación. Sin embargo, en el caso del SDK web, las páginas web tienen limitaciones que impiden el ajuste automático del brillo. En estos casos, esperamos que la aplicación web indique a los usuarios finales que aumenten manualmente el brillo de la pantalla para obtener resultados óptimos.
+ **¿Tiene que ser un óvalo? ¿Podríamos usar otras formas similares?**

  

  No, el tamaño, la forma y la ubicación del óvalo no se pueden personalizar. El diseño ovalado específico se ha elegido cuidadosamente por su eficacia a la hora de capturar y analizar con precisión los movimientos faciales. Por lo tanto, la forma ovalada no se puede modificar.
+ **¿Qué es la end-to-end latencia?**

  

  Medimos la end-to-end latencia desde el momento en que el usuario inicia la acción necesaria para completar la comprobación de actividad hasta el momento en que el usuario obtiene el resultado (aprobado o rechazado). En el mejor de los casos, la latencia es de 5 segundos. En promedio, esperamos que sea de unos 7 segundos. En el peor de los casos, la latencia es de 11 segundos. Observamos que la end-to-end latencia varía en función de: el tiempo que tarda el usuario en completar la acción requerida (es decir, mover la cara hacia el óvalo), la conectividad de la red, la latencia de la aplicación, etc.
+ **¿Puedo usar la característica Face Liveness sin Amplify SDK?**

  

  No, se requiere Amplify SKD para usar la característica Rekognition Face Liveness.
+ **¿Dónde puedo encontrar los estados de error asociados a Face Liveness?**

  

  Puede ver los diferentes estados de error de Face Liveness [aquí](https://ui.docs.amplify.aws/react/connected-components/liveness#error-states).
+ **Face Liveness no está disponible en mi región. ¿Cómo puedo usar la característica?**

  

  Puede elegir llamar a Face Liveness en cualquiera de las regiones en las que esté disponible, en función del tráfico y de la proximidad. Actualmente, Face Liveness está disponible en las siguientes AWS regiones: 
  + Este de EE. UU. (Norte de Virginia)
  + Oeste de EE. UU. (Oregón)
  + Europa (Irlanda)
  + Asia-Pacífico (Tokio, Bombay)

  Aunque tu AWS cuenta esté ubicada en una región diferente, no se espera que la diferencia de latencia sea significativa. Puede obtener marcos para selfies e imágenes de auditoría de alta calidad a través de la ubicación de Amazon S3 o como bytes sin procesar, pero su bucket de Amazon S3 debe coincidir con la AWS región de Face Liveness. Si son diferentes, debe recibir las imágenes como bytes sin procesar.
+ **¿Amazon Rekognition Liveness Detection utiliza el contenido de los clientes para mejorar el servicio?**

  

  Puede optar por que sus imágenes y vídeos no se utilicen para mejorar o desarrollar la calidad de Rekognition y otras tecnologías de machine learning inteligencia artificial de Amazon mediante la política de cancelación de AWS Organizations. Para obtener información sobre cómo cancelar, consulte [Administración de la política de cancelación de servicios de IA](https://docs.aws.amazon.com//organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html).