

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Détection de la vivacité faciale
<a name="face-liveness"></a>

Amazon Rekognition Face Liveness vous aide à vérifier qu’un utilisateur soumis à une vérification faciale est physiquement présent devant une caméra. Cette fonctionnalité détecte également les attaques frauduleuses présentées à une caméra ou qui tentent de contourner une caméra. Les utilisateurs peuvent effectuer un test Face Liveness en prenant un court selfie vidéo dans lequel ils suivent une série d’instructions destinées à vérifier leur présence.

La vivacité faciale d’un visage est déterminée à l’aide d’un calcul probabiliste, puis un score de confiance (compris entre 0 et 100) est renvoyé après le contrôle. Plus le score est élevé, plus on est sûr que la personne qui reçoit le chèque est réelle. Face Liveness renvoie également un cadre, appelé image de référence, qui peut être utilisé pour la comparaison et la recherche de visages. Comme tout système basé sur les probabilités, Face Liveness ne peut garantir des résultats parfaits. Utilisez-le avec d’autres facteurs pour prendre une décision fondée sur le risque concernant l’identité personnelle des utilisateurs.

Face Liveness utilise plusieurs composants : 
+ AWS Amplify SDK ([React](https://ui.docs.amplify.aws/react/connected-components/liveness), Swift [(iOS](https://ui.docs.amplify.aws/swift/connected-components/liveness)) et [Android](https://ui.docs.amplify.aws/android/connected-components/liveness)) avec composant FaceLivenessDetector 
+ AWS SDKs
+ AWS Cloud APIs

 Lorsque vous configurez votre application pour qu’elle s’intègre à la fonctionnalité Face Liveness, elle utilise les opérations d’API suivantes : 
+ [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)- Démarre une session Face Liveness, permettant d'utiliser le modèle de détection Face Liveness dans votre application. Renvoie un SessionId pour la session créée. Vous permet également de définir votre ChallengePrefrence, afin que vous puissiez utiliser l' FaceMovementChallenge option.
+  [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)- Appelé par AWS Amplify FaceLivenessDetector. Démarre un flux d’événements contenant des informations sur les événements et les attributs pertinents de la session en cours.
+  [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)- Récupère les résultats d'une session Face Liveness spécifique, y compris un score de confiance Face Liveness, une image de référence et des images d'audit.

Vous utiliserez le SDK AWS Amplify pour intégrer la fonctionnalité Face Liveness à vos flux de travail de vérification faciale pour les applications Web. Lorsque les utilisateurs intègrent ou s’authentifient via votre application, envoyez-les vers le flux de travail de vérification de Face Liveness dans le SDK Amplify. Le SDK Amplify gère l’interface utilisateur et les commentaires en temps réel des utilisateurs lorsqu’ils capturent leur selfie vidéo.

Lorsque FaceMovementAndLightChallenge le visage de l'utilisateur se déplace vers l'ovale affiché sur son appareil, le SDK Amplify affiche une séquence de lumières colorées à l'écran. Il diffuse ensuite en toute sécurité la vidéo du selfie sur le cloud APIs. Sinon, lors de l'utilisation FaceMovementChallenge, le visage de l'utilisateur se déplace dans l'ovale affiché sur son appareil, mais il n'y a aucune séquence de lumières colorées. Bien que « FaceMovementAndLightChallenge » reste le meilleur paramètre pour optimiser la précision, « FaceMovementChallenge » permet aux clients de privilégier l'accélération des contrôles de réactivité par rapport à la précision. Lors du choix entre ces paramètres, les clients doivent tenir compte des exigences de leur cas d'utilisation, notamment les types d'attaques attendus, les taux de faux acceptations et de faux rejets souhaités, ainsi que des contrôles supplémentaires tels que la géolocalisation (par exemple basée sur l'IP), les codes One Time Pass (OTPs), etc. Les clients doivent prendre cette décision après avoir testé les performances de Liveness avec différents seuils de confiance pour leur contenu spécifique. En outre, avec les deux types de contrôle de la durée de vie, les propriétaires de l'application doivent mettre en œuvre des contrôles pour sécuriser l'appareil à partir duquel le flux vidéo est envoyé. Une fois l’analyse terminée, vous recevez les informations suivantes sur le backend :
+ Un score de confiance de Face Liveness (entre 0 et 100)
+ Une image de haute qualité appelée image de référence qui peut être utilisée pour Face Match ou Face Search
+ Un ensemble de quatre images maximum, appelées images d’audit, sélectionnées à partir de la vidéo du selfie 

Face Liveness peut être utilisé pour toute une série cas d’utilisation. Par exemple, Face Liveness peut être utilisé conjointement avec la reconnaissance faciale (avec [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html)et [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html)) pour vérifier l'identité, pour [estimer l'âge](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) sur les plateformes soumises à des restrictions d'accès basées sur l'âge et pour détecter de vrais utilisateurs humains tout en dissuadant les robots. 

La [carte de service IA Rekognition Face Liveness](https://aws.amazon.com/machine-learning/responsible-machine-learning/rekognition-face-liveness/) vous fournit de plus amples informations sur les cas d’utilisation auxquels le service est destiné, sur la manière dont la fonctionnalité machine learning (ML) est utilisée par le service, et sur les principales considérations relatives à la conception et à l’utilisation responsables du service. 

Vous pouvez définir des seuils pour Face Liveness et des scores de confiance pour Face Match. Les seuils que vous avez choisis doivent refléter votre cas d’utilisation. Vous envoyez ensuite une vérification d'identité approval/denial à l'utilisateur en fonction du score supérieur ou inférieur aux seuils. En cas de refus, demandez à l’utilisateur de réessayer, ou envoyez-le vers une autre méthode. 

Le graphique suivant illustre le flux utilisateur, depuis les instructions jusqu’au résultat renvoyé, en passant par le contrôle de l’état de fonctionnement :

![\[Flux utilisateur montrant le centrage du visage, le rapprochement, le maintien immobile pour vérifier la vivacité et le résultat obtenu avec un score de confiance.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/mobile-flow.png)


# Exigences de Face Liveness côté utilisateur
<a name="face-liveness-requirements"></a>

Amazon Rekognition Face Liveness nécessite les spécifications minimales suivantes :

Appareils : 
+  L’appareil doit être équipé d’une caméra frontale 
+  Fréquence de rafraîchissement minimale de l’écran de l’appareil : 60 Hz 
+  Taille minimale d’affichage ou d’écran : 4 pouces 
+  L’appareil ne doit pas être jailbreaké ou rooté 

Spécifications de la caméra : 
+  Caméra couleur : la caméra frontale doit être capable d’enregistrer les couleurs. 
+  Pas de caméra virtuelle ni de logiciel de caméra. 
+  Capacité d’enregistrement minimale : 15 images par seconde. 
+  Résolution d'enregistrement vidéo minimale : 480 x 640 pixels.
+  Lorsque les utilisateurs se servent d’une webcam avec un ordinateur de bureau pour effectuer un test Face Liveness, il est important de monter la webcam au-dessus de l’écran où le contrôle Face Liveness commence. 

Bande passante minimale requise : 100 kbps

Navigateurs pris en charge : les trois dernières versions des principaux navigateurs, tels que Google Chrome, Mozilla Firefox, Apple Safari et Microsoft Edge. Pour obtenir des informations sur les versions supportées des navigateurs Chrome et Firefox, veuillez consulter [Quels navigateurs sont supportés et peuvent être utilisés avec la console de gestion AWS ?](https://aws.amazon.com/premiumsupport/knowledge-center/browsers-management-console/)

# Architecture et diagrammes de séquence
<a name="face-liveness-diagrams"></a>

 Les diagrammes suivants décrivent le fonctionnement d’Amazon Rekognition Face Liveness en ce qui concerne l’architecture de la fonctionnalité et la séquence des opérations : 

![\[Schéma de flux de détection de Rekognition montrant les interactions entre l'utilisateur final, l'application cliente, le FaceLivenessDetector composant, le backend du client, le service Rekognition et le service de streaming Rekognition pour la configuration des sessions Liveness, l'analyse vidéo et la récupération des résultats.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/SequenceDiagramLivenessFlowGuide-v5.png)


![\[Flux de travail des applications client pour Face Liveness Check impliquant le composant FaceLivenessDetector Amplify, le service Rekognition, le backend client et le compartiment Amazon S3 stockant des images de référence et d'audit.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/RekognitionLivenessArchitectureDeveloperGuide_v2.jpg)


Le processus de vérification de la vivacité faciale comporte plusieurs étapes, comme indiqué ci-dessous :

1.  L’utilisateur lance un test Face Liveness dans l’application cliente. 

1.  L’application cliente appelle le backend du client, qui à son tour appelle le service Amazon Rekognition. Le service crée une session Face Liveness et renvoie une session unique SessionId. **Remarque :** Une SessionId fois envoyé, il expire au bout de 3 minutes. Il n'y a donc que 3 minutes pour effectuer les étapes 3 à 7 ci-dessous. Un nouveau SessionID doit être utilisé pour chaque contrôle de Face Liveness. Si un ID de session donné est utilisé pour les tests Face Liveness ultérieurs, les contrôles échoueront. De plus, un SessionId fichier expire 3 minutes après son envoi, rendant toutes les données Liveness associées à la session (par exemple, l'identifiant de session, l'image de référence, les images d'audit, etc.) indisponibles. 

1.  L'application client affiche le composant FaceLivenessDetector Amplify à l'aide des rappels SessionId obtenus et appropriés. 

1.  Le FaceLivenessDetector composant établit une connexion au service de streaming Amazon Rekognition, affiche un ovale sur l'écran de l'utilisateur et affiche une séquence de lumières colorées. FaceLivenessDetector enregistre et diffuse des vidéos en temps réel sur le service de streaming Amazon Rekognition. 

1.  Le service de streaming Amazon Rekognition traite la vidéo en temps réel, stocke les résultats et DisconnectEvent renvoie un FaceLivenessDetector au composant une fois le streaming terminé. 

1.  Le FaceLivenessDetector composant appelle le `onAnalysisComplete` rappel pour signaler à l'application cliente que le streaming est terminé et que les scores sont prêts à être récupérés. 

1.  L’application cliente appelle le backend du client pour obtenir un drapeau booléen indiquant si l’utilisateur était actif ou non. Le backend du client fait la demande au service Amazon Rekognition pour obtenir le score de confiance, les images de référence et les images d’audit. Le backend client utilise ces attributs pour déterminer si l’utilisateur est en ligne et renvoie une réponse appropriée à l’application cliente. 

1.  Enfin, l'application client transmet la réponse au FaceLivenessDetector composant, qui affiche le success/failure message de manière appropriée pour terminer le flux. 

# Conditions préalables
<a name="face-liveness-prerequisites"></a>

 Les conditions préalables à l’utilisation d’Amazon Rekognition Face Liveness sont les suivantes : 

1. Configurez un AWS compte

1. Configurer le Face Liveness AWS SDKs

1. Configurer les ressources AWS Amplify

## Étape 1 : créer un AWS compte
<a name="face-liveness-prerequisites-setup"></a>

Si vous n'avez pas encore de AWS compte, suivez les étapes indiquées [Création d'un AWS compte et d'un utilisateur](setting-up.md#setting-up-iam) pour en créer un.

## Étape 2 : configurer le Face Liveness AWS SDKs
<a name="face-liveness-prerequisites-sdks"></a>

Si ce n'est pas déjà fait, installez et configurez le AWS CLI et le AWS SDKs. Pour de plus amples informations, veuillez consulter [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md). 

Il existe plusieurs méthodes pour authentifier les appels du AWS SDK. Les exemples présentés dans ce guide supposent que vous utilisez un profil d'identification par défaut pour appeler des commandes AWS CLI et des opérations d'API du AWS SDK. 

Consultez la page [Octroi d'un accès programmatique](https://docs.aws.amazon.com/rekognition/latest/dg/sdk-programmatic-access.html) pour plus d'informations sur l'octroi à votre compte utilisateur de l'accès au AWS SDK de votre choix. La page explique également comment utiliser un profil sur votre ordinateur local et comment exécuter l'exemple de code dans AWS des environnements. 

Assurez-vous que l’utilisateur qui appelle les opérations Face Liveness dispose des autorisations appropriées pour appeler les opérations, telles que les autorisations `AmazonRekognitionFullAccess` et `AmazonS3FullAccess`.

## Étape 3 : configurer les ressources AWS Amplify
<a name="face-liveness-prerequisites-amplify"></a>

Pour intégrer Amazon Rekognition Face Liveness dans votre application, vous devez configurer le SDK Amplify pour utiliser AWS le composant Amplify. FaceLivenessDetector 

Si ce n’est pas déjà fait, suivez les instructions pour configurer l'Interface de la ligne de commande AWS (AWS CLI) à la section [Mise en route avec AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html). Une fois la CLI installée, suivez les étapes de configuration de l'authentification présentées sur le site de [documentation de l'interface utilisateur d'Amplify](https://ui.docs.amplify.aws/react/connected-components/liveness#step-1-configure-auth) pour configurer vos ressources AWS Amplify.

## Bonnes pratiques pour détecter la vivacité faciale
<a name="face-liveness-best-practices"></a>

Les bonnes pratiques suivantes sont recommandées pour l’utilisation d’Amazon Rekognition Face Liveness. Les meilleures pratiques de Face Liveness incluent des directives concernant les endroits où les contrôles de Face Liveness doivent être effectués, l’utilisation d’images d’audit et le choix des seuils de confiance.

Consultez [Recommandations pour l’utilisation de Face Liveness](recommendations-liveness.md) pour avoir la liste complète des meilleures pratiques.

# Programmation de l'Amazon Rekognition Face Liveness APIs
<a name="face-liveness-programming-api"></a>

Pour utiliser l’API Face Liveness d’Amazon Rekognition, vous devez créer un backend qui exécute les étapes suivantes :

1. Appelez [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)pour lancer une session Face Liveness. Lorsque l’opération `CreateFaceLivenessSession` est terminée, l’interface utilisateur invite l’utilisateur à soumettre un selfie vidéo. Le FaceLivenessDetector composant d'AWS Amplify appelle ensuite [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)pour effectuer une détection Liveness.

1. Appelez [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)pour renvoyer les résultats de détection associés à une session Face Liveness.

1. Procédez à la configuration de votre application React pour utiliser le FaceLivenessDetector composant en suivant les étapes du guide [Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness).

Avant d'utiliser Face Liveness, assurez-vous d'avoir créé un compte AWS, configuré l'AWS CLI et AWS SDKs, et configuré AWS Amplify. Vous devez également vous assurer que la politique IAM de votre API backend comporte des autorisations couvrant les points suivants : `GetFaceLivenessSessionResults` et `CreateFaceLivenessSession`. Consultez la section [Conditions préalables](face-liveness-prerequisites.md) pour plus d’informations.

## Étape 1 : CreateFaceLivenessSession
<a name="face-liveness-programming-api-create-session"></a>

CreateFaceLivenessSession L'opération d'API crée une session Face Liveness et renvoie une valeur unique`SessionId`.

Dans le cadre de la saisie de cette opération, il est également possible de spécifier l’emplacement d’un compartiment Amazon S3. Cela permet de stocker une image de référence et d’auditer les images générées pendant la session Face Liveness. Le compartiment Amazon S3 doit résider dans le compte AWS de l’appelant et dans la même région que le point de terminaison Face Liveness. De plus, les clés d’objet S3 sont générées par le système Face Liveness.

Il est également possible de fournir un `AuditImagesLimit`, qui est un nombre compris entre 0 et 4. Par défaut, l’attribut est défini sur 0. Le nombre d’images renvoyées est le meilleur effort possible, et il est basé sur la durée du selfie vidéo.

Enfin, vous pouvez fournir un défi ChallengePreference, y compris le type et la version du défi que vous souhaitez attribuer par défaut à votre session. Par défaut, cela sera utilisé FaceLivenessMovementAndLightChallenge mais peut être défini sur FaceMovementChallenge.

**Exemple de requête**

```
{
   "ClientRequestToken": "string",
   "KmsKeyId": "string",
   "Settings": { 
      "AuditImagesLimit": number,
      "ChallengePreferences": [ 
         { 
            "Type": "string",
            "Versions": { 
               "Maximum": "string",
               "Minimum": "string"
            }
         }
      ],
      "OutputConfig": { 
         "S3Bucket": "string",
         "S3KeyPrefix": "string"
      }
   }
}
```

**Exemple de réponse**

```
{
    {"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
}
```

## Étape 2 : StartFaceLivenessSession
<a name="face-liveness-programming-api-start-session"></a>

Lorsque l'opération CreateFaceLivenessSession d'API est terminée, le composant AWS Amplify exécute l'opération d' StartFaceLivenessSession API. L’utilisateur est invité à prendre un selfie vidéo. Pour que le contrôle soit réussi, l’utilisateur doit placer son visage dans l’ovale affiché à l’écran tout en maintenant un bon éclairage. Pour de plus amples informations, veuillez consulter [Recommandations pour l’utilisation de Face Liveness](recommendations-liveness.md). 

Cette opération d'API nécessite la vidéo capturée pendant la session Face Liveness, le SessionId obtenu à partir de CreateFaceLivenessSession l'opération d'API et un rappel. `onAnalysisComplete` Le rappel peut être utilisé pour indiquer au backend d'appeler l'opération GetFaceLivenessSessionResults API, qui renvoie un score de confiance, des images de référence et des images d'audit. 

Notez que cette étape est réalisée par le FaceLivenessDetector composant AWS Amplify sur l'application cliente. Il n’est pas nécessaire d’effectuer une configuration supplémentaire pour appeler `StartFaceLivenessSession`. 

## Étape 3 : GetFaceLivenessSessionResults
<a name="face-liveness-programming-api-get-session-results"></a>

L'opération GetFaceLivenessSessionResults API récupère les résultats d'une session Face Liveness spécifique. Cette opération nécessite le sessionId comme entrée et renvoie le score de confiance Face Liveness correspondant. Elle fournit également une image de référence qui inclut un cadre de délimitation des visages et des images d’audit contenant également des cadres de délimitation des visages. Le score de confiance de Face Liveness est compris entre 0 et 100. 

**Exemple de requête**

```
{"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
```

**Exemple de réponse**

```
{
    "SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8",
    "Confidence": 98.9735,
    "ReferenceImage": {
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "file-name",
        },
        "BoundingBox": { 
           "Height": 0.4943420886993408, 
            "Left": 0.8435328006744385, 
            "Top": 0.8435328006744385, 
            "Width": 0.9521094560623169}
    },
    "AuditImages": [{
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "audit-image-name",
        },
        "BoundingBox": { 
           "Width": 0.6399999856948853,
           "Height": 0.47999998927116394,
           "Left": 0.1644444465637207,
           "Top": 0.17666666209697723}
    }],
    "Status": "SUCCEEDED"
}
```

## Étape 4 : répondre aux résultats
<a name="face-liveness-programming-api-respond-results"></a>

Après la session Face Liveness, comparez le score de confiance du check au seuil spécifié. Si le score est supérieur au seuil, l’utilisateur peut passer à l’écran ou à la tâche suivante. Si la vérification échoue, l’utilisateur sera averti et invité à réessayer. 

# Calling the Face Liveness APIs
<a name="face-liveness-calling-apis"></a>

[Vous pouvez tester Amazon Rekognition Face Liveness avec n'importe quel SDK AWS compatible, comme [le SDK AWS Python Boto3 ou le SDK AWS for](https://docs.aws.amazon.com/pythonsdk/) Java.](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/welcome.html) Vous pouvez appeler le `CreateFaceLivenessSession` et `GetFaceLivenessSessionResults` APIs avec le SDK de votre choix. La section suivante explique comment les appeler APIs avec Python et Java SDKs.

 **Pour appeler le Face Liveness APIs** : 
+ Si vous ne l’avez pas déjà fait, créez ou mettez à jour un utilisateur avec des autorisations `AmazonRekognitionFullAccess`. Pour plus d’informations, consultez [Étape 1 : configurer un compte AWS et créer un utilisateur](https://docs.aws.amazon.com/rekognition/latest/dg/setting-up.html#setting-up-iam).
+ Si ce n'est pas déjà fait, installez et configurez l'AWS CLI et l'AWS SDKs. Pour plus d'informations, consultez [Étape 2 : Configuration de l'interface de ligne de commande AWS et d'AWS SDKs](https://docs.aws.amazon.com/rekognition/latest/dg/setup-awscli-sdk.html).

------
#### [ Python ]

L'extrait suivant montre comment vous pouvez les appeler APIs dans vos applications Python. Notez que pour exécuter cet exemple, vous devez utiliser au moins la version 1.26.110 du SDK Boto3, bien que la version la plus récente du SDK soit recommandée.

```
import boto3

session = boto3.Session(profile_name='default') 
client = session.client('rekognition')

def create_session():

    response = client.create_face_liveness_session()
    
    session_id = response.get("SessionId")
    print('SessionId: ' + session_id)

    return session_id
    
    
def get_session_results(session_id):

    response = client.get_face_liveness_session_results(SessionId=session_id)
    
    confidence = response.get("Confidence")
    status = response.get("Status")
    
    print('Confidence: ' + "{:.2f}".format(confidence) + "%")
    print('Status: ' + status)
    
    return status


def main():
    session_id = create_session()
    print('Created a Face Liveness Session with ID: ' + session_id)
    
    status = get_session_results(session_id)
    print('Status of Face Liveness Session: ' + status)
        

if __name__ == "__main__":
    main()
```

------
#### [ Java ]

L'extrait suivant montre comment vous pouvez les appeler APIs dans vos applications Java :

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Java V2 ]

L'extrait suivant montre comment appeler Face Liveness APIs avec le SDK AWS Java V2 :

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Node.Js ]

L'extrait suivant montre comment appeler Face Liveness APIs avec le AWS SDK Node.Js :

```
const Rekognition = require("aws-sdk/clients/rekognition");

const rekognitionClient = new Rekognition({ region: "us-east-1" });

async function createSession() {
    const response = await rekognitionClient.createFaceLivenessSession().promise();

    const sessionId = response.SessionId;
    console.log("SessionId:", sessionId);

    return sessionId;
}

async function getSessionResults(sessionId) {
    const response = await rekognitionClient
        .getFaceLivenessSessionResults({
            SessionId: sessionId,
        })
        .promise();

    const confidence = response.Confidence;
    const status = response.Status;
    console.log("Confidence:", confidence);
    console.log("Status:", status);

    return status;
}

async function main() {
    const sessionId = await createSession();
    console.log("Created a Face Liveness Session with ID:", sessionId);

    const status = await getSessionResults(sessionId);
    console.log("Status of Face Liveness Session:", status);
}

main();
```

------
#### [ Node.Js (Javascript SDK v3) ]

L'extrait suivant montre comment appeler Face Liveness APIs avec le SDK AWS Node.Js pour Javascript v3 :

```
import { RekognitionClient, CreateFaceLivenessSessionCommand } from "@aws-sdk/client-rekognition"; // ES Modules 
import const { RekognitionClient, CreateFaceLivenessSessionCommand } = require("@aws-sdk/client-rekognition"); // CommonJS import
const client = new RekognitionClient(config);
const input = { 
  KmsKeyId: "STRING_VALUE",
  Settings: { 
    OutputConfig: { // LivenessOutputConfig
      S3Bucket: "STRING_VALUE", // required
      S3KeyPrefix: "STRING_VALUE",
    },
    AuditImagesLimit: Number("int"),
  },
  ClientRequestToken: "STRING_VALUE",
};
const command = new CreateFaceLivenessSessionCommand(input);
const response = await client.send(command);
// { // CreateFaceLivenessSessionResponse
//   SessionId: "STRING_VALUE", // required
// };
```

------

# Configuration et personnalisation de votre application
<a name="face-liveness-configure-cutomize-amplify"></a>

## Configuration de votre application
<a name="face-liveness-configuring-amplify.title"></a>

Votre application Face Liveness peut fonctionner sur les appareils mobiles ou les navigateurs Web de bureau. Vous devez configurer les composants Face Liveness pour les intégrer à la solution que vous avez choisie. Vous devez également vous assurer que votre application est autorisée à utiliser la caméra d’un appareil. Le [guide Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness) fournit des instructions détaillées sur la procédure pour :
+  Installer et configurer AWS Amplify
+  Importer et afficher le FaceLivenessDetector composant 
+  Écouter les rappels 
+  Exemple de message d’erreur avec Render Amplify 

## Personnaliser votre application
<a name="face-liveness-customize-amplify.title"></a>

Vous pouvez personnaliser certains composants de votre application Liveness à l’aide d’[AWS Amplify](https://ui.docs.amplify.aws/react/getting-started/introduction). 

Pour plus d’informations sur la traduction, consultez la [documentation Amplify Authenticator](https://ui.docs.amplify.aws/react/connected-components/authenticator/customization#internationalization-i18n). 

Pour plus d’informations sur la personnalisation des composants et des thèmes Amplify, consultez la documentation Amplify concernant la [thématisation](https://ui.docs.amplify.aws/react/theming).

# Modèle de responsabilité partagée Face Liveness
<a name="face-liveness-shared-responsibility-model"></a>

 

La sécurité et la conformité sont une responsabilité partagée entre vous AWS et vous, le client. Pour en savoir plus sur le modèle de responsabilité AWS partagée, [cliquez ici](https://aws.amazon.com/compliance/shared-responsibility-model/).

1.  Tous les appels au AWS service (via l'application client ou le backend client) sont authentifiés et autorisés avec AWS Auth (AWS Authentication). Il est de la responsabilité des propriétaires du service Face Liveness de s’en assurer. 

1.  Tous les appels vers le backend du client (depuis l’application client) sont authentifiés et autorisés par le client. Cette responsabilité incombe au client. Le client doit s’assurer que les appels provenant de l’application client sont authentifiés et qu’ils n’ont pas été manipulés de quelque manière que ce soit. 

1.  Le backend du client doit identifier l’utilisateur final qui exécute le défi Face Liveness. Il est de la responsabilité du client d’associer un utilisateur final à une session Face Liveness. Le service Face Liveness ne fait pas de distinction entre les utilisateurs finaux. Il est uniquement capable d'identifier l' AWS identité de l'appelant (que le client gère). 

1. AWS recommande aux clients d'appliquer des contrôles de validation supplémentaires, tels que la géolocalisation géographique (par exemple sur la base de l'adresse IP), les codes One Time Pass (OTPs), etc., en plus de Face Liveness, conformément à leurs exigences en matière de cas d'utilisation et à leur niveau de sécurité.

Le réglage « FaceMovementAndLightChallenge » fournit la plus grande précision pour Rekognition Liveness en demandant aux utilisateurs de déplacer leur visage vers l'écran et de le maintenir immobile pendant une série de lumières clignotantes. Nous recommandons aux clients d'utiliser ce paramètre par défaut. Les clients peuvent également activer le réglage « FaceMovementChallenge », qui réduit le temps de vérification de plusieurs secondes en éliminant les voyants clignotants. Bien que « FaceMovementAndLightChallenge » reste le meilleur paramètre pour optimiser la précision, « FaceMovementChallenge » permet aux clients de donner la priorité à des contrôles de durée de vie plus rapides. Lors du choix entre ces paramètres, les clients doivent tenir compte des exigences de leur cas d'utilisation, notamment les types d'attaques attendus, les taux de faux acceptations et de faux rejets souhaités, et également mettre en œuvre des contrôles supplémentaires tels que la géolocalisation (par exemple basée sur l'IP), les codes One Time Pass (OTPs), etc. Les clients doivent prendre cette décision après avoir testé les performances de Liveness avec différents seuils de confiance en fonction de leur cas d'utilisation. Les clients sont tenus de mettre en œuvre des contrôles pour sécuriser l'appareil à partir duquel la vidéo est envoyée

Le schéma de flux suivant indique quels appels sont authentifiés par le service AWS ou par le client :

![\[Flux de détection de vie montrant les interactions entre l'application cliente, le composant du détecteur de vie faciale, le backend du client, le service Rekognition et le service de streaming Rekognition pour une session de reconnaissance faciale sécurisée.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/SequenceDiagramLivenessFlow-v5.png)


Tous les appels vers le service Amazon Rekognition Face Liveness sont AWS protégés par Auth (à l'aide d'un mécanisme de signature). AWS Cela comprend les appels suivants :
+  [3] Appel [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)d'API (depuis le backend du client) 
+  [7] Appel [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)d'API (depuis l'application cliente) 
+  [11] Appel [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)d'API (depuis le backend du client) 

Tous les appels vers le backend du client doivent être dotés d’un mécanisme d’authentification et d’autorisation. Les clients doivent s'assurer que le tiers code/library/etc utilisé est activement maintenu et développé. Les clients doivent également s’assurer que le bon utilisateur final passe les appels vers la bonne session Face Liveness. Les clients doivent authentifier et autoriser les flux suivants :
+  [2] Créer une session Face Liveness (depuis l’application cliente) 
+  [10] Obtenir le résultat de la session Face Liveness (depuis l’application cliente) 

Les clients peuvent suivre le modèle de sécurité [STRIDE](https://owasp.org/www-community/Threat_Modeling_Process#stride-threat-list) pour s’assurer que leurs appels d’API sont protégés.


| 
| 
| Type | Description | Contrôle de sécurité | 
| --- |--- |--- |
| Usurpation d'identité | Action de menace visant à accéder et à utiliser les informations d'identification d'un autre utilisateur, telles que le nom d'utilisateur et le mot de passe. | Authentification | 
| Falsification | Action de menace visant à modifier ou à modifier des données persistantes de manière malveillante. Les exemples incluent les enregistrements d'une base de données et la modification de données en transit entre deux ordinateurs sur un réseau ouvert, tel qu'Internet. | Intégrité | 
| Répudiation | Action de menace visant à effectuer des opérations interdites dans un système qui n'est pas en mesure de retracer les opérations. | Non-répudiation | 
| Divulgation d'informations | Action de menace visant à lire un fichier auquel l'accès n'a pas été autorisé ou à lire des données en transit. | Confidentialité | 
| Déni de service | Action menaçante visant à refuser l'accès à des utilisateurs valides, par exemple en rendant un serveur Web temporairement indisponible ou inutilisable. | Disponibilité | 
| Élévation de privilèges | Action contre les menaces visant à obtenir un accès privilégié aux ressources afin d'obtenir un accès non autorisé à des informations ou de compromettre un système. | Autorisation | 

AWS sécurise ses connexions de la manière suivante :

1.  Calcul de la signature de la demande, puis vérification de la signature côté service. Les demandes sont ***authentifiées*** à l’aide de cette signature. 

1.  AWS les clients sont tenus de configurer les rôles IAM appropriés pour ***autoriser*** certaines actions/opérations. Ces rôles IAM sont nécessaires pour effectuer des appels vers le Service AWS. 

1.  Seules les requêtes HTTPS adressées au AWS service sont autorisées. Les demandes sont cryptées dans le réseau ouvert à l’aide du protocole TLS. Cela protège la * **confidentialité** * des demandes et préserve * **l’intégrité** * des demandes. 

1. AWS le service enregistre suffisamment de données pour identifier les appels passés par les clients. Cela empêche les attaques de ***répudiation***.

1.  AWS le service est responsable du maintien d'une ***disponibilité*** suffisante 

Le client est responsable de la sécurisation de ses appels de service et d’API de la manière suivante :

1.  Le client doit s’assurer qu’il suit un mécanisme d’authentification approprié. Il existe différents mécanismes d’authentification qui peuvent être utilisés pour authentifier une demande. Les clients peuvent explorer [l'authentification basée sur un condensé [ OAuth ](https://oauth.net/)](https://en.wikipedia.org/wiki/Digest_access_authentication), la [connexion OpenID](https://openid.net/connect/) et d'autres mécanismes. 

1.  Les clients doivent s’assurer que leur service prend en charge les canaux de chiffrement appropriés (tels que TLS/HTTPS) pour effectuer des appels d’API de service. 

1.  Les clients doivent s’assurer qu’ils enregistrent les données nécessaires pour identifier de manière unique un appel d’API et l’appelant. Ils doivent être en mesure d’identifier le client qui appelle leur API à l’aide de paramètres définis et de l’heure des appels. 

1.  Les clients doivent s'assurer que leur système est disponible et qu'ils sont protégés contre les [attaques DDo S.](https://en.wikipedia.org/wiki/Denial-of-service_attack) Voici quelques exemples de [techniques de défense](https://en.wikipedia.org/wiki/Denial-of-service_attack#Defense_techniques) contre DDo les attaques S.

Les clients sont responsables de la conservation de leurs applications up-to-date. Pour de plus amples informations, veuillez consulter [Mise à jour des directives de Face Liveness](face-liveness-update-guidelines.md).

# Mise à jour des directives de Face Liveness
<a name="face-liveness-update-guidelines"></a>

 AWS met régulièrement à jour Face Liveness AWS SDKs (utilisé dans le backend client) et les FaceLivenessDetector composants d' AWS Amplify SDKs (utilisés dans les applications clientes) pour fournir de nouvelles fonctionnalités, des mises à jour et une sécurité améliorée APIs, des corrections de bogues, des améliorations de convivialité, etc. Nous vous recommandons de les conserver SDKs up-to-date pour garantir un fonctionnement optimal de la fonctionnalité. Si vous continuez à utiliser les anciennes versions de SDKs, les demandes peuvent être bloquées pour des raisons de maintenance et de sécurité. 

Face Liveness nécessite que vous utilisiez le FaceLivenessDetector composant inclus dans AWS SDKs Amplify (React, iOS, Android). 

## Gestion des versions et délais
<a name="face-liveness-update-guidelines-versioning"></a>

Nous gérons les versions des composants clés suivants de la fonctionnalité Face Liveness. Nous suivons un format de gestion des versions sémantique. Par exemple, un format de version X.Y.Z où X représente la version majeure, Y représente la version mineure et Z représente la version de correctif. 
+ Les défis des utilisateurs de Face Liveness (par exemple, FaceMovementAndLightChallenge défi) font partie de l'API StartFaceLivenessSession 
+ FaceLivenessDetector les composants fournis via AWS Amplify SDKs sont utilisés dans les applications clientes

Versions *majeures* : nous réservons les mises à jour majeures pour des raisons de sécurité critiques, d’API défaillantes et de mises à jour exceptionnelles en termes d’utilisabilité. Les applications et le backend client doivent être mis à jour dès que possible pour que vous puissiez continuer à utiliser les fonctionnalités de Face Liveness. Une fois que nous avons publié une nouvelle version majeure, nous prenons en charge la version majeure précédente pendant 120 jours à compter de la date de publication de la nouvelle version. Nous pouvons bloquer les demandes provenant de la version majeure précédente après 120 jours. 

Versions *mineures* : nous réservons les mises à jour mineures pour des fonctionnalités et améliorations importantes en matière de sécurité et d’utilisabilité. Nous vous recommandons vivement d’appliquer ces mises à jour. Bien que nous nous efforcions de garantir la rétrocompatibilité des mises à jour mineures le plus longtemps possible, nous pouvons annoncer end-of-support une version mineure précédente 180 jours après la sortie d'une nouvelle version mineure. 

Versions de *correctif* : nous réservons les mises à jour des versions de correctif pour les corrections de bogues et les améliorations facultatives. Bien que nous vous recommandions de conserver votre version up-to-date pour une sécurité et une expérience utilisateur optimales, nous nous efforçons de garantir que les mises à jour soient totalement rétrocompatibles jusqu'à ce que nous publiions une nouvelle version majeure ou mineure. 

La période de gestion des versions (120 jours pour les versions majeures et 180 jours pour les versions mineures) s’applique à la mise à jour du SDK dans votre application, au téléchargement de votre application sur l’App Store ou le site Web, et au téléchargement de la dernière version de l’application par les utilisateurs.

## Version, publication et matrice de compatibilité
<a name="face-liveness-update-guidelines-compatibility"></a>

La sortie d'une version majeure pour un FaceLivenessDetector composant ou un défi utilisateur coïncide souvent. Pour vous aider à suivre les dépendances entre les versions, consultez les ressources liées dans les tableaux suivants.

**Versions de SDK et journaux des modifications :**


|  |  |  | 
| --- |--- |--- |
| FaceLivenessDetector pour le SDK Web | FaceLivenessDetector pour iOS SDK | FaceLivenessDetector pour Android SDK | 
| [Version actuelle](https://www.npmjs.com/package/@aws-amplify/ui-react-liveness) | [Journal des modifications](https://github.com/aws-amplify/amplify-ui/blob/main/packages/react-liveness/CHANGELOG.md) | [Version actuelle/ChangeLog](https://github.com/aws-amplify/amplify-ui-swift-liveness/releases) | [Version actuelle/ChangeLog](https://github.com/aws-amplify/amplify-ui-android/releases) | 

 **Défis pour les utilisateurs :** 


|  |  |  |  | 
| --- |--- |--- |--- |
| Nom du défi | Version | Date de publication | Date de retraite | 
| FaceMovementAndLightChallenge | v1.0.0 | 10/04/2023 | N/A | 
| FaceMovementChallenge | v1.0.0 | 30/04/2025 | N/A | 

## Communication des nouveautés
<a name="face-liveness-update-guidelines-communication"></a>

 AWS communique les nouvelles versions par les canaux suivants : 
+ Notifications électroniques de mise à jour de l’état du service envoyées à l’adresse e-mail associée à l’identifiant de compte Face Liveness.
+ Mises à jour publiées AWS SDKs et notifications associées sur les GitHub dépôts respectifs.
+ Mises à jour publiées pour AWS Amplify SDKs et notifications associées sur les dépôts respectifs. GitHub 

Nous vous recommandons de vous abonner à ces chaînes pour rester up-to-date.

# Face Liveness FAQ
<a name="face-liveness-faq"></a>

Utilisez les rubriques suivantes de la FAQ pour trouver des réponses aux questions fréquemment posées sur Rekognition Face Liveness.
+ **Quels sont les résultats d’un contrôle de la vivacité faciale ?**

  

  Rekognition Face Liveness fournit les résultats suivants pour chaque contrôle de de la vivacité faciale :
  + Score de confiance : un score numérique compris entre 0 et 100 est renvoyé. Ce score indique la probabilité que la vidéo du selfie provienne d’une personne réelle et non d’un mauvais acteur utilisant une parodie. 
  + Image de haute qualité : une seule image de haute qualité est extraite de la vidéo du selfie. Ce cadre peut être utilisé à diverses fins, telles que la comparaison des visages, l’estimation de l’âge ou la recherche de visages.
  + Images d’audit : jusqu’à quatre images sont renvoyées par la vidéo selfie, qui peuvent être utilisées à des fins de piste d’audit. 
+ **Est-ce que Rekognition Face Liveness est compatible avec les tests iBeta Presentation Attack Detection (PAD) ?**

  

  Les tests de détection des attaques de présentation (PAD) d'iBeta Quality Assurance sont effectués conformément à la norme ISO/IEC 30107-3. iBeta est accréditée par le NIST/NVLAP pour tester et fournir des résultats conformément à cette norme PAD. Rekognition Face Liveness a réussi les tests de conformité iBeta Presentation Attack Detection (PAD) de niveaux 1 et 2 avec un score PAD parfait. Le rapport peut être consulté sur la page Web d’iBeta [ici.](https://www.ibeta.com/wp-content/uploads/2023/10/231019-Amazon-Rekognition-PAD-Level-2-Confirmation-Letter.pdf) 
+ **Comment puis-je obtenir un cadre de haute qualité et des cadres supplémentaires ?**

  

  Le cadre de haute qualité et les cadres supplémentaires peuvent être renvoyés sous forme d'octets bruts ou chargés dans un compartiment Amazon S3 que vous spécifiez, en fonction des configurations de votre demande d'[CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)API.
+ **Puis-je modifier l’emplacement des lumières ovales et colorées ?**

  

  Non. L'emplacement ovale et les lumières colorées sont des caractéristiques qui permettent une plus grande précision et ne peuvent donc pas être personnalisées.
+ **Puis-je personnaliser l’interface utilisateur selon mon application ?**

  

  Oui, vous pouvez personnaliser la plupart des composants de l’écran tels que le thème, la couleur, la langue, le contenu du texte et la police pour les aligner sur votre application. Vous trouverez des informations détaillées sur la personnalisation de ces composants dans la documentation de nos composants d’interface utilisateur [React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift](https://ui.docs.amplify.aws/swift/connected-components/liveness) et [Android](https://ui.docs.amplify.aws/android/connected-components/liveness).
+ **Puis-je personnaliser le temps et l’heure du compte à rebours pour qu’il s’adapte à un visage ovale ?**

  

  Non, le compte à rebours et le temps d'ajustement du visage ont été prédéterminés sur la base d'études internes à grande échelle menées auprès de milliers d'utilisateurs, dans le but de trouver un équilibre optimal entre une précision et une latence accrues. Pour cette raison, ces paramètres horaires ne peuvent pas être personnalisés.
+ **Les lumières de différentes couleurs répondent-elles aux directives d’accessibilité ?**

  

  Oui, les différentes couleurs de lumière de notre produit sont conformes aux directives d’accessibilité décrites dans les WCAG 2.1. Comme l’ont vérifié plus de 1 000 utilisateurs, l’expérience utilisateur affiche environ deux couleurs par seconde, ce qui est conforme à la recommandation de limiter les couleurs à trois par seconde. Cela réduit le risque de déclencher des crises d’épilepsie dans la majorité de la population.
+ **Le SDK ajuste-t-il la luminosité de l’écran pour des résultats optimaux ?**

  

  Le mobile Face Liveness SDKs (pour Android et iOS) règle automatiquement la luminosité lorsque le contrôle est lancé. Cependant, pour le SDK Web, certaines restrictions relatives aux pages Web empêchent le réglage automatique de la luminosité. Dans de tels cas, nous nous attendons à ce que l’application Web demande aux utilisateurs finaux d’augmenter manuellement la luminosité de l’écran pour des résultats optimaux.
+ **Faut-il que ce soit un ovale ? Pourrions-nous utiliser d’autres formes similaires ?**

  

  Non, la taille, la forme et l’emplacement de l’ovale ne sont pas personnalisables. Le design ovale spécifique a été soigneusement choisi pour son efficacité à capturer et à analyser avec précision les mouvements du visage. Par conséquent, la forme ovale ne peut pas être modifiée.
+ **Qu'est-ce que la end-to-end latence ?**

  

  Nous mesurons le temps de end-to-end latence entre le moment où l'utilisateur lance l'action requise pour terminer le test de réactivité et le moment où il obtient le résultat (réussite ou échec). Dans le meilleur des cas, la latence est de 5 s. En moyenne, nous nous attendons à ce qu’elle soit d’environ 7 secondes. Dans le pire des cas, la latence est de 11 s. Nous constatons une variation de la end-to-end latence car elle dépend du temps pendant lequel l'utilisateur doit effectuer l'action requise (c'est-à-dire déplacer son visage dans l'ovale), de la connectivité réseau, de la latence de l'application, etc.
+ **Puis-je utiliser la fonction Face Liveness sans le SDK Amplify ?**

  

  Non, le SDK Amplify est nécessaire pour utiliser la fonctionnalité Rekognition Face Liveness.
+ **Où puis-je trouver les états d’erreur associés à Face Liveness ?**

  

  Vous pouvez voir [ici](https://ui.docs.amplify.aws/react/connected-components/liveness#error-states) les différents états d’erreur de Face Liveness.
+ **Face Liveness n’est pas disponible dans ma région. Comment puis-je utiliser cette fonctionnalité ?**

  

  Vous pouvez choisir d’appeler Face Liveness dans toutes les régions où il est disponible, en fonction de votre trafic et de votre proximité. Face Liveness est actuellement disponible dans les AWS régions suivantes : 
  + USA Est (Virginie du Nord)
  + USA Ouest (Oregon)
  + Europe (Irlande)
  + Asie-Pacifique (Tokyo, Mumbai)

  Même si votre AWS compte est situé dans une autre région, la différence de latence ne devrait pas être significative. Vous pouvez obtenir des images de selfie et d'audit de haute qualité via Amazon S3 Location ou sous forme d'octets bruts, mais votre compartiment Amazon S3 doit correspondre à la AWS région de Face Liveness. Si elles sont différentes, vous devez recevoir les images sous forme d’octets bruts.
+ **Amazon Rekognition Liveness Detection utilise-t-il le contenu des clients pour améliorer le service ?**

  

  Vous pouvez refuser que vos images et vidéos soient utilisées pour améliorer ou développer la qualité de Rekognition et d’autres technologies d’apprentissage automatique et d’intelligence artificielle d’Amazon en utilisant une politique de désinscription des Organisations AWS . Pour plus d’informations sur la procédure de désinscription, consultez la [politique de désinscription de Managing AI Services](https://docs.aws.amazon.com//organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html).