

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Hinzufügen von Gesichtern zu einer Sammlung
<a name="add-faces-to-collection-procedure"></a>

Sie können die Operation [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) verwenden, um Gesichter in einem Bild zu erkennen und um sie einer Sammlung hinzuzufügen. Für jedes erkannte Gesicht extrahiert Amazon Rekognition die Gesichtszüge und speichert die Gesichtsmerkmalinformationen in einer Datenbank. Zusätzlich speichert der Befehl Metadaten für jedes erkannte Gesicht in einer festgelegten Gesichtersammlung. Amazon Rekognition speichert nicht die tatsächlichen Bildbytes.

Weitere Informationen zur Bereitstellung geeigneter Gesichter für die Indizierung finden Sie unter [Empfehlungen zu Eingabebildern für den Gesichtsvergleich](recommendations-facial-input-images.md).

Für jedes Gesicht erhält die `IndexFaces`-Operation die folgenden Informationen:
+ **Multidimensionale Gesichtszüge** – `IndexFaces`Durch eine Gesichtsanalyse werden multidimensionale Informationen über die Gesichtsmerkmale extrahiert und in der Gesichtersammlung gespeichert. Sie haben keinen direkten Zugriff auf diese Informationen. Allerdings nutzt Amazon Rekognition diese Informationen bei der Prüfung einer Gesichtersammlung auf Übereinstimmungen.

   
+ **Metadaten** — Zu den Metadaten für jedes Gesicht gehören ein Begrenzungsrahmen, ein Konfidenzniveau (dass das Begrenzungsfeld ein Gesicht enthält), das von Amazon Rekognition IDs zugewiesen wurde (Gesichts-ID und Bild-ID), und eine externe Bild-ID (falls Sie sie angegeben haben) in der Anfrage. Diese Informationen werden als Antwort auf den `IndexFaces`-API-Aufruf zurückgegeben. Ein Beispiel sehen Sie im `face`-Element in der nächsten Beispielantwort.

  Der Dienst gibt diese Metadaten als Antwort auf die folgenden API-Aufrufe zurück:

   
  +  `[ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html)` 
  + Gesichtssuche-Operationen – Die Antworten für die Funktionen [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) und [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) liefern den Zuverlässigkeitswert für jede Gesichtsübereinstimmung sowie die Metadaten des übereinstimmenden Gesichts.

Die Anzahl der mit `IndexFaces` indizierten Gesichter hängt von der Version des Geischtserkennungsmodells ab, die der Eingabesammlung zugeordnet ist. Weitere Informationen finden Sie unter [Grundlegendes zur Modellversionierung](face-detection-model.md). 

Informationen über indizierte Gesichter werden in einem Array von [FaceRecord](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_FaceRecord.html) Objekten zurückgegeben.

Sie können indizierte Gesichter mit dem Bild verknüpfen, in dem sie erkannt wurden. Beispielsweise können Sie einen kundenseitigen Index von Bildern und Gesichtern in den Bildern pflegen. Um Gesichter mit einem Bild zu verknüpfen, geben Sie eine Bild-ID als Abfrageparameter `ExternalImageId` an. Die Bild-ID kann der Dateiname oder eine andere ID sein, die Sie erstellen.

Zusätzlich zu den vorangegangenen Informationen, die die API in der Gesichtersammlung erhält, gibt die API auch Einzelheiten zum Gesicht zurück, die nicht in der Sammlung behalten werden. (Sehen Sie sich das `faceDetail`-Element in der folgenden Beispielantwort an). 

**Anmerkung**  
`DetectFaces` gibt die gleiche Information zurück. Sie müssen daher nicht jeweils einen Aufruf mit `DetectFaces` und `IndexFaces` für das gleiche Bild durchführen. 

## Filtern von Gesichtern
<a name="index-faces-filtering"></a>

Mit diesem IndexFaces Vorgang können Sie die Gesichter filtern, die anhand eines Bildes indexiert wurden. Mit `IndexFaces` können Sie eine maximale Anzahl an Gesichtern zum Indizieren angeben, oder Sie können wählen, ob nur Gesichter indiziert werden sollen, bei denen eine hohe Qualität erkannt wurde. 

Sie können die maximale Anzahl an Gesichtern angeben, die von `IndexFaces` indiziert werden, indem Sie den Eingabeparameter `MaxFaces` verwenden. Dies ist nützlich, wenn Sie möchten, dass nur die größten Gesichter in einem Bild indiziert werden sollen, aber keine kleineren Gesichter, z. B. solche von Personen, die im Hintergrund stehen.

Standardmäßig wählt `IndexFaces` eine Qualitätsleiste zum Filtern von Gesichtern aus. Mit dem `QualityFilter`-Eingabeparameter können Sie die Qualitätsleiste explizit festzulegen. Die Werte lauten:
+ `AUTO` – Amazon Rekognition wählt die Qualitätsleiste aus, die zum Filtern von Gesichtern verwendet wird (Standardwert).
+ `LOW` – Alle Gesichter mit Ausnahme derjenigen mit niedrigster Qualität werden indiziert.
+ `MEDIUM`
+ `HIGH` – Es werden nur Gesichter von höchster Qualität indiziert.
+ `NONE` – Es werden keine Gesichter aufgrund der Qualität gefiltert.

`IndexFaces` filtert Gesichter aus folgenden Gründen:
+ Das Gesicht ist im Verhältnis zu den Bildmaßen zu klein.
+ Das Gesicht ist zu unscharf.
+ Das Bild ist zu dunkel.
+ Das Gesicht hat eine extreme Pose.
+ Das Gesicht aufgrund zu weniger Details nicht für die Gesichtssuche geeignet.

**Anmerkung**  
Zur Verwendung der Filterung nach Qualität ist eine mit mindestens Version 3 des Gesichtsmodells verknüpfte Sammlung erforderlich. Um die Version des Gesichtsmodells anzuzeigen, die mit einer Sammlung verknüpft ist, rufen Sie [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) auf. 

Informationen über Gesichter, die nicht von `IndexFaces` indiziert sind, werden in einem Array von [UnindexedFace](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_UnindexedFace.html) Objekten zurückgegeben. Das Array `Reasons` enthält eine Liste von Gründen, warum ein Gesicht nicht indiziert ist. Beispielsweise bezeichnet der Wert `EXCEEDS_MAX_FACES` ein Gesicht, das nicht indiziert ist, weil die Anzahl der durch `MaxFaces` angegebenen Gesichter bereits erkannt worden ist. 

Weitere Informationen finden Sie unter [Verwalten von Gesichtern in einer Sammlung](managing-face-collections.md#collections-index-faces). 



**Hinzufügen von Gesichtern zu einer Sammlung (SDK)**

1. Wenn Sie dies noch nicht getan haben:

   1. Erstellen oder aktualisieren Sie einen Benutzer mit `AmazonRekognitionFullAccess`- und `AmazonS3ReadOnlyAccess`-Berechtigungen. Weitere Informationen finden Sie unter [Schritt 1: Einrichten eines AWS-Kontos und Erstellen eines Benutzers](setting-up.md#setting-up-iam).

   1. Installieren und konfigurieren Sie das AWS CLI und das AWS SDKs. Weitere Informationen finden Sie unter [Schritt 2: Richten Sie das AWS CLI und ein AWS SDKs](setup-awscli-sdk.md).

1. Laden Sie ein Bild (mit einem oder mehreren Gesichtern) auf Ihren Amazon-S3-Bucket hoch. 

   Weitere Anleitungen finden Sie unter [Upload eines Objekts in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UploadingObjectsintoAmazonS3.html) im *Benutzerhandbuch für Amazon Simple Storage Service*.

1. Verwenden Sie die folgenden Beispiele zum Aufrufen der `IndexFaces`-Operation.

------
#### [ Java ]

   Dieses Beispiel zeigt die Identifikatoren für Gesichter an, die zur Sammlung hinzugefügt wurden.

   Ändern Sie den Wert von `collectionId` in den Namen der Sammlung, die Sie einem Gesicht hinzufügen möchten. Ersetzen Sie die Werte von `bucket` und `photo` durch die Namen des Amazon-S3-Buckets und des Bilds, das Sie in Schritt 2 verwendet haben. Der Parameter `.withMaxFaces(1)` beschränkt die Anzahl der indizierten Gesichter auf 1. Entfernen oder ändern Sie diesen Werten entsprechend Ihren Anforderungen.

   ```
   //Copyright 2018 Amazon.com, Inc. or its affiliates. All Rights Reserved.
   //PDX-License-Identifier: MIT-0 (For details, see https://github.com/awsdocs/amazon-rekognition-developer-guide/blob/master/LICENSE-SAMPLECODE.)
   
   package aws.example.rekognition.image;
   
   import com.amazonaws.services.rekognition.AmazonRekognition;
   import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
   import com.amazonaws.services.rekognition.model.FaceRecord;
   import com.amazonaws.services.rekognition.model.Image;
   import com.amazonaws.services.rekognition.model.IndexFacesRequest;
   import com.amazonaws.services.rekognition.model.IndexFacesResult;
   import com.amazonaws.services.rekognition.model.QualityFilter;
   import com.amazonaws.services.rekognition.model.S3Object;
   import com.amazonaws.services.rekognition.model.UnindexedFace;
   import java.util.List;
   
   public class AddFacesToCollection {
       public static final String collectionId = "MyCollection";
       public static final String bucket = "bucket";
       public static final String photo = "input.jpg";
   
       public static void main(String[] args) throws Exception {
   
           AmazonRekognition rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
   
           Image image = new Image()
                   .withS3Object(new S3Object()
                   .withBucket(bucket)
                   .withName(photo));
           
           IndexFacesRequest indexFacesRequest = new IndexFacesRequest()
                   .withImage(image)
                   .withQualityFilter(QualityFilter.AUTO)
                   .withMaxFaces(1)
                   .withCollectionId(collectionId)
                   .withExternalImageId(photo)
                   .withDetectionAttributes("DEFAULT");
   
           IndexFacesResult indexFacesResult = rekognitionClient.indexFaces(indexFacesRequest);
           
           System.out.println("Results for " + photo);
           System.out.println("Faces indexed:");
           List<FaceRecord> faceRecords = indexFacesResult.getFaceRecords();
           for (FaceRecord faceRecord : faceRecords) {
               System.out.println("  Face ID: " + faceRecord.getFace().getFaceId());
               System.out.println("  Location:" + faceRecord.getFaceDetail().getBoundingBox().toString());
           }
           
           List<UnindexedFace> unindexedFaces = indexFacesResult.getUnindexedFaces();
           System.out.println("Faces not indexed:");
           for (UnindexedFace unindexedFace : unindexedFaces) {
               System.out.println("  Location:" + unindexedFace.getFaceDetail().getBoundingBox().toString());
               System.out.println("  Reasons:");
               for (String reason : unindexedFace.getReasons()) {
                   System.out.println("   " + reason);
               }
           }
       }
   }
   ```

------
#### [ Java V2 ]

   Dieser Code stammt aus dem AWS Documentation SDK Examples GitHub Repository. Das vollständige Beispiel finden Sie [hier](https://github.com/awsdocs/aws-doc-sdk-examples/blob/master/javav2/example_code/rekognition/src/main/java/com/example/rekognition/AddFacesToCollection.java).

   ```
   //snippet-start:[rekognition.java2.add_faces_collection.import]
   import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider;
   import software.amazon.awssdk.core.SdkBytes;
   import software.amazon.awssdk.regions.Region;
   import software.amazon.awssdk.services.rekognition.RekognitionClient;
   import software.amazon.awssdk.services.rekognition.model.IndexFacesResponse;
   import software.amazon.awssdk.services.rekognition.model.IndexFacesRequest;
   import software.amazon.awssdk.services.rekognition.model.Image;
   import software.amazon.awssdk.services.rekognition.model.QualityFilter;
   import software.amazon.awssdk.services.rekognition.model.Attribute;
   import software.amazon.awssdk.services.rekognition.model.FaceRecord;
   import software.amazon.awssdk.services.rekognition.model.UnindexedFace;
   import software.amazon.awssdk.services.rekognition.model.RekognitionException;
   import software.amazon.awssdk.services.rekognition.model.Reason;
   import java.io.FileInputStream;
   import java.io.FileNotFoundException;
   import java.io.InputStream;
   import java.util.List;
   //snippet-end:[rekognition.java2.add_faces_collection.import]
   
   /**
   * Before running this Java V2 code example, set up your development environment, including your credentials.
   *
   * For more information, see the following documentation topic:
   *
   * https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/get-started.html
   */
   public class AddFacesToCollection {
   
    public static void main(String[] args) {
   
        final String usage = "\n" +
            "Usage: " +
            "    <collectionId> <sourceImage>\n\n" +
            "Where:\n" +
            "    collectionName - The name of the collection.\n" +
            "    sourceImage - The path to the image (for example, C:\\AWS\\pic1.png). \n\n";
   
        if (args.length != 2) {
            System.out.println(usage);
            System.exit(1);
        }
   
        String collectionId = args[0];
        String sourceImage = args[1];
        Region region = Region.US_EAST_1;
        RekognitionClient rekClient = RekognitionClient.builder()
            .region(region)
            .credentialsProvider(ProfileCredentialsProvider.create("profile-name"))
            .build();
   
        addToCollection(rekClient, collectionId, sourceImage);
        rekClient.close();
    }
   
    // snippet-start:[rekognition.java2.add_faces_collection.main]
    public static void addToCollection(RekognitionClient rekClient, String collectionId, String sourceImage) {
   
        try {
            InputStream sourceStream = new FileInputStream(sourceImage);
            SdkBytes sourceBytes = SdkBytes.fromInputStream(sourceStream);
            Image souImage = Image.builder()
                .bytes(sourceBytes)
                .build();
   
            IndexFacesRequest facesRequest = IndexFacesRequest.builder()
                .collectionId(collectionId)
                .image(souImage)
                .maxFaces(1)
                .qualityFilter(QualityFilter.AUTO)
                .detectionAttributes(Attribute.DEFAULT)
                .build();
   
            IndexFacesResponse facesResponse = rekClient.indexFaces(facesRequest);
            System.out.println("Results for the image");
            System.out.println("\n Faces indexed:");
            List<FaceRecord> faceRecords = facesResponse.faceRecords();
            for (FaceRecord faceRecord : faceRecords) {
                System.out.println("  Face ID: " + faceRecord.face().faceId());
                System.out.println("  Location:" + faceRecord.faceDetail().boundingBox().toString());
            }
   
            List<UnindexedFace> unindexedFaces = facesResponse.unindexedFaces();
            System.out.println("Faces not indexed:");
            for (UnindexedFace unindexedFace : unindexedFaces) {
                System.out.println("  Location:" + unindexedFace.faceDetail().boundingBox().toString());
                System.out.println("  Reasons:");
                for (Reason reason : unindexedFace.reasons()) {
                    System.out.println("Reason:  " + reason);
                }
            }
   
        } catch (RekognitionException | FileNotFoundException e) {
            System.out.println(e.getMessage());
            System.exit(1);
        }
    }
    // snippet-end:[rekognition.java2.add_faces_collection.main]
   }
   ```

------
#### [ AWS CLI ]

   Dieser AWS CLI Befehl zeigt die JSON-Ausgabe für den `index-faces` CLI-Vorgang an. 

   Ersetzen Sie den Wert von `collection-id` durch den Namen der Sammlung, in der das Gesicht gespeichert werden soll. Ersetzen Sie die Werte von `Bucket` und `Name` durch den Amazon-S3-Bucket und dem Bilddateinamen, die Sie in Schritt 2 verwendet haben. Der Parameter `max-faces` beschränkt die Anzahl der indizierten Gesichter auf 1. Entfernen oder ändern Sie diesen Werten entsprechend Ihren Anforderungen. Ersetzen Sie den Wert von `profile_name` in der Zeile, die die Rekognition-Sitzung erstellt, durch den Namen Ihres Entwicklerprofils.

   ```
   aws rekognition index-faces --image '{"S3Object":{"Bucket":"bucket-name","Name":"file-name"}}' --collection-id "collection-id" \
                                   --max-faces 1 --quality-filter "AUTO" --detection-attributes "ALL" \ 
                                   --external-image-id "example-image.jpg" --profile profile-name
   ```

    Wenn Sie auf einem Windows-Gerät auf die CLI zugreifen, verwenden Sie doppelte Anführungszeichen anstelle von einfachen Anführungszeichen und maskieren Sie die inneren doppelten Anführungszeichen durch einen Backslash (d. h. \$1), um eventuell auftretende Parserfehler zu beheben. Sehen Sie sich zum Beispiel Folgendes an: 

   ```
   aws rekognition index-faces --image "{\"S3Object\":{\"Bucket\":\"bucket-name\",\"Name\":\"image-name\"}}" \
   --collection-id "collection-id" --max-faces 1 --quality-filter "AUTO" --detection-attributes "ALL" \ 
   --external-image-id "example-image.jpg" --profile profile-name
   ```

------
#### [ Python ]

   Dieses Beispiel zeigt die Identifikatoren für Gesichter an, die zur Sammlung hinzugefügt wurden.

   Ändern Sie den Wert von `collectionId` in den Namen der Sammlung, die Sie einem Gesicht hinzufügen möchten. Ersetzen Sie die Werte von `bucket` und `photo` durch die Namen des Amazon-S3-Buckets und des Bilds, das Sie in Schritt 2 verwendet haben. Der Eingabeparameter `MaxFaces` beschränkt die Anzahl der indizierten Gesichter auf 1. Entfernen oder ändern Sie diesen Werten entsprechend Ihren Anforderungen. Ersetzen Sie den Wert von `profile_name` in der Zeile, die die Rekognition-Sitzung erstellt, durch den Namen Ihres Entwicklerprofils. 

   ```
   # Copyright 2018 Amazon.com, Inc. or its affiliates. All Rights Reserved.
   # PDX-License-Identifier: MIT-0 (For details, see https://github.com/awsdocs/amazon-rekognition-developer-guide/blob/master/LICENSE-SAMPLECODE.)
   
   import boto3
   
   def add_faces_to_collection(bucket, photo, collection_id):
   
       session = boto3.Session(profile_name='profile-name')
       client = session.client('rekognition')
   
       response = client.index_faces(CollectionId=collection_id,
                                     Image={'S3Object': {'Bucket': bucket, 'Name': photo}},
                                     ExternalImageId=photo,
                                     MaxFaces=1,
                                     QualityFilter="AUTO",
                                     DetectionAttributes=['ALL'])
   
       print('Results for ' + photo)
       print('Faces indexed:')
       for faceRecord in response['FaceRecords']:
           print('  Face ID: ' + faceRecord['Face']['FaceId'])
           print('  Location: {}'.format(faceRecord['Face']['BoundingBox']))
   
       print('Faces not indexed:')
       for unindexedFace in response['UnindexedFaces']:
           print(' Location: {}'.format(unindexedFace['FaceDetail']['BoundingBox']))
           print(' Reasons:')
           for reason in unindexedFace['Reasons']:
               print('   ' + reason)
       return len(response['FaceRecords'])
   
   def main():
       bucket = 'amzn-s3-demo-bucket'
       collection_id = 'collection-id'
       photo = 'photo-name'
   
       indexed_faces_count = add_faces_to_collection(bucket, photo, collection_id)
       print("Faces indexed count: " + str(indexed_faces_count))
   
   if __name__ == "__main__":
       main()
   ```

------
#### [ .NET ]

   Dieses Beispiel zeigt die Identifikatoren für Gesichter an, die zur Sammlung hinzugefügt wurden.

   Ändern Sie den Wert von `collectionId` in den Namen der Sammlung, die Sie einem Gesicht hinzufügen möchten. Ersetzen Sie die Werte von `bucket` und `photo` durch die Namen des Amazon-S3-Buckets und des Bilds, das Sie in Schritt 2 verwendet haben. 

   ```
   //Copyright 2018 Amazon.com, Inc. or its affiliates. All Rights Reserved.
   //PDX-License-Identifier: MIT-0 (For details, see https://github.com/awsdocs/amazon-rekognition-developer-guide/blob/master/LICENSE-SAMPLECODE.)
   
   using System;
   using System.Collections.Generic;
   using Amazon.Rekognition;
   using Amazon.Rekognition.Model;
   
   public class AddFaces
   {
       public static void Example()
       {
           String collectionId = "MyCollection";
           String bucket = "amzn-s3-demo-bucket";
           String photo = "input.jpg";
   
           AmazonRekognitionClient rekognitionClient = new AmazonRekognitionClient();
   
           Image image = new Image()
           {
               S3Object = new S3Object()
               {
                   Bucket = bucket,
                   Name = photo
               }
           };
   
           IndexFacesRequest indexFacesRequest = new IndexFacesRequest()
           {
               Image = image,
               CollectionId = collectionId,
               ExternalImageId = photo,
               DetectionAttributes = new List<String>(){ "ALL" }
           };
   
           IndexFacesResponse indexFacesResponse = rekognitionClient.IndexFaces(indexFacesRequest);
   
           Console.WriteLine(photo + " added");
           foreach (FaceRecord faceRecord in indexFacesResponse.FaceRecords)
               Console.WriteLine("Face detected: Faceid is " +
                  faceRecord.Face.FaceId);
       }
   }
   ```

------

## IndexFaces Operationsanforderung
<a name="indexfaces-request"></a>

Bei der Eingabe in `IndexFaces` handelt es sich um das Image, das indiziert werden soll, und die Sammlung, der das Gesicht oder die Gesichter hinzugefügt werden sollen. 

```
{
    "CollectionId": "MyCollection",
    "Image": {
        "S3Object": {
            "Bucket": "bucket",
            "Name": "input.jpg"
        }
    },
    "ExternalImageId": "input.jpg",
    "DetectionAttributes": [
        "DEFAULT"
    ],
    "MaxFaces": 1,
    "QualityFilter": "AUTO"
}
```

## IndexFaces Antwort auf die Operation
<a name="indexfaces-operation-response"></a>

`IndexFaces` gibt Informationen über die Gesichter zurück, die im Bild erkannt wurden. Beispiel: Die folgende JSON-Antwort enthält die Standard-Erkennungsattribute für Gesichter, die im eingegebenen Bild erkannt wurden. Das Beispiel zeigt auch nicht indizierte Gesichter, weil der Wert des `MaxFaces`-Eingabeparameters überschritten wurde das `Reasons`-Array enthält *EXCEEDS\$1MAX\$1FACES*. Wenn ein Gesicht aus Qualitätsgründen nicht indiziert ist, enthält `Reasons` Werte wie z. B. *LOW\$1SHARPNESS* oder *LOW\$1BRIGHTNESS*. Weitere Informationen finden Sie unter [UnindexedFace](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_UnindexedFace.html).

```
{
    "FaceModelVersion": "3.0",
    "FaceRecords": [
        {
            "Face": {
                "BoundingBox": {
                    "Height": 0.3247932195663452,
                    "Left": 0.5055555701255798,
                    "Top": 0.2743072211742401,
                    "Width": 0.21444444358348846
                },
                "Confidence": 99.99998474121094,
                "ExternalImageId": "input.jpg",
                "FaceId": "b86e2392-9da1-459b-af68-49118dc16f87",
                "ImageId": "09f43d92-02b6-5cea-8fbd-9f187db2050d"
            },
            "FaceDetail": {
                "BoundingBox": {
                    "Height": 0.3247932195663452,
                    "Left": 0.5055555701255798,
                    "Top": 0.2743072211742401,
                    "Width": 0.21444444358348846
                },
                "Confidence": 99.99998474121094,
                "Landmarks": [
                    {
                        "Type": "eyeLeft",
                        "X": 0.5751981735229492,
                        "Y": 0.4010535478591919
                    },
                    {
                        "Type": "eyeRight",
                        "X": 0.6511467099189758,
                        "Y": 0.4017036259174347
                    },
                    {
                        "Type": "nose",
                        "X": 0.6314528584480286,
                        "Y": 0.4710812568664551
                    },
                    {
                        "Type": "mouthLeft",
                        "X": 0.5879443287849426,
                        "Y": 0.5171778798103333
                    },
                    {
                        "Type": "mouthRight",
                        "X": 0.6444502472877502,
                        "Y": 0.5164633989334106
                    }
                ],
                "Pose": {
                    "Pitch": -10.313642501831055,
                    "Roll": -1.0316886901855469,
                    "Yaw": 18.079818725585938
                },
                "Quality": {
                    "Brightness": 71.2919921875,
                    "Sharpness": 78.74752044677734
                }
            }
        }
    ],
    "OrientationCorrection": "",
    "UnindexedFaces": [
        {
            "FaceDetail": {
                "BoundingBox": {
                    "Height": 0.1329464465379715,
                    "Left": 0.5611110925674438,
                    "Top": 0.6832437515258789,
                    "Width": 0.08777777850627899
                },
                "Confidence": 92.37225341796875,
                "Landmarks": [
                    {
                        "Type": "eyeLeft",
                        "X": 0.5796897411346436,
                        "Y": 0.7452847957611084
                    },
                    {
                        "Type": "eyeRight",
                        "X": 0.6078574657440186,
                        "Y": 0.742687463760376
                    },
                    {
                        "Type": "nose",
                        "X": 0.597953200340271,
                        "Y": 0.7620673179626465
                    },
                    {
                        "Type": "mouthLeft",
                        "X": 0.5884202122688293,
                        "Y": 0.7920381426811218
                    },
                    {
                        "Type": "mouthRight",
                        "X": 0.60627681016922,
                        "Y": 0.7919750809669495
                    }
                ],
                "Pose": {
                    "Pitch": 15.658954620361328,
                    "Roll": -4.583454608917236,
                    "Yaw": 10.558992385864258
                },
                "Quality": {
                    "Brightness": 42.54612350463867,
                    "Sharpness": 86.93206024169922
                }
            },
            "Reasons": [
                "EXCEEDS_MAX_FACES"
            ]
        }
    ]
}
```

Um alle Gesichtsinformationen zu erhalten, geben Sie 'ALL' als Anforderungsparameter `DetectionAttributes` an. Beachten Sie etwa in der folgenden Beispielantwort die zusätzlichen Informationen im Element `faceDetail`, die nicht auf dem Server erhalten bleiben:
+ 25 wichtige Gesichtsmerkmale (verglichen mit nur 5 aus dem vorangegangenen Beispiel)
+ Zehn Gesichtsmerkmale (Brille, Bart, Okklusion, Blickrichtung usw.) 
+ Emotionen (siehe Element `emotion`)

Das `face`-Element stellt Metadaten zur Verfügung, die auf dem Server beibehalten werden.

 `FaceModelVersion` ist die Version des Gesichtsmodells, die der Sammlung zugeordnet ist. Weitere Informationen finden Sie unter [Grundlegendes zur Modellversionierung](face-detection-model.md).

`OrientationCorrection` ist die geschätzte Ausrichtung des Bilds. Es werden keine Informationen zur Korrektur der Ausrichtung zurückgegeben, wenn Sie eine Version des Gesichtserkennungsmodells nach Version 3 verwenden. Weitere Informationen finden Sie unter [Erhalten der Bildausrichtung und der Koordinaten von Begrenzungsrahmen](images-orientation.md).

Die folgende Beispielantwort zeigt das zurückgegebene JSON, wenn [„ALL“] angegeben wurde:

```
{
    "FaceModelVersion": "3.0",
    "FaceRecords": [
        {
            "Face": {
                "BoundingBox": {
                    "Height": 0.06333333253860474,
                    "Left": 0.17185185849666595,
                    "Top": 0.7366666793823242,
                    "Width": 0.11061728745698929
                },
                "Confidence": 99.99999237060547,
                "ExternalImageId": "input.jpg",
                "FaceId": "578e2e1b-d0b0-493c-aa39-ba476a421a34",
                "ImageId": "9ba38e68-35b6-5509-9d2e-fcffa75d1653"
            },
            "FaceDetail": {
                "AgeRange": {
                    "High": 25,
                    "Low": 15
                },
                "Beard": {
                    "Confidence": 99.98077392578125,
                    "Value": false
                },
                "BoundingBox": {
                    "Height": 0.06333333253860474,
                    "Left": 0.17185185849666595,
                    "Top": 0.7366666793823242,
                    "Width": 0.11061728745698929
                },
                "Confidence": 99.99999237060547,
                "Emotions": [
                    {
                        "Confidence": 95.40877532958984,
                        "Type": "HAPPY"
                    },
                    {
                        "Confidence": 6.6088080406188965,
                        "Type": "CALM"
                    },
                    {
                        "Confidence": 0.7385611534118652,
                        "Type": "SAD"
                    }
                ],
                 "EyeDirection": {
                    "yaw": 16.299732,
                    "pitch": -6.407457,
                    "confidence": 99.968704
                              }
                "Eyeglasses": {
                    "Confidence": 99.96795654296875,
                    "Value": false
                },
                "EyesOpen": {
                    "Confidence": 64.0671157836914,
                    "Value": true
                },
                "Gender": {
                    "Confidence": 100,
                    "Value": "Female"
                },
                "Landmarks": [
                    {
                        "Type": "eyeLeft",
                        "X": 0.21361233294010162,
                        "Y": 0.757106363773346
                    },
                    {
                        "Type": "eyeRight",
                        "X": 0.2518567442893982,
                        "Y": 0.7599404454231262
                    },
                    {
                        "Type": "nose",
                        "X": 0.2262365221977234,
                        "Y": 0.7711842060089111
                    },
                    {
                        "Type": "mouthLeft",
                        "X": 0.2050037682056427,
                        "Y": 0.7801263332366943
                    },
                    {
                        "Type": "mouthRight",
                        "X": 0.2430567592382431,
                        "Y": 0.7836716771125793
                    },
                    {
                        "Type": "leftPupil",
                        "X": 0.2161938101053238,
                        "Y": 0.756662905216217
                    },
                    {
                        "Type": "rightPupil",
                        "X": 0.2523181438446045,
                        "Y": 0.7603650689125061
                    },
                    {
                        "Type": "leftEyeBrowLeft",
                        "X": 0.20066319406032562,
                        "Y": 0.7501518130302429
                    },
                    {
                        "Type": "leftEyeBrowUp",
                        "X": 0.2130996286869049,
                        "Y": 0.7480520606040955
                    },
                    {
                        "Type": "leftEyeBrowRight",
                        "X": 0.22584207355976105,
                        "Y": 0.7504606246948242
                    },
                    {
                        "Type": "rightEyeBrowLeft",
                        "X": 0.24509544670581818,
                        "Y": 0.7526801824569702
                    },
                    {
                        "Type": "rightEyeBrowUp",
                        "X": 0.2582615911960602,
                        "Y": 0.7516844868659973
                    },
                    {
                        "Type": "rightEyeBrowRight",
                        "X": 0.26881539821624756,
                        "Y": 0.7554477453231812
                    },
                    {
                        "Type": "leftEyeLeft",
                        "X": 0.20624476671218872,
                        "Y": 0.7568746209144592
                    },
                    {
                        "Type": "leftEyeRight",
                        "X": 0.22105035185813904,
                        "Y": 0.7582521438598633
                    },
                    {
                        "Type": "leftEyeUp",
                        "X": 0.21401576697826385,
                        "Y": 0.7553104162216187
                    },
                    {
                        "Type": "leftEyeDown",
                        "X": 0.21317370235919952,
                        "Y": 0.7584449648857117
                    },
                    {
                        "Type": "rightEyeLeft",
                        "X": 0.24393919110298157,
                        "Y": 0.7600628137588501
                    },
                    {
                        "Type": "rightEyeRight",
                        "X": 0.2598416209220886,
                        "Y": 0.7605880498886108
                    },
                    {
                        "Type": "rightEyeUp",
                        "X": 0.2519053518772125,
                        "Y": 0.7582084536552429
                    },
                    {
                        "Type": "rightEyeDown",
                        "X": 0.25177454948425293,
                        "Y": 0.7612871527671814
                    },
                    {
                        "Type": "noseLeft",
                        "X": 0.2185886949300766,
                        "Y": 0.774715781211853
                    },
                    {
                        "Type": "noseRight",
                        "X": 0.23328955471515656,
                        "Y": 0.7759330868721008
                    },
                    {
                        "Type": "mouthUp",
                        "X": 0.22446128726005554,
                        "Y": 0.7805567383766174
                    },
                    {
                        "Type": "mouthDown",
                        "X": 0.22087252140045166,
                        "Y": 0.7891407608985901
                    }
                ],
                "MouthOpen": {
                    "Confidence": 95.87068939208984,
                    "Value": false
                },
                "Mustache": {
                    "Confidence": 99.9828109741211,
                    "Value": false
                },
                "Pose": {
                    "Pitch": -0.9409101605415344,
                    "Roll": 7.233824253082275,
                    "Yaw": -2.3602254390716553
                },
                "Quality": {
                    "Brightness": 32.01998519897461,
                    "Sharpness": 93.67259216308594
                },
                "Smile": {
                    "Confidence": 86.7142105102539,
                    "Value": true
                },
                "Sunglasses": {
                    "Confidence": 97.38925170898438,
                    "Value": false
                }
            }
        }
    ],
    "OrientationCorrection": "ROTATE_0"
    "UnindexedFaces": []
}
```