

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# So funktioniert Amazon Rekognition
<a name="how-it-works"></a>

Amazon Rekognition bietet zwei API-Sets für die visuelle Analyse:
+  Amazon Rekognition Image für die Bildanalyse 
+  Amazon Rekognition Video für die Videoanalyse 

**Bildanalyse**

Mit Amazon Rekognition Image können Ihre Anwendungen:
+ Objekte, Szenen und Konzepte in Bildern erkennen
+ Erkennen Sie Prominente
+ Erkennen Sie Text in einer Vielzahl von Sprachen
+ Erkennen Sie explizite, unangemessene oder gewalttätige Inhalte oder Bilder
+ Erkennen, analysieren und vergleichen Sie Gesichter und Gesichtsmerkmale wie Alter und Emotionen
+ Erkennen Sie das Vorhandensein von persönlicher Schutzausrüstung

Zu den Anwendungsfällen gehören die Verbesserung von Foto-Apps, das Katalogisieren von Bildern und das Moderieren von Inhalten.

**Videoanalyse**

Mit Amazon Rekognition Video können Ihre Anwendungen:
+ Personen und Objekte über Videoframes hinweg verfolgen
+ Objekte erkennen
+ Erkennen Sie Prominente
+ Suchen Sie nach gespeicherten und gestreamten Videos nach Personen von Interesse
+ Analysieren Sie Gesichter auf Merkmale wie Alter und Emotionen
+ Erkennen Sie explizite, unangemessene oder gewalttätige Inhalte oder Bilder
+ Aggregieren und sortieren Sie die Analyseergebnisse nach Zeitstempeln und Segmenten
+ Erkennen Sie Personen, Haustiere und Pakete in Streaming-Videos

Zu den Anwendungsfällen gehören Videoanalysen, das Katalogisieren von Videos und das Filtern unangemessener Inhalte.

**Schlüssel-Features**
+ Leistungsstarke Deep-Learning-Analyse
+ Hochgenaue Erkennung von Objekten, Szenen, Gesichtern und Text
+ Einfach zu verwendende API für die Integration in Apps
+ Anpassbare Modelle, die auf Ihre Daten abgestimmt sind
+ Skalierbare Analyse von Medienbibliotheken



Mit Amazon Rekognition können Sie die Genauigkeit bestimmter Deep-Learning-Modelle verbessern, indem Sie einen benutzerdefinierten Adapter trainieren. Mit Amazon Rekognition Custom Moderation können Sie beispielsweise das grundlegende Bildanalysemodell von Amazon Rekognition anpassen, indem Sie einen benutzerdefinierten Adapter mit Ihren Bildern trainieren. Weitere Informationen finden Sie unter [Verbesserung der Genauigkeit mit benutzerdefinierter Moderation](https://docs.aws.amazon.com/rekognition/latest/dg/moderation-custom-moderation.html).

Die folgenden Abschnitte behandeln die Analysetypen, die Amazon Rekognition bietet, und geben einen Überblick über die Funktionsweise von Amazon Rekognition Image und Amazon Rekognition Video. Ebenfalls abgedeckt wird der Unterschied zwischen nicht gespeicherten und gespeicherten Operationen.

Eine Demo von Amazon Rekognition APIs finden Sie unter [Schritt 3: Erste Schritte mit der AWS-CLI und der AWS-SDK-API, wo](https://docs.aws.amazon.com/rekognition/latest/dg/get-started-exercise.html) Sie Rekognition in der Konsole ausprobieren können. AWS 

**Topics**
+ [Grundlegendes zu den Analysetypen von Rekognition](how-it-works-types.md)
+ [Die Bild- und Videooperationen von Rekognition verstehen](how-it-works-operations-intro.md)
+ [Grundlegendes zu Nicht-Speicher- und Speicher-API-Vorgängen](how-it-works-storage-non-storage.md)
+ [Grundlegendes zur Modellversionierung](face-detection-model.md)

# Grundlegendes zu den Analysetypen von Rekognition
<a name="how-it-works-types"></a>

Im Folgenden sind die Analysetypen aufgeführt, die mit der Amazon-Rekognition-Image-API und der Amazon-Rekognition-Video-API durchgeführt werden können. Informationen zu dem finden APIs Sie unter[Die Bild- und Videooperationen von Rekognition verstehen](how-it-works-operations-intro.md).

In der folgenden Tabelle sind die Operationen aufgeführt, die Sie je nach Medientyp, mit dem Sie arbeiten, und Ihrem Anwendungsfall verwenden müssen:


****  

| Anwendungsfall | Medientyp | Operationen | 
| --- | --- | --- | 
|  [Inhalte moderieren](moderation.md)  | Bilder |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html), [GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html), [ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | Gespeichertes Video |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html), [GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| Identitätsüberprüfung | [Bilder](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html), [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html), [SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [Gespeichertes Video](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html), [GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | Streaming-Video ([Echtheit von Gesichtern erkennen](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html), [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html), [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html),  | 
| [Gesichtsanalyse](faces.md) | Bilder | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | Gespeichertes Video | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html), [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | Streaming-Video | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html), [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Objekt- und Aktivitätserkennung](labels.md) | Bilder | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | Gespeicherte Videos | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html), [GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [Connected Home](https://github.com/aws-samples/rekognition-streaming-video-events) | Streaming-Video | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Medienanalyse](segments.md) | Gespeichertes Video | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html), [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [Sicherheit am Arbeitsplatz](ppe-detection.md) | Bilder | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [Texterkennung](text-detection.md) | Bilder | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | Video | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html), [GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [Pfade von Personen](persons.md) | Video | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html), [GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [Prominentenerkennung](celebrities.md) | Bilder | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | Video | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html), [GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [Erkennung benutzerdefinierter Label](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | Bilder | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | Modelltraining | [Weitere Informationen finden Sie im Entwicklerhandbuch für benutzerdefinierte Label](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## Labels
<a name="how-it-works-labels-intro"></a>

Ein *Label* bezieht sich auf eines der folgenden Dinge: Objekte (z. B. eine Blume, ein Baum oder ein Tisch), Ereignisse (z. B. eine Hochzeit, ein Schulabschluss oder eine Geburtstagsfeier), Konzepte (z. B. eine Landschaft, der Abend und die Natur) oder Aktivitäten (z. B. Laufen oder Basketball spielen). Amazon Rekognition kann Labels in Bildern und Videos erkennen. Weitere Informationen finden Sie unter [Erkennung von Objekten und Konzepten](labels.md).

Rekognition kann eine große Liste von Labels in Bildern und gespeicherten Videos erkennen. Rekognition kann auch eine kleine Anzahl von Labels in Streaming-Videos erkennen.

Verwenden Sie die folgenden Operationen, um Labels basierend auf Ihrem Anwendungsfall zu erkennen:
+ Um Beschriftungen in Bildern zu erkennen: Verwenden Sie [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html). Sie können Bildeigenschaften wie dominante Bildfarben und Bildqualität identifizieren. Um dies zu erreichen, verwenden Sie [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)with `IMAGE_PROPERTIES` als Eingabeparameter.
+ Um Labels in gespeicherten Videos zu erkennen: Verwenden Sie [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html). Die Erkennung dominanter Bildfarben und der vorherrschenden Bildqualität wird für gespeicherte Videos nicht unterstützt.
+ Um Labels in Streaming-Videos zu erkennen: Verwenden [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). Die Erkennung dominanter Bildfarben und der vorherrschenden Bildqualität wird für Streaming-Videos nicht unterstützt.

Mithilfe von inklusiven und exklusiven Filteroptionen können Sie angeben, welche Labeltypen sowohl für die Erkennung von Bild- als auch für gespeicherte Videolabels zurückgegeben werden sollen.

## Benutzerdefinierte Labels
<a name="how-it-works-custom-labels-intro"></a>

Amazon Rekognition Custom Labels kann die Objekte und Szenen in den auf Ihre geschäftlichen Anforderungen zugeschnittenen Bildern identifizieren, indem ein maschinelles Lernmodell geschult wird. Sie können beispielsweise ein Modell schulen, um Logos oder technische Maschinenteile auf einem Fließband zu erkennen.

**Anmerkung**  
Informationen über Amazon Rekognition Custom Labels finden Sie im [Entwicklungsleitfaden für Amazon Rekognition Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html).

Amazon Rekognition bietet eine Konsole, mit der Sie ein maschinelles Lernmodell erstellen, trainieren, bewerten und ausführen können. Weitere Informationen finden Sie unter [Erste Schritte mit Amazon Rekognition Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html) im *Entwicklerhandbuch für Amazon Rekognition Custom Labels*. Sie können auch die Amazon-Rekognition-Custom-Labels-API von verwenden, um ein Modell zu trainieren und auszuführen. Weitere Informationen finden Sie unter [Erste Schritte mit dem Amazon Rekognition Custom Labels SDK](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html) im *Amazon CustomLabels Rekognition* Developer Guide.

Um Bilder mit einem trainierten Modell zu analysieren, verwenden Sie. [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html)

## Erkennung der Echtheit von Gesichtern
<a name="face-liveness-detection"></a>

Mit Amazon Rekognition Face Liveness können Sie überprüfen, ob ein Benutzer, der sich einer gesichtsbasierten Identitätsprüfung unterzieht, physisch vor der Kamera anwesend ist und kein schlechter Akteur ist, der das Gesicht des Benutzers fälscht. Es erkennt gefälschte Angriffe, die auf eine Kamera gerichtet werden, und Angriffe, die eine Kamera umgehen. Ein Benutzer kann eine Überprüfung der Echtheit von Gesichtern durchführen, indem er ein kurzes Video-Selfie aufnimmt. Für die Überprüfung wird ein Livness-Score zurückgegeben. Die Echtheit von Gesichtern wird anhand einer probabilistischen Berechnung bestimmt, und nach der Überprüfung wird ein Zuverlässigkeitswert (zwischen 0 und 100) zurückgegeben. Je höher der Wert, desto größer ist die Zuverlässigkeit, dass die Person, die den Scheck entgegennimmt, live ist. 

Weitere Informationen zu Face Liveness finden Sie unter [Echtheit von Gesichtern erkennen](face-liveness.md).

## Gesichtserkennung und -analyse
<a name="how-it-works-faces-intro"></a>

Amazon Rekognition kann Gesichter in Bildern und gespeicherten Videos erkennen. Mit Amazon Rekognition erhalten Sie Informationen über Folgendes:
+ Wo Gesichter in einem Bild oder Video erkannt werden
+ Gesichtsmarken wie z. B. die Position der Augen.
+ Das Vorhandensein von Gesichtsverdeckungen in Bildern
+ Entdeckte Emotionen wie glücklich oder traurig
+ Blickrichtung des Blicks einer Person in Bildern

Sie können auch demografische Informationen wie Geschlecht oder Alter interpretieren. Sie können ein Gesicht in einem Bild mit Gesichtern vergleichen, die in einem anderen Bild erkannt wurden. Informationen über Gesichter können auch gespeichert und später wieder abgerufen werden. Weitere Informationen finden Sie unter [Erkennung und Analyse von Gesichtern](faces.md).

Um Gesichter in Bildern zu entdecken, verwenden Sie [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Um Gesichter in gespeicherten Videos zu entdecken, verwenden Sie [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html).

## Gesichtssuche
<a name="how-it-works-search-faces-intro"></a>

Amazon Rekognition kann nach Gesichtern suchen. Gesichtsinformationen werden in einem Container indiziert, der als Sammlung bezeichnet wird. Die Gesichtsinformationen in der Sammlung können dann mit Gesichtern abgeglichen werden, die in Bildern, gespeicherten Videos und Streaming-Videos erkannt wurden. Weitere Informationen finden Sie unter [Gesichtssuche in einer Sammlung](collections.md).

Um nach bekannten Gesichtern in Bildern zu suchen, verwenden Sie [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Um nach bekannten Gesichtern in gespeicherten Videos zu suchen, verwenden Sie [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html). Um nach bekannten Gesichtern in Streaming-Videos zu suchen, verwenden Sie [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html).

## Pfade von Personen
<a name="how-it-works-persons-intro"></a>

Amazon Rekognition kann die Wege von Personen verfolgen, die in einem gespeicherten Video erkannt werden. Amazon Rekognition Video bietet Pfadverfolgung, Gesichtsdetails und Standortinformationen für Personen, die in einem Video erkannt werden. Weitere Informationen finden Sie unter [Pfade von Personen](persons.md). 

Um Personen in gespeicherten Videos zu entdecken, verwenden Sie [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html).

## Persönliche Schutzausrüstung
<a name="how-it-works-ppe-intro"></a>

 Amazon Rekognition kann persönliche Schutzausrüstung (PSA) erkennen, die von Personen auf einem erkannten Bild getragen wird. Amazon Rekognition erkennt Gesichtsbedeckungen, Handbedeckungen und Kopfbedeckungen. Amazon Rekognition sagt voraus, ob ein PSA den entsprechenden Körperteil bedeckt. Sie können sich auch Schutzboxen für erkannte Personen und persönliche Schutzausrüstung besorgen. Weitere Informationen finden Sie unter [Erkennung von persönlicher Schutzausrüstung](ppe-detection.md). 

Um PPE in Bildern zu erkennen, verwenden Sie [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html).

## Prominente
<a name="how-it-works-celebrities-intro"></a>

 Amazon Rekognition kann Tausende von Prominenten in Bildern und gespeicherten Videos erkennen. Sie können Informationen darüber erhalten, wo sich das Gesicht eines Prominenten auf einem Bild befindet, sowie Infos über Gesichtsmerkmale und die Pose des Gesichts eines Prominenten. Sie können Tracking-Informationen für Prominente erhalten, wie sie in einem gespeicherten Video erscheinen. Sie können auch weitere Informationen über eine anerkannte Berühmtheit erhalten, z. B. die zum Ausdruck gebrachten Emotionen und die Darstellung des Geschlechts. Weitere Informationen finden Sie unter [Erkennen von Prominenten](celebrities.md). 

Um Prominente in Bildern zu erkennen, verwenden Sie [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html). Um Prominente in gespeicherten Videos zu erkennen, verwenden Sie [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html).

## Texterkennung
<a name="how-it-works-text-intro"></a>

Amazon Rekognition Text in Image kann Text in Bildern erkennen und in maschinenlesbaren Text umwandeln. Weitere Informationen finden Sie unter [Erkennen von Text](text-detection.md).

Um Text in Bildern zu erkennen, verwenden Sie [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html).

## Unangemessene oder anstößige Inhalte
<a name="how-it-works-moderation-intro"></a>

Amazon Rekognition kann Bilder und gespeicherte Videos in Hinblick auf Erwachseneninhalte und gewalttätige Inhalte analysieren. Weitere Informationen finden Sie unter [Inhalte moderieren](moderation.md).

Um unsichere Bilder zu erkennen, verwenden Sie [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Um unsichere gespeicherte Videos zu entdecken, verwenden Sie [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html).

## Anpassung
<a name="how-it-works-customization"></a>

Bestimmte von Rekognition APIs angebotene Bildanalysen ermöglichen es Ihnen, die Genauigkeit von Deep-Learning-Modellen zu verbessern, indem Sie benutzerdefinierte Adapter erstellen, die auf Ihren eigenen Daten trainiert werden. Adapter sind Komponenten, die sich in das vortrainierte Deep-Learning-Modell von Rekognition integrieren lassen und dessen Genauigkeit durch Fachwissen auf der Grundlage Ihrer Bilder verbessern. Sie trainieren einen Adapter so, dass er Ihren Bedürfnissen entspricht, indem Sie Beispielbilder bereitstellen und mit Anmerkungen versehen. 

Nachdem Sie einen Adapter erstellt haben, erhalten Sie einen. AdapterId Sie können dies AdapterId für einen Vorgang bereitstellen, um anzugeben, dass Sie den von Ihnen erstellten Adapter verwenden möchten. Beispielsweise stellen Sie der [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API den für AdapterId die synchrone Bildanalyse zur Verfügung. Wenn Sie das AdapterId als Teil der Anfrage angeben, verwendet Rekognition es automatisch, um die Vorhersagen für Ihre Bilder zu verbessern. Auf diese Weise können Sie die Funktionen von Rekognition nutzen und es gleichzeitig an Ihre Bedürfnisse anpassen. 

Sie haben auch die Möglichkeit, mithilfe der API Prognosen für Bilder in großen Mengen zu erhalten. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Weitere Informationen finden Sie unter [Massenanalyse](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

Sie können die Genauigkeit der Operationen von Rekognition beurteilen, indem Sie Bilder auf die Rekognition-Konsole hochladen und diese Bilder analysieren. Rekognition kommentiert Ihre Bilder mithilfe des ausgewählten Features. Anschließend können Sie die Vorhersagen überprüfen und anhand der verifizierten Vorhersagen ermitteln, welche Labels von der Erstellung eines Adapters profitieren würden.

Derzeit können Sie Adapter mit dem verwenden [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Weitere Informationen zur Erstellung und Verwendung von Adaptern finden Sie unter [Verbesserung der Genauigkeit mit benutzerdefinierter Moderation](moderation-custom-moderation.md).

## Massenanalyse
<a name="how-it-works-bulk"></a>

Mit Rekognition Bulk Analysis können Sie eine große Sammlung von Bildern asynchron verarbeiten, indem Sie zusammen mit dem Vorgang eine Manifestdatei verwenden. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Weitere Informationen finden Sie unter [Massenanalyse](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

# Die Bild- und Videooperationen von Rekognition verstehen
<a name="how-it-works-operations-intro"></a>

Amazon Rekognition bietet zwei primäre API-Sets für die Bild- und Videoanalyse:
+ Amazon Rekognition Image: Diese API wurde für die Analyse von Bildern entwickelt.
+ Amazon Rekognition Video: Diese API konzentriert sich auf die Analyse sowohl gespeicherter als auch gestreamter Videos.

Beide APIs können verschiedene Entitäten wie Gesichter und Objekte erkennen. Ein umfassendes Verständnis der unterstützten Vergleichs- und Erkennungstypen finden Sie im Abschnitt über[Grundlegendes zu den Analysetypen von Rekognition](how-it-works-types.md).

## Funktionsweise von Amazon Rekognition Image
<a name="how-it-works-operations-images"></a>

Amazon Rekognition Image-Operationen sind synchron. Die Eingabe und die Antwort erfolgen im JSON-Format. Die Amazon-Rekognition-Image-Operationen analysieren ein Eingabebild, das im JPG- oder PNG-Bildformat vorliegt. Das an eine Amazon-Rekognition-Image-Operation übergebene Bild kann in einem Amazon-S3-Bucket gespeichert werden. Wenn Sie die AWS-CLI nicht verwenden, können Sie auch Base64-kodierte Bildbytes direkt an einen Amazon Rekognition Rekognition-Vorgang übergeben. [Weitere Informationen finden Sie unter Arbeiten mit Bildern.](https://docs.aws.amazon.com/rekognition/latest/dg/images.html)

## Amazon-Rekognition-Video-Operationen
<a name="how-it-works-operations-video-intro"></a>

Die Amazon Rekognition Video API erleichtert die Analyse von Videos, die entweder in einem Amazon S3 S3-Bucket gespeichert oder über Amazon Kinesis Video Streams gestreamt wurden.

Beachten Sie bei gespeicherten Videooperationen Folgendes:
+ Die Operationen sind asynchron.
+ Die Analyse muss mit einem Startvorgang eingeleitet werden (z. B. [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)für die Gesichtserkennung in gespeicherten Videos).
+ Der Abschlussstatus der Analyse wird in einem Amazon SNS SNS-Thema veröffentlicht.
+ Um die Ergebnisse einer Analyse abzurufen, verwenden Sie den entsprechenden Vorgang „Abrufen“ (z. B. [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html)).
+ Weitere Informationen finden Sie unter [Arbeiten mit gespeicherten Videoanalysen](https://docs.aws.amazon.com/rekognition/latest/dg/video.html).

Für die Analyse von Streaming-Videos:
+ Zu den Funktionen gehören die Gesichtssuche in Rekognition-Videosammlungen und die Erkennung von Bezeichnungen (Objekt oder Konzept).
+ Analyseergebnisse für Labels werden als Amazon SNS- und Amazon S3 S3-Benachrichtigungen gesendet.
+ Die Ergebnisse der Gesichtssuche werden in einen Kinesis-Datenstream ausgegeben.
+ Die Verwaltung der Streaming-Videoanalyse erfolgt über einen Amazon Rekognition Video Video-Stream-Prozessor (z. B. erstellen Sie einen Prozessor mit [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)).
+ Weitere Informationen finden Sie unter [Arbeiten mit Streaming-Videoereignissen](https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html).

Bei jeder Videoanalyse werden Metadaten über das zu analysierende Video sowie eine Auftrags-ID und ein Auftrags-Tag zurückgegeben. Funktionen wie Labelerkennung und Inhaltsmoderation für Videos ermöglichen das Sortieren nach Zeitstempel oder Labelnamen und das Aggregieren von Ergebnissen nach Zeitstempel oder Segment.

## Nicht-speicherbasierte und speicherbasierte Operationen
<a name="how-it-works-operations-video-storage"></a>

Die Amazon-Rekognition-Operationen sind in die folgenden Kategorien unterteilt.
+ **Nicht-Speicher-API-Operationen** – Bei diesen Operationen behält Amazon Rekognition keinerlei Informationen. Sie stellen Eingabebilder und -videos bereit, die Operation führt die Analyse durch und liefert die Ergebnisse. Dabei werden aber keine Informationen von Amazon Rekognition gespeichert. Weitere Informationen finden Sie unter [Nicht speicherbasierte Operationen](how-it-works-storage-non-storage.md#how-it-works-non-storage).
+ **Speicherbasierte API-Operationen** – Der Amazon-Rekognition-Server kann entdeckte Gesichtsinformationen in Containern speichern, die Sammlungen genannt werden. Amazon Rekognition bietet zusätzliche API-Operationen, mit denen Sie die vorhandenen Gesichtsinformationen nach Gesichtsübereinstimmungen durchsuchen können. Weitere Informationen finden Sie unter [Speicherbasierte API-Operationen](how-it-works-storage-non-storage.md#how-it-works-storage-based).

## Verwendung des AWS-SDK oder HTTP zum Aufrufen von Amazon-Rekognition-API-Vorgängen
<a name="images-java-http"></a>

Sie können Amazon-Rekognition-API-Operationen entweder mit dem AWS-SDK oder mit HTTP aufrufen. Wenn Sie keinen guten Grund haben, es nicht zu tun, sollten Sie immer das AWS-SDK nutzen. Für die Java-Beispiele in diesem Abschnitt wird das [AWS-SDK](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/setup-install.html) verwendet. Eine Java-Projektdatei wird nicht bereitgestellt. Sie können jedoch das [AWS Toolkit for Eclipse](https://docs.aws.amazon.com/AWSToolkitEclipse/latest/GettingStartedGuide/) nutzen, um AWS-Anwendungen mit Java zu entwickeln. 

Die .NET-Beispiele in diesem Abschnitt verwenden das [AWS SDK für .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/welcome.html). Sie können [AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/AWSToolkitVS/latest/UserGuide/welcome.html) verwenden, um AWS-Anwendungen mit .NET zu entwickeln. Es enthält hilfreiche Vorlagen und den AWS Explorer zur Bereitstellung von Anwendungen und Verwaltung von Services. 

In der [API-Referenz](https://docs.aws.amazon.com/rekognition/latest/APIReference/Welcome.html) in diesem Leitfaden wird der Aufruf von Amazon-Rekognition-Vorgängen über HTTP beschrieben. Informationen zur Java-Referenz finden Sie unter [AWS SDK für Java](https://docs.aws.amazon.com/sdk-for-java/latest/reference/index.html).

Die Amazon-Rekognition-Service-Endpunkte, die Sie verwenden können, sind unter [AWS-Regionen und -Endpunkte](https://docs.aws.amazon.com/general/latest/gr/rande.html#rekognition_region) dokumentiert. 

Verwenden Sie POST-HTTP-Operationen für den Aufruf von Amazon Rekognition mit HTTP.

# Grundlegendes zu Nicht-Speicher- und Speicher-API-Vorgängen
<a name="how-it-works-storage-non-storage"></a>

Amazon Rekognition bietet zwei Arten von API-Operationen. Dies sind nicht speicherbasierte Operationen, bei denen keine Informationen von Amazon Rekognition gespeichert werden, und Speicheroperationen, bei denen bestimmte Gesichtsinformationen von Amazon Rekognition gespeichert werden. 

## Nicht speicherbasierte Operationen
<a name="how-it-works-non-storage"></a>

Amazon Rekognition bietet die folgenden nicht speicherbasierten API-Operationen für Bilder:
+ [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)
+ [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) 
+ [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) 
+ [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) 
+ [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) 
+ [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) 
+ [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) 
+ [GetCelebrityInfo](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityInfo.html) 

Amazon Rekognition bietet die folgenden nicht speicherbasierten API-Operationen für Videos:
+ [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartlabelDetection.html) 
+ [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) 
+ [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)
+ [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)
+ [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)

Diese werden als *nicht speicherbasierte* API-Operationen bezeichnet, da beim Aufrufen der Operation keine erkannten Informationen zum Eingabebild in Amazon Rekognition verbleiben. Wie bei allen anderen Amazon-Rekognition-API-Operationen bleiben bei nicht speicherbasierten API-Operationen keine Eingabebild-Bytes erhalten. 

Die folgenden Beispielszenarien zeigen, in welchen Fällen die Integration von nicht speicherbasierten API-Operationen in Ihrer Anwendung zum Einsatz kommen kann. Diese Szenarien gehen davon aus, dass Sie eine lokale Bilddatenbank haben.

**Example 1: Eine Anwendung, die Bilder in Ihrer örtlichen Bilddatenbank aufspürt, die bestimmte Labels enthalten**  
Zunächst erkennen Sie mithilfe der Amazon-Rekognition-`DetectLabels`-Operation Labels (Objekte und Konzepte) in jedem der Bilder in Ihrem Repository und erstellen einen clientseitigen Index, wie im Folgenden gezeigt:  

```
Label        ImageID

tree          image-1
flower        image-1
mountain      image-1
tulip         image-2
flower        image-2
apple         image-3
```
Anschließend kann Ihre Anwendung diesen Index durchsuchen und in Ihrer örtlichen Bilddatenbank Bilder mit einem bestimmten Label suchen. Zum Beispiel können so alle Bilder angezeigt werden, die einen Baum enthalten.  
Jedem Label, das Amazon Rekognition erkennt, wird ein Zuverlässigkeitswert zugeordnet. Er zeigt an, mit wie hoher Sicherheit das Eingabebild das Label enthält. Je nach Anforderungen an Ihre Anwendung in Bezug auf die Zuverlässigkeit der Erkennung können Sie diesen Zuverlässigkeitswert nutzen, um auf Wunsch die Labels clientseitig zusätzlich zu filtern. Falls Sie beispielsweise extrem präzise Labels benötigen, können Sie nur die Labels mit einem hohen Zuverlässigkeitswert (95% oder höher) filtern und wählen. Falls Ihre Anwendung keinen hohen Zuverlässigkeitswert erfordert, können Sie stattdessen auch die Labels mit einem niedrigeren Zuverlässigkeitswert (rund um 50 %) filtern.

**Example 2: Eine Anwendung für die Anzeige von optimierten Bildern von Gesichtern**  
Zuerst können Sie mithilfe der Amazon-Rekognition-`DetectFaces`-Operation auf jedem Bild in Ihrer örtlichen Bilddatenbank Gesichter erkennen und einen clientseitigen Index zusammenstellen. Die Operation liefert für jedes Gesicht Metadaten. Diese umfassen unter anderem einen Begrenzungsrahmen, wichtige Gesichtsmerkmale (zum Beispiel die Positionen des Mundes oder der Ohren) und Gesichtsattribute (zum Beispiel das Geschlecht). Wie im Folgenden angezeigt können Sie diese Metadaten in einem clientseitigen örtlichen Index speichern:  

```
ImageID     FaceID     FaceMetaData

image-1     face-1     <boundingbox>, etc.
image-1     face-2     <boundingbox>, etc.
image-1     face-3     <boundingbox>, etc.
...
```
In diesem Index ist der Primärschlüssel eine Kombination der `ImageID` und der `FaceID`.  
Anschließend können Sie die Informationen im Index nutzen, um die Bilder zu optimieren, sobald die Anwendung diese in Ihrer örtlichen Bilddatenbank aufgerufen hat. Sie können beispielsweise dem Gesicht einen Begrenzungsrahmen hinzufügen oder Gesichtsmerkmale betonen.  
 

## Speicherbasierte API-Operationen
<a name="how-it-works-storage-based"></a>

Amazon Rekognition Image unterstützt den [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)Vorgang, mit dem Sie Gesichter in einem Bild erkennen und Informationen über Gesichtsmerkmale, die in einer Amazon Rekognition Rekognition-Sammlung erkannt wurden, dauerhaft speichern können. Dies ist ein Beispiel für eine *speicherbasierte* API-Operation, da der Dienst Informationen auf dem Server beibehält. 

Amazon Rekognition Image bietet die folgenden Speicher-API-Operationen:
+ [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)
+ [ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html) 
+ [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) 
+ [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) 
+ [DeleteFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteFaces.html) 
+ [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) 
+ [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html)
+ [ListCollections](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListCollections.html)
+ [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html) 

Amazon Rekognition Video bietet die folgenden Speicher-API-Operationen:
+ [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) 
+ [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)

Zur Speicherung von Gesichtsinformationen müssen Sie zuerst eine Gesichtersammlung in einer der AWS-Regionen in Ihrem Konto erstellen. Diese Gesichtersammlung wird näher spezifiziert, sobald Sie die `IndexFaces`-Operation aufrufen. Nach der Erstellung einer Gesichtersammlung und der Speicherung der Gesichtsmerkmalinformationen für alle Gesichter können Sie die Sammlung nach Übereinstimmungen durchsuchen. Beispielsweise können Sie das größte Gesicht in einem Bild erkennen und nach übereinstimmenden Gesichtern in einer Sammlung suchen, indem Sie `searchFacesByImage.` aufrufen.

Gesichtsinformationen, die in Sammlungen durch `IndexFaces` gespeichert sind, sind für Amazon-Rekognition-Video-Operationen zugänglich. So können Sie beispielsweise ein Video nach Personen durchsuchen, deren Gesichter mit jenen einer bestehenden Sammlung übereinstimmen, indem Sie [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) aufrufen.

Weitere Informationen zum Erstellen und Verwalten von Sammlungen finden Sie unter [Gesichtssuche in einer Sammlung](collections.md).

**Anmerkung**  
Sammlungen speichern Gesichtsvektoren, bei denen es sich um mathematische Darstellungen von Gesichtern handelt. Sammlungen speichern keine Bilder von Gesichtern.

**Example 1: Eine Anwendung, die den Zugang zu einem Gebäude authentifiziert**  
Sie beginnen mit dem Erstellen einer Gesichtersammlung, um gespeicherte Zugangsausweisbilder mithilfe der Operation `IndexFaces` zu speichern. Diese extrahiert Gesichter und speichert sie als durchsuchbare Bildvektoren. Sobald dann ein Mitarbeiter das Gebäude betritt, wird ein Foto seines Gesichts gemacht und an die `SearchFacesByImage`-Operation übermittelt. Wenn bei der Gesichtsübereinstimmung ein ausreichend hoher Ähnlichkeitswert erzielt wird (beispielsweise 99 %), können Sie den Mitarbeiter autorisierten.

# Grundlegendes zur Modellversionierung
<a name="face-detection-model"></a>

Amazon Rekognition verwendet Deep-Learning-Modelle, um die Gesichtserkennung und die Suche nach Gesichtern in Sammlungen auszuführen. An der Verbesserung der Genauigkeit der Modelle wird auf der Grundlage von Kundenfeedback und Fortschritten in der Forschung kontinuierlich gearbeitet. Diese Verbesserungen werden als Modell-Updates geliefert. Beispielsweise kann [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) bei Version 1.0 des Modells die 15 größten Gesichter in einem Bild indizieren. Bei neueren Versionen des Modells kann `IndexFaces` die 100 größten Gesichter im Bild indizieren.

Wenn Sie eine neue Sammlung erstellen, wird diese mit der neuesten Version des Modells verknüpft. Um die Genauigkeit zu verbessern, wird das Modell gelegentlich aktualisiert.

 Wenn eine neue Version des Modells veröffentlicht wird, geschieht Folgendes: 
+ Neue Sammlungen, die Sie erstellen, werden mit dem neuesten Modell verknüpft. Gesichter, die Sie mit [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) zu neuen Kollektionen hinzufügen, werden mit dem neuesten Modell erkannt.
+ Ihre bestehenden Sammlungen verwenden weiterhin die Version des Modells, mit der sie erstellt wurden. Die in diesen Sammlungen gespeicherten Gesichtsvektoren werden nicht automatisch auf die neueste Version des Modells aktualisiert.
+ Neue Gesichter, die zu einer bestehenden Sammlung hinzugefügt werden, werden anhand des Modells erkannt, das bereits mit der Sammlung verknüpft ist.

Verschiedene Versionen des Modells sind nicht miteinander kompatibel. Insbesondere wenn ein Bild in mehrfachen Sammlungen indiziert ist, die verschiedene Versionen des Modells verwenden, sind die Identifikatoren für das gleiche Gesicht unterschiedlich. Wenn ein Bild in mehrfachen Sammlungen indiziert ist, die das gleiche Modell verwenden, sind auch die Identifikatoren gleich. 

Ihre Anwendung könnte mit Kompatibilitätsproblemen konfrontiert sein, wenn Ihr Sammlungsmanagement keine Aktualisierungen des Modells berücksichtigt. Sie können die Version des von einer Sammlung verwendeten Modells über das Feld `FaceModelVersion` ermitteln, das in der Antwort einer Sammlungsoperation zurückgegeben wird (z. B. `CreateCollection`). Sie können die Modellversion einer vorhandenen Sammlung abrufen, indem Sie [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) aufrufen. Weitere Informationen finden Sie unter [Beschreiben einer Sammlung](describe-collection-procedure.md).

Vorhandene Gesichtsvektoren in einer Sammlung können nicht auf eine spätere Version des Modells aktualisiert werden. Da Amazon Rekognition keine Quellbildbytes speichert, kann es Bilder nicht automatisch neu indizieren, indem es eine neuere Version des Modells verwendet.

Um das neueste Modell für die Gesichter zu verwenden, die in einer bestehenden Sammlung gespeichert sind, erstellen Sie eine neue Sammlung ([CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)) und indizieren Sie die Quellbilder erneut in die neue Sammlung (`Indexfaces`). Sie müssen alle Gesichtsidentifikatoren aktualisieren, die von Ihrer Anwendung gespeichert werden, da sich die Gesichtsidentifikatoren in der neuen Sammlung von den Gesichtsidentifikatoren in der alten Sammlung unterscheiden. Wenn Sie die alte Sammlung nicht mehr benötigen, können Sie ihn mit [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html) löschen. 

Zustandslose Operationen, wie z. B. [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), verwenden die neueste Version des Modells.