

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Funktionsweise
<a name="how-it-works"></a>

Amazon Comprehend verwendet ein vortrainiertes Modell, um **Erkenntnisse** über ein Dokument oder eine Reihe von Dokumenten zu sammeln. Dieses Modell wird kontinuierlich anhand einer großen Textmenge trainiert, sodass Sie keine Trainingsdaten angeben müssen. 

Sie können Amazon Comprehend verwenden, um Ihre eigenen **benutzerdefinierten Modelle für die benutzerdefinierte** Klassifizierung und benutzerdefinierte Entitätserkennung zu erstellen. Sie können es verwenden[Schwungräder](flywheels.md), um bei der Verwaltung der benutzerdefinierten Modelle zu helfen. 

Amazon Comprehend bietet **Themenmodellierung** mithilfe eines integrierten Modells. Bei der Themenmodellierung wird ein Korpus von Dokumenten untersucht und die Dokumente anhand ähnlicher Stichwörter in ihnen organisiert.

**Amazon Comprehend bietet synchrone und asynchrone Dokumentenverarbeitungsmodi.** Verwenden Sie den synchronen Modus für die Verarbeitung eines Dokuments oder eines Stapels von bis zu 25 Dokumenten. Verwenden Sie einen asynchronen Job, um eine große Anzahl von Dokumenten zu verarbeiten.

Amazon Comprehend arbeitet mit AWS Key Management Service (AWS KMS) zusammen, um eine verbesserte Verschlüsselung Ihrer Daten bereitzustellen. Weitere Informationen finden Sie unter [KMS-Verschlüsselung in Amazon Comprehend](kms-in-comprehend.md).



**Topics**
+ [Insights](concepts-insights.md)
+ [Amazon Comprehend Benutzerdefiniert](concepts-custom.md)
+ [Themenmodellierung](topic-modeling.md)
+ [Modi der Dokumentenverarbeitung](concepts-processing-modes.md)

# Insights
<a name="concepts-insights"></a>

Amazon Comprehend kann ein Dokument oder eine Reihe von Dokumenten analysieren, um Erkenntnisse darüber zu gewinnen. Zu den Erkenntnissen, die Amazon Comprehend über ein Dokument gewinnt, gehören:
+ [Entitäten](how-entities.md)— Amazon Comprehend gibt eine Liste von Entitäten wie Personen, Orten und Orten zurück, die in einem Dokument identifiziert wurden. 
+ [Ereignisse](how-events.md)— Amazon Comprehend erkennt bestimmte Arten von Ereignissen und zugehörige Details. 
+ [Schlüsselphrasen](how-key-phrases.md)— Amazon Comprehend extrahiert Schlüsselausdrücke, die in einem Dokument vorkommen. Beispielsweise könnte ein Dokument über ein Basketballspiel die Namen der Teams, den Namen des Austragungsorts und das Endergebnis enthalten. 
+ [Persönlich Identifizierbare Informationen (PII)](pii.md)— Amazon Comprehend analysiert Dokumente, um personenbezogene Daten zu ermitteln, die eine Person identifizieren, z. B. eine Adresse, Bankkontonummer oder Telefonnummer. 
+ [Vorherrschende Sprache](how-languages.md)— Amazon Comprehend identifiziert die dominante Sprache in einem Dokument. Amazon Comprehend kann 100 Sprachen identifizieren.
+ [Stimmung](how-sentiment.md) — Amazon Comprehend bestimmt die vorherrschende Stimmung eines Dokuments. Die Stimmung kann positiv, neutral, negativ oder gemischt sein. 
+ [Gezielte Stimmung](how-targeted-sentiment.md) — Amazon Comprehend ermittelt die Stimmung bestimmter Entitäten, die in einem Dokument erwähnt werden. Die Stimmung jeder Erwähnung kann positiv, neutral, negativ oder gemischt sein. 
+ [Syntaxanalyse](how-syntax.md)— Amazon Comprehend analysiert jedes Wort in Ihrem Dokument und bestimmt den Wortteil für das Wort. Beispielsweise wird in dem Satz „Es regnet heute in Seattle“ „es“ als Pronomen, „Regen“ als Verb und „Seattle“ als Eigenname identifiziert. 

# Entitäten
<a name="how-entities"></a>

Eine *Entität* ist ein textueller Verweis auf den eindeutigen Namen eines realen Objekts wie Personen, Orte und Handelsgüter sowie auf genaue Verweise auf Maße wie Daten und Mengen.

Im Text „John zog 2012 nach 1313 Mockingbird Lane“ könnte beispielsweise „John“ als ein, „1313 Mockingbird Lane“ als ein `PERSON` und „2012" als ein `LOCATION` erkannt werden. `DATE`

Jede Entität hat außerdem eine Bewertung, die angibt, wie sicher Amazon Comprehend ist, dass es den Entitätstyp korrekt erkannt hat. Sie können die Entitäten mit niedrigeren Punktzahlen herausfiltern, um das Risiko falscher Erkennungen zu verringern.

In der folgenden Tabelle sind die Entitätstypen aufgeführt. 


| Typ | Description | 
| --- | --- | 
|  COMMERCIAL\$1ITEM  | Ein Markenprodukt | 
|  DATE  | Ein vollständiges Datum (z. B. 25.11.2017), ein Tag (Dienstag), ein Monat (Mai) oder eine Uhrzeit (8:30 Uhr) | 
|  EREIGNIS  | Eine Veranstaltung, z. B. ein Festival, ein Konzert, eine Wahl usw. | 
|  LOCATION  | Ein bestimmter Ort, z. B. ein Land, eine Stadt, ein See, ein Gebäude usw. | 
|  ORGANISATION  | Große Organisationen wie Regierung, Unternehmen, Religion, Sportmannschaft usw. | 
|  OTHER  | Entitäten, die in keine der anderen Unternehmenskategorien passen | 
|  PERSON  | Einzelpersonen, Personengruppen, Spitznamen, fiktive Charaktere | 
|  MENGE  | Eine quantifizierte Menge, z. B. Währung, Prozentsätze, Zahlen, Byte usw. | 
|  TITLE  | Ein offizieller Name, der einer Kreation oder einem kreativen Werk wie Filmen, Büchern, Liedern usw. gegeben wird. | 

Operationen zur Erkennung von Entitäten können in jeder der von Amazon Comprehend unterstützten Hauptsprachen ausgeführt werden. Dies beinhaltet nur die Erkennung vordefinierter (nicht benutzerdefinierter) Entitäten. Alle Dokumente müssen in derselben Sprache verfasst sein.

Sie können jede der folgenden API-Operationen verwenden, um Entitäten in einem Dokument oder einer Reihe von Dokumenten zu erkennen.
+ [DetectEntities](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectEntities.html)
+  [BatchDetectEntities](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectEntities.html)
+  [StartEntitiesDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartEntitiesDetectionJob.html)

Die Operationen geben eine Liste von [API-Entitätsobjekten](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_Entity.html) zurück, eines für jede Entität im Dokument. Die `BatchDetectEntities` Operation gibt eine Liste von `Entity` Objekten zurück, eine Liste für jedes Dokument im Stapel. Der `StartEntitiesDetectionJob` Vorgang startet einen asynchronen Auftrag, der eine Datei mit einer Liste von `Entity` Objekten für jedes Dokument im Auftrag erstellt.

Das folgende Beispiel ist die Antwort des `DetectEntities` Vorgangs.

```
{
    "Entities": [
        {
            "Text": "today",
            "Score": 0.97,
            "Type": "DATE",
            "BeginOffset": 14,
            "EndOffset": 19
        },
        {
            "Text": "Seattle",
            "Score": 0.95,
            "Type": "LOCATION",
            "BeginOffset": 23,
            "EndOffset": 30
        }
    ],
    "LanguageCode": "en"
}
```

# Ereignisse
<a name="how-events"></a>

**Anmerkung**  
Die Funktionen von Amazon Comprehend zur Themenmodellierung, zur Ereigniserkennung und zur sofortigen Sicherheitsklassifizierung stehen Neukunden ab dem 30. April 2026 nicht mehr zur Verfügung. Wenn Sie diese Funktionen mit neuen Konten nutzen möchten, tun Sie dies bitte vor diesem Datum. Für Konten, die diese Funktionen in den letzten 12 Monaten genutzt haben, sind keine Maßnahmen erforderlich. Weitere Informationen finden Sie unter [Änderung der Verfügbarkeit von Amazon Comprehend Comprehend-Funktionen](comprehend-availability-change.md).

Verwenden Sie die *Ereigniserkennung*, um Textdokumente auf bestimmte Ereignistypen und die damit verbundenen Entitäten zu analysieren. Amazon Comprehend unterstützt die Ereigniserkennung in großen Dokumentensammlungen mithilfe asynchroner Analyseaufträge. Weitere Informationen zu Ereignissen, einschließlich Beispielaufträgen zur Ereignisanalyse, finden Sie unter [Ankündigung des Starts von Amazon Comprehend](https://aws.amazon.com/blogs/machine-learning/announcing-the-launch-of-amazon-comprehend-events/) Events

## Entitäten
<a name="how-events-entities"></a>

Aus dem Eingabetext extrahiert Amazon Comprehend eine Liste von Entitäten, die sich auf das erkannte Ereignis beziehen. Eine *Entität* kann ein reales Objekt sein, z. B. eine Person, ein Ort oder ein Ort; eine Entität kann auch ein Konzept sein, z. B. eine Messung, ein Datum oder eine Menge. Jedes Vorkommen einer Entität wird durch eine *Erwähnung* identifiziert, bei der es sich um einen Textverweis auf die Entität im Eingabetext handelt. Für jede eindeutige Entität werden alle Erwähnungen in einer Liste zusammengefasst. Diese Liste enthält Details zu jeder Stelle im Eingabetext, an der die Entität vorkommt. Amazon Comprehend erkennt nur die Entitäten, die den unterstützten Ereignistypen zugeordnet sind.

Jede Entität, die einem unterstützten Ereignistyp zugeordnet ist, wird mit den folgenden zugehörigen Details zurückgegeben:
+ **Erwähnungen**: Details zu jedem Vorkommen derselben Entität im Eingabetext.
  + **BeginOffset**: Ein Zeichenversatz im Eingabetext, der angibt, wo die Erwähnung beginnt (das erste Zeichen befindet sich an Position 0). 
  + **EndOffset**: Ein Zeichenversatz im Eingabetext, der angibt, wo die Erwähnung endet.
  + **Bewertung**: Das Maß an Vertrauen, das Amazon Comprehend in die Richtigkeit des Entitätstyps hat.
  + **GroupScore**: Das Vertrauensniveau von Amazon Comprehend, dass die Erwähnung korrekt mit anderen Erwähnungen derselben Entität gruppiert wurde.
  + **Text**: Der Text der Entität.
  + **Typ**: Der Typ der Entität. Informationen zu allen unterstützten Entitätstypen finden Sie unter[Entity-Typen](#events-entity-types).

## Ereignisse
<a name="how-events-output"></a>

Amazon Comprehend gibt die Liste der Ereignisse (der unterstützten Ereignistypen) zurück, die es im Eingabetext erkennt. Jedes Ereignis wird mit den folgenden zugehörigen Details zurückgegeben:
+ **Typ**: Der Typ des Ereignisses. Informationen zu allen unterstützten Ereignistypen finden Sie unter[Event types (Ereignistypen)](#events-types).
+ **Argumente**: Eine Liste von Argumenten, die sich auf das erkannte Ereignis beziehen. Ein *Argument* besteht aus einer Entität, die sich auf das erkannte Ereignis bezieht. Die Rolle des Arguments beschreibt die Beziehung, z. B. *wer* *was*, *wo* und *wann* getan hat.
  + **EntityIndex**: Ein Indexwert, der eine Entität aus der Liste der Entitäten identifiziert, die Amazon Comprehend für diese Analyse zurückgegeben hat.
  + **Rolle**: Der Argumenttyp, der beschreibt, wie die Entität für dieses Argument mit dem Ereignis zusammenhängt. Informationen zu allen unterstützten Argumenttypen finden Sie unter[Arten von Argumenten](#events-argument-types).
  + **Bewertung**: Das Maß an Vertrauen, das Amazon Comprehend in die Genauigkeit der Rollenerkennung hat.
+ **Auslöser**: Eine Liste von Auslösern für das erkannte Ereignis. Ein *Trigger* ist ein einzelnes Wort oder eine Phrase, die auf das Eintreten des Ereignisses hinweist.
  + **BeginOffset**: Ein Zeichen-Offset im Eingabetext, der angibt, wo der Trigger beginnt (das erste Zeichen befindet sich an Position 0).
  + **EndOffset**: Ein Zeichen-Offset im Eingabetext, der angibt, wo der Trigger endet.
  + **Bewertung**: Das Maß an Vertrauen, das Amazon Comprehend in die Genauigkeit der Erkennung hat.
  + **Text**: Der Text des Triggers.
  + **GroupScore**: Das Vertrauensniveau von Amazon Comprehend, dass der Trigger korrekt mit anderen Triggern für dasselbe Ereignis gruppiert ist.
  + **Typ**: Der Ereignistyp, auf den dieser Auslöser hinweist.

## Format der Ergebnisse für die Erkennung von Ereignissen
<a name="how-events-results"></a>

Wenn Ihr Job zur Ereigniserkennung abgeschlossen ist, schreibt Amazon Comprehend die Analyseergebnisse an den Amazon S3 S3-Ausgabespeicherort, den Sie beim Start des Jobs angegeben haben.

Für jedes erkannte Ereignis enthält die Ausgabe Details im folgenden Format:

```
{
   "Entities": [
     {
       "Mentions": [
         {
           "BeginOffset": number,
           "EndOffset": number,
           "Score": number,
           "GroupScore": number,
           "Text": "string",
           "Type": "string"
         }, ...
       ]    
     }, ...
   ],
   "Events": [
     {
       "Type": "string",
       "Arguments": [
         {                   
           "EntityIndex": number,   
           "Role": "string",
           "Score": number
         }, ...
       ],
       "Triggers": [
         {
           "BeginOffset": number,
           "EndOffset": number,
           "Score": number,
           "Text": "string",
           "GroupScore": number,
           "Type": "string"
         }, ...
       ]
     }, ...
   ]
 }
```

## Unterstützte Typen für Entitäten, Ereignisse und Argumente
<a name="events-reference-types"></a>

### Entity-Typen
<a name="events-entity-types"></a>


| Typ | Description | 
| --- | --- | 
| DATE | Jeder Verweis auf ein Datum oder eine Uhrzeit, unabhängig davon, ob es sich um ein bestimmtes oder allgemeines Datum handelt. | 
| EINRICHTUNG | Gebäude, Flughäfen, Autobahnen, Brücken und andere dauerhafte künstliche Bauwerke und Immobilienverbesserungen. | 
| LOCATION | Physische Standorte wie Straßen, Städte, Staaten, Länder, Gewässer oder geografische Koordinaten. | 
| MONETÄRER\$1WERT | Der Wert von etwas in den USA oder einer anderen Währung. Der Wert kann spezifisch oder ungefährer Wert sein. | 
| ORGANISATION | Unternehmen und andere Personengruppen, die durch eine etablierte Organisationsstruktur definiert sind. | 
| PERSON | Die Namen oder Spitznamen von Personen oder fiktiven Charakteren. | 
| PERSON\$1TITLE | Jeder Titel, der eine Person beschreibt, wobei es sich in der Regel um eine Beschäftigungskategorie (z. B. CEO) oder um eine Ehrenkategorie (wie Herr) handelt. | 
| MENGE | Eine Zahl oder ein Wert und die Maßeinheit. | 
| STOCK\$1CODE | Ein Börsenkürzel wie AMZN, eine International Securities Identification Number (ISIN), ein Committee on Uniform Securities Identification Procedures (CUSIP) oder die Stock Exchange Daily Official List (SEDOL). | 

### Event types (Ereignistypen)
<a name="events-types"></a>


| Typ | Description | 
| --- | --- | 
| INSOLVENZ | Ein Gerichtsverfahren, an dem eine Person oder ein Unternehmen beteiligt ist, das ausstehende Schulden nicht zurückzahlen kann. | 
| ERWERBSTÄTIGKEIT | Tritt auf, wenn ein Mitarbeiter eingestellt, entlassen oder in den Ruhestand versetzt wird oder seinen Beschäftigungsstatus auf andere Weise ändert.  | 
| UNTERNEHMENSÜBERNAHME | Tritt auf, wenn ein Unternehmen den Besitz der meisten oder aller Aktien oder Sachanlagen eines anderen Unternehmens erlangt, um die Kontrolle über dieses Unternehmen zu erlangen. | 
| INVESTITION\$1ALLGEMEIN | Tritt auf, wenn eine Person oder ein Unternehmen einen Vermögenswert mit der Aussicht auf future Einnahmen oder Wertsteigerungen kauft. | 
| UNTERNEHMENSZUSAMMENSCHLUSS | Tritt auf, wenn sich zwei oder mehr Unternehmen zu einer neuen juristischen Person zusammenschließen.  | 
| BÖRSENGANG | Ein Börsengang (IPO) von Aktien eines privaten Unternehmens an die Öffentlichkeit im Rahmen einer neuen Aktienemission. | 
| RIGHTS\$1ISSUE | Eine Gruppe von Rechten, die bestehenden Aktionären angeboten werden, im Verhältnis zu ihren bestehenden Beständen zusätzliche Aktien, sogenannte Bezugsrechte, zu erwerben. | 
| SEKUNDÄRES ANGEBOT | Ein Angebot von Wertpapieren durch einen Aktionär eines Unternehmens.  | 
| SHELF\$1OFFERING | Eine Bestimmung der Securities and Exchange Commission (SEC), die es einem Emittenten ermöglicht, eine neue Wertpapieremission zu registrieren und Teile der Emission über einen bestimmten Zeitraum zu verkaufen, ohne das Wertpapier erneut zu registrieren oder Strafen zu verhängen. Wird auch als Regalregistrierung bezeichnet. | 
| TENDER\$1OFFERING | Ein Angebot zum Kauf einiger oder aller Anteile der Aktionäre eines Unternehmens. | 
| STOCK\$1SPLIT | Tritt auf, wenn der Verwaltungsrat eines Unternehmens die Anzahl der ausstehenden Aktien erhöht, indem er mehr Aktien an die derzeitigen Aktionäre ausgibt. Dieses Ereignis gilt auch für umgekehrte Aktiensplits. | 

### Arten von Argumenten
<a name="events-argument-types"></a>


**Argumenttypen für KONKURS**  

| Argumenttyp | Description | 
| --- | --- | 
| FILER | Die Person oder Firma, die den Konkurs anmeldet.  | 
| DATE | Das Datum oder die Uhrzeit der Insolvenz. | 
| ORT | Ort oder Einrichtung, an dem (oder dem Ort in der Nähe) der Konkurs stattgefunden hat. | 


**Argumenttypen für BESCHÄFTIGUNG**  

| Typ | Description | 
| --- | --- | 
| MITARBEITER | Die Person, die bei einem Unternehmen angestellt ist. | 
| EMPLOYEE\$1TITLE | Der Titel des Mitarbeiters. | 
| ARBEITGEBER | Die Person oder Firma, die den Arbeitnehmer beschäftigt. | 
| START\$1DATE | Das Datum oder die Uhrzeit des Beginns der Beschäftigung. | 
| ENDDATUM | Das Enddatum oder die Endzeit der Beschäftigung. | 


**Argumenttypen für CORPORATE\$1ACQUISTION, INVESTMENT\$1GENERAL**  

| Typ | Description | 
| --- | --- | 
| MENGE | Der mit der Transaktion verbundene monetäre Wert. | 
| BETEILIGUNGSUNTERNEHMEN | Die mit der Investition verbundene Person oder Firma. | 
| INVESTOR | Die Person oder das Unternehmen, die in den Vermögenswert investieren. | 
| DATE | Das Datum oder die Uhrzeit des Erwerbs oder der Investition. | 
| ORT | Ort, an dem (oder in nächster Nähe) die Akquisition oder Investition stattgefunden hat. | 


**Argumenttypen für CORPORATE\$1MERGER**  

| Typ | Description | 
| --- | --- | 
| DATE | Das Datum oder die Uhrzeit der Fusion. | 
| NEUE\$1FIRMA | Die neue juristische Person, die aus der Fusion hervorgegangen ist. | 
| TEILNEHMERIN | Das an der Fusion beteiligte Unternehmen. | 


**Argumenttypen für IPO, RIGHTS\$1ISSUE, SECONDARY\$1OFFERING, SHELF\$1OFFERING, TENDER\$1OFFERING**  

| Typ | Description | 
| --- | --- | 
| ABLAUFDATUM | Das Ablaufdatum oder die Uhrzeit des Angebots. | 
| INVESTOR | Die Person oder das Unternehmen, die in den Vermögenswert investieren. | 
| ANGEBOTSNEHMER | Die Person oder Firma, die das Angebot erhält. | 
| ANGEBOTSHÖHE | Der mit dem Angebot verbundene monetäre Wert. | 
| DATUM DES ANGEBOTS | Das Datum oder die Uhrzeit des Angebots. | 
| ANBIETER | Die Person oder Firma, die das Angebot initiiert. | 
| OFFEROR\$1TOTAL\$1VALUE | Der mit dem Angebot verbundene monetäre Gesamtwert. | 
| RECORD\$1DATE | Das Datum oder die Uhrzeit des Aufzeichnungsdatums des Angebots. | 
| SELLING\$1AGENT | Die Person oder Firma, die den Verkauf des Angebots erleichtert.  | 
| SHARE\$1PRICE | Der mit dem Aktienkurs verbundene monetäre Wert. | 
| SHARE\$1QUANTITY | Die Anzahl der mit dem Angebot verbundenen Aktien. | 
| VERSICHERER | Das Unternehmen, das an der Übernahme des Angebots beteiligt war. | 


**Argumenttypen für STOCK\$1SPLIT**  

| Typ | Description | 
| --- | --- | 
| FIRMA | Das Unternehmen, das Aktien des Aktiensplits ausgibt. | 
| DATE | Das Datum oder die Uhrzeit des Aktiensplits. | 
| SPLIT\$1RATIO | Das Verhältnis der erhöhten neuen Anzahl ausstehender Aktien zur aktuellen Anzahl von Aktien vor dem Aktiensplit.  | 

# Schlüsselphrasen
<a name="how-key-phrases"></a>

Eine *Schlüsselphrase* ist eine Zeichenfolge, die eine Nominalphrase enthält, die eine bestimmte Sache beschreibt. Es besteht im Allgemeinen aus einem Substantiv und den Modifikatoren, die es unterscheiden. Zum Beispiel ist „Tag“ ein Substantiv; „ein schöner Tag“ ist eine Nominalphrase, die einen Artikel („a“) und ein Adjektiv („schön“) enthält. Jede Schlüsselphrase enthält eine Punktzahl, die angibt, wie sicher Amazon Comprehend ist, dass es sich bei der Zeichenfolge um eine Nominalphrase handelt. Anhand der Punktzahl können Sie feststellen, ob die Erkennungssicherheit für Ihre Anwendung ausreichend hoch ist.

Operationen zur Erkennung von Schlüsselbegriffen können in jeder der von Amazon Comprehend unterstützten Hauptsprachen ausgeführt werden. Alle Dokumente müssen in derselben Sprache verfasst sein.

Sie können eine der folgenden Operationen verwenden, um Schlüsselausdrücke in einem Dokument oder einer Reihe von Dokumenten zu erkennen.
+ [DetectKeyPhrases](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectKeyPhrases.html)
+  [BatchDetectKeyPhrases](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectKeyPhrases.html)
+  [StartKeyPhrasesDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartKeyPhrasesDetectionJob.html)

Die Operationen geben eine Liste von [KeyPhrase](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_KeyPhrase.html)Objekten zurück, eines für jede Schlüsselphrase im Dokument. Die `BatchDetectKeyPhrases` Operation gibt eine `KeyPhrase` Objektliste zurück, eines für jedes Dokument im Stapel. Der `StartKeyPhrasesDetectionJob` Vorgang startet einen asynchronen Auftrag, der eine Datei mit einer Liste von `KeyPhrase` Objekten für jedes Dokument im Auftrag erstellt.

Das folgende Beispiel ist die Antwort des `DetectKeyPhrases` Vorgangs.

```
{
    "LanguageCode": "en",
    "KeyPhrases": [
        {
            "Text": "today",
            "Score": 0.89,
            "BeginOffset": 14,
            "EndOffset": 19
        },
        {
            "Text": "Seattle",
            "Score": 0.91,
            "BeginOffset": 23,
            "EndOffset": 30
        }
    ]
}
```

# Vorherrschende Sprache
<a name="how-languages"></a>

Sie können Amazon Comprehend verwenden, um Text auf die dominante Sprache hin zu untersuchen. Amazon Comprehend identifiziert die Sprache anhand von Kennungen aus RFC 5646. Wenn es eine aus zwei Buchstaben bestehende ISO 639-1-ID gibt, mit einem regionalen Untertag, falls erforderlich, wird diese verwendet. Andernfalls verwendet es den 3-Buchstaben-Code nach ISO 639-2. 

*Weitere Informationen zu RFC 5646 finden Sie unter [Tags zur Identifizierung von Sprachen](https://tools.ietf.org/html/rfc5646) auf der IETF Tools-Website.*

Die Antwort enthält eine Punktzahl, die angibt, wie sicher Amazon Comprehend ist, dass eine bestimmte Sprache die dominierende Sprache im Dokument ist. Jede Punktzahl ist unabhängig von den anderen Ergebnissen. Die Punktzahl gibt nicht an, dass eine Sprache einen bestimmten Prozentsatz eines Dokuments ausmacht.

Wenn ein langes Dokument (z. B. ein Buch) mehrere Sprachen enthält, können Sie das lange Dokument in kleinere Teile aufteilen und den `DetectDominantLanguage` Vorgang für die einzelnen Teile ausführen. Anschließend können Sie die Ergebnisse zusammenfassen, um den prozentualen Anteil der einzelnen Sprachen im längeren Dokument zu ermitteln.

Die Spracherkennung von Amazon Comprehend hat die folgenden Einschränkungen:
+ Die phonetische Spracherkennung wird nicht unterstützt. Beispielsweise erkennt es „Arigato“ nicht als Japanisch oder „Nihao“ als Chinesisch.
+ Möglicherweise ist es schwierig, nahe beieinander liegende Sprachkombinationen wie Indonesisch und Malaiisch oder Bosnisch, Kroatisch und Serbisch zu unterscheiden.
+ Die besten Ergebnisse erzielen Sie, wenn Sie einen Eingabetext mit mindestens 20 Zeichen angeben.

Amazon Comprehend erkennt die folgenden Sprachen.


| Code | Sprache | 
| --- | --- | 
| af | Afrikaans | 
| am | Amharisch | 
| ar | Arabisch | 
| as | Assamesisch | 
| az | Aserbaidschanisch | 
| ba | Baschkirisch | 
| be | Belarussisch | 
| bn | Bengalisch | 
| bs | Bosnisch | 
| bg | Bulgarisch | 
| ca | Katalanisch | 
| ceb | Cebuano | 
| cs | Tschechisch | 
| cv | Tschuwaschisch | 
| cy | Walisisch | 
| da | Dänisch | 
| de | Deutsch | 
| el | Griechisch | 
| en | Englisch | 
| eo | Esperanto | 
| et | Estnisch | 
| eu | Baskisch | 
| fa | Persisch | 
| fi | Finnisch | 
| fr | Französisch | 
| gd | Schottisch-Gälisch | 
| ga | Irisch | 
| gl | Galizisch | 
| gu | Gujarati | 
| ht | Haitisch | 
| he | Hebräisch | 
| ha | Hausa | 
| hi | Hindi | 
| hr | Kroatisch | 
| hu | Ungarisch | 
| hy | Armenisch | 
| ilo | Iloko | 
| id | Indonesisch | 
| is | Isländisch | 
| it | Italienisch | 
| jv | Javanesisch | 
| ja | Japanisch | 
| kn | Kannada | 
| ka | Georgisch | 
| kk | Kasachisch | 
| km | Zentral-Khmer | 
| ky | Kirgisisch | 
| ko | Koreanisch | 
| ku | Kurdisch | 
| lo | Laotisch | 
| la | Latein | 
| lv | Lettisch | 
| lt | Litauisch | 
| lb | Luxemburgisch | 
| ml | Malayalam | 
| mt | Maltesisch | 
| mr | Marathi | 
| mk | Mazedonisch | 
| mg | Madagassisch | 
| mn | Mongolisch | 
| ms | Malaiisch | 
| my | birmanisch | 
| ne | Nepali | 
| new | Newari | 
| nl | Niederländisch | 
| no | Norwegisch | 
| or | Oriya | 
| om | Oromo | 
| pa | Pandschabi | 
| pl | Polnisch | 
| pt | Portugiesisch | 
| ps | Pushto | 
| qu | Quechua | 
| ro | Rumänisch | 
| ru | Russisch | 
| sa | Sanskrit | 
| si | Singhalesisch | 
| sk | Slowakisch | 
| sl | Slowenisch | 
| sd | Sindhi | 
| so | Somali | 
| es | Spanisch | 
| sq | Albanisch | 
| sr | Serbisch | 
| su | Sundanesisch | 
| sw | Swahili | 
| sv | Schwedisch | 
| ta | Tamil | 
| tt | Tatarisch | 
| te | Telugu | 
| tg | Tadschikisch | 
| tl | Tagalog | 
| th | Thailändisch | 
| tk | Turkmenisch | 
| tr | Türkisch | 
| ug | Uigurisch | 
| uk | Ukrainisch | 
| ur | Urdu | 
| uz | Usbekisch | 
| vi | Vietnamesisch | 
| yi | Jiddisch | 
| yo | Yoruba | 
| zh | Chinesisch (vereinfacht) | 
| zh-TW | Chinesisch (traditionell) | 

Sie können eine der folgenden Operationen verwenden, um die dominante Sprache in einem Dokument oder einer Reihe von Dokumenten zu ermitteln.
+  [DetectDominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectDominantLanguage.html)
+  [BatchDetectDominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectDominantLanguage.html)
+  [StartDominantLanguageDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartDominantLanguageDetectionJob.html)

Die `DetectDominantLanguage` Operation gibt ein [DominantLanguage](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DominantLanguage.html)Objekt zurück. Die `BatchDetectDominantLanguage` Operation gibt eine Liste von `DominantLanguage` Objekten zurück, eines für jedes Dokument im Stapel. Der `StartDominantLanguageDetectionJob` Vorgang startet einen asynchronen Auftrag, der eine Datei mit einer `DominantLanguage` Objektliste erstellt, eine für jedes Dokument im Auftrag.

Das folgende Beispiel ist die Antwort des `DetectDominantLanguage` Vorgangs.

```
{
    "Languages": [
        {
            "LanguageCode": "en",
            "Score": 0.9793661236763
        }
    ]
}
```

# Stimmung
<a name="how-sentiment"></a>

Verwenden Sie Amazon Comprehend, um die Stimmung von Inhalten in UTF-8-codierten Textdokumenten zu ermitteln. Sie können beispielsweise die Stimmungsanalyse verwenden, um die Stimmung in Kommentaren zu einem Blogbeitrag zu ermitteln, um festzustellen, ob Ihren Lesern der Beitrag gefallen hat.

Sie können die Stimmung für Dokumente in jeder der von Amazon Comprehend unterstützten Hauptsprachen ermitteln. Alle Dokumente in einem Job müssen in derselben Sprache verfasst sein.

Die Stimmungsbestimmung gibt die folgenden Werte zurück:
+ **Positiv** — Der Text drückt eine insgesamt positive Stimmung aus.
+ **Negativ** — Der Text drückt eine insgesamt negative Stimmung aus.
+ **Gemischt** — Der Text drückt sowohl positive als auch negative Gefühle aus.
+ **Neutral** — Der Text drückt weder positive noch negative Gefühle aus.

Sie können jede der folgenden API-Operationen verwenden, um die Stimmung eines Dokuments oder einer Reihe von Dokumenten zu ermitteln.
+ [DetectSentiment](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectSentiment.html)
+  [BatchDetectSentiment](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_BatchDetectSentiment.html)
+  [StartSentimentDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartSentimentDetectionJob.html)

Die Operationen geben die wahrscheinlichste Stimmung für den Text und die Punktzahlen für jede der Stimmungen zurück. Die Punktzahl stellt die Wahrscheinlichkeit dar, dass die Stimmung korrekt erkannt wurde. Im folgenden Beispiel ist es beispielsweise zu 95 Prozent wahrscheinlich, dass der Text eine `Positive` Stimmung enthält. Es besteht eine Wahrscheinlichkeit von weniger als 1 Prozent, dass der Text eine `Negative` Stimmung enthält. Sie können den verwenden`SentimentScore`, um festzustellen, ob die Genauigkeit der Erkennung den Anforderungen Ihrer Anwendung entspricht.

Die `DetectSentiment` Operation gibt ein Objekt zurück, das die erkannte Stimmung und ein [SentimentScore](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_SentimentScore.html)Objekt enthält. Die `BatchDetectSentiment` Operation gibt eine Liste von Stimmungen und `SentimentScore` Objekten zurück, eine für jedes Dokument im Stapel. Der `StartSentimentDetectionJob` Vorgang startet einen asynchronen Auftrag, der eine Datei mit einer Liste von Stimmungen und `SentimentScore` Objekten erzeugt, eine für jedes Dokument im Auftrag.

Das folgende Beispiel zeigt die Antwort des Vorgangs`DetectSentiment`.

```
{
"SentimentScore": {
        "Mixed": 0.030585512690246105,
        "Positive": 0.94992071056365967,
        "Neutral": 0.0141543131828308,
        "Negative": 0.00893945890665054
    },
    "Sentiment": "POSITIVE",
    "LanguageCode": "en"
}
```

# Gezielte Stimmung
<a name="how-targeted-sentiment"></a>

Die *gezielte Stimmungslage* bietet ein detailliertes Verständnis der Stimmungen, die mit bestimmten Entitäten (wie Marken oder Produkten) in Ihren Eingabedokumenten verknüpft sind. 

Der Unterschied zwischen zielgerichteter Stimmung und [Stimmung](how-sentiment.md) besteht in der Granularität der Ausgabedaten. Die Stimmungsanalyse bestimmt die vorherrschende Stimmung für jedes Eingabedokument, liefert jedoch keine Daten für weitere Analysen. Eine gezielte Stimmungsanalyse bestimmt die Stimmung auf Entitätsebene für bestimmte Entitäten in jedem Eingabedokument. Sie können die Ausgabedaten analysieren, um die spezifischen Produkte und Dienstleistungen zu ermitteln, die positives oder negatives Feedback erhalten.

In einer Reihe von Restaurantkritiken gibt ein Kunde beispielsweise die folgende Bewertung ab: „Die Tacos waren köstlich und das Personal war freundlich.“ Die Analyse dieser Bewertung führt zu folgenden Ergebnissen: 
+ Die **Stimmungsanalyse** bestimmt, ob die allgemeine Stimmung jeder Restaurantbewertung positiv, negativ, neutral oder gemischt ist. In diesem Beispiel ist die allgemeine Stimmung positiv. 
+ Durch eine **gezielte Stimmungsanalyse** wird die Stimmung für Entitäten und Eigenschaften des Restaurants bestimmt, die Kunden in den Bewertungen erwähnen. In diesem Beispiel äußerte sich der Kunde positiv zu „Tacos“ und „Mitarbeitern“. 

Targeted Sentiment liefert für jeden Analysejob die folgenden Ergebnisse:
+ Identität der in den Dokumenten genannten Unternehmen.
+ Klassifizierung des Unternehmenstyps für jede erwähnte Entität.
+ Die Stimmung und ein Stimmungswert für jede Erwähnung der Entität.
+ Gruppen von Erwähnungen (Koreferenzgruppen), die einer einzelnen Entität entsprechen.

Sie können die [Konsole](get-started-console.md) oder die [API](using-api-targeted-sentiment.md) verwenden, um eine gezielte Stimmungsanalyse durchzuführen. Die Konsole und die API unterstützen Echtzeitanalysen und asynchrone Analysen für gezielte Stimmungsanalysen.

 Amazon Comprehend unterstützt gezielte Stimmungen für Dokumente in englischer Sprache. 

Weitere Informationen zu Targeted Sentiment, einschließlich eines Tutorials, finden Sie unter [Extrahieren granularer Stimmungen in Text mit Amazon Comprehend Targeted Sentiment im Machine Learning-Blog](https://aws.amazon.com/blogs/machine-learning/extract-granular-sentiment-in-text-with-amazon-comprehend-targeted-sentiment/). AWS 

**Topics**
+ [Entity-Typen](#how-targeted-sentiment-entities)
+ [Gruppe, die gemeinsam referenziert](#how-targeted-sentiment-values)
+ [Organisation der Ausgabedatei](#how-targeted-sentiment-output)
+ [Analyse in Echtzeit mit der Konsole](#how-targeted-sentiment-console)
+ [Beispiel für eine gezielte Stimmungsausgabe](#how-targeted-sentiment-example)

## Entity-Typen
<a name="how-targeted-sentiment-entities"></a>

Targeted Sentiment identifiziert die folgenden Entitätstypen. Es weist den Entitätstyp OTHER zu, wenn die Entität keiner anderen Kategorie angehört. Jede Entität, die in der Ausgabedatei erwähnt wird, enthält den Entitätstyp, z. B. `"Type": "PERSON"`


**Definitionen des Entitätstyps**  

| Entitätstyp | Definition | 
| --- | --- | 
| PERSON | Beispiele hierfür sind Personen, Personengruppen, Spitznamen, fiktive Charaktere und Tiernamen. | 
| LOCATION | Geografische Standorte wie Länder, Städte, Bundesstaaten, Adressen, geologische Formationen, Gewässer, Naturdenkmäler und astronomische Standorte. | 
| ORGANISATION | Beispiele hierfür sind Regierungen, Unternehmen, Sportmannschaften und Religionen. | 
| EINRICHTUNG | Gebäude, Flughäfen, Autobahnen, Brücken und andere dauerhafte künstliche Bauwerke und Immobilienverbesserungen. | 
| MARKE | Organisation, Gruppe oder Hersteller eines bestimmten Handelsartikels oder einer bestimmten Produktlinie. | 
| KOMMERZIELLER ARTIKEL | Alle nicht generischen käuflichen oder käuflichen Artikel, einschließlich Fahrzeuge und große Produkte, für die nur ein Artikel hergestellt wurde. | 
| FILM | Ein Film oder eine Fernsehsendung. Entität kann der vollständige Name, ein Spitzname oder ein Untertitel sein. | 
| MUSIK | Ein Lied, ganz oder teilweise. Auch Sammlungen einzelner Musikkreationen, wie z. B. ein Album oder eine Anthologie. | 
| BUCH | Ein Buch, das professionell oder im Eigenverlag veröffentlicht wurde. | 
| SOFTWARE | Ein offiziell veröffentlichtes Softwareprodukt. | 
| SPIEL | Ein Spiel wie Videospiele, Brettspiele, gewöhnliche Spiele oder Sport. | 
| PERSONAL\$1TITEL | Offizielle Titel und Ehrungen wie Präsident, PhD oder Dr. | 
| EREIGNIS | Beispiele hierfür sind Festivals, Konzerte, Wahlen, Kriege, Konferenzen und Werbeveranstaltungen. | 
| DATE | Jeder Verweis auf ein Datum oder eine Uhrzeit, ob spezifisch oder allgemein, ob absolut oder relativ. | 
| MENGE | Alle Maße zusammen mit ihren Einheiten (Währung, Prozent, Zahl, Byte usw.). | 
| ATTRIBUTE | Ein Attribut, Merkmal oder Merkmal einer Entität, z. B. die „Qualität“ eines Produkts, der „Preis“ eines Telefons oder die „Geschwindigkeit“ einer CPU. | 
| OTHER | Entitäten, die keiner der anderen Kategorien angehören. | 

## Gruppe, die gemeinsam referenziert
<a name="how-targeted-sentiment-values"></a>

Eine gezielte Stimmungsabstimmung identifiziert Gruppen, auf die in jedem Eingabedokument verwiesen wird. Eine Koreferenzgruppe ist eine Gruppe von Erwähnungen in einem Dokument, die einer realen Entität entsprechen.

**Example**  
Im folgenden Beispiel einer Kundenrezension ist „Spa“ die Entität, die den Entitätstyp hat. `FACILITY` Das Unternehmen hat zwei zusätzliche Erwähnungen als Pronomen („es“).   

![\[Gezielte Stimmungskoreferenzgruppe.\]](http://docs.aws.amazon.com/de_de/comprehend/latest/dg/images/gs-console-targeted-sentiment4.png)


## Organisation der Ausgabedatei
<a name="how-targeted-sentiment-output"></a>

Der gezielte Stimmungsanalyse-Job erstellt eine JSON-Textausgabedatei. Die Datei enthält ein JSON-Objekt für jedes der Eingabedokumente. Jedes JSON-Objekt enthält die folgenden Felder:
+ **Entitäten** — Eine Reihe von Entitäten, die im Dokument gefunden wurden. 
+ **Datei** — Der Dateiname des Eingabedokuments.
+ **Zeile** — Wenn es sich bei der Eingabedatei um ein Dokument pro Zeile handelt, enthält **Entities** die Zeilennummer des Dokuments in der Datei.

**Anmerkung**  
Wenn das gezielte Sentiment keine Entitäten im Eingabetext identifiziert, wird als Ergebnis „Entities“ ein leeres Array zurückgegeben.

Das folgende Beispiel zeigt **Entitäten** für eine Eingabedatei mit drei Eingabezeilen. Das Eingabeformat ist **ONE\$1DOC\$1PER\$1LINE, sodass jede Eingabezeile** ein Dokument ist.

```
{ "Entities":[
    {entityA},
    {entityB},
    {entityC}
    ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 0
}
{ "Entities": [
    {entityD},
    {entityE}
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 1
}
{ "Entities": [
    {entityF},
    {entityG}
    ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 2
}
```



Eine Entität im **Entitäten-Array** umfasst eine logische Gruppierung (eine sogenannte Koreferenzgruppe) der im Dokument erkannten Entity-Erwähnungen. Jede Entität hat die folgende Gesamtstruktur:

```
{"DescriptiveMentionIndex": [0],
  "Mentions": [
     {mentionD},
     {mentionE}
    ]
}
```

Eine Entität enthält die folgenden Felder:
+ **Erwähnungen** — Eine Reihe von Erwähnungen der Entität im Dokument. Das Array stellt eine Koreferenzgruppe dar. Ein Beispiel finden Sie unter [Gruppe, die gemeinsam referenziert](#how-targeted-sentiment-values). Die Reihenfolge der Erwähnungen im Array Erwähnungen entspricht der Reihenfolge ihrer Position (Offset) im Dokument. Jede Erwähnung beinhaltet den Stimmungs- und Gruppenwert für diese Erwähnung. Die Gruppenbewertung gibt an, mit welcher Sicherheit diese Erwähnungen derselben Entität angehören.
+ **DescriptiveMentionIndex**— Ein oder mehrere Indizes im Mentions-Array, das den besten Namen für die Entitätsgruppe liefert. Eine Entität könnte beispielsweise drei Erwähnungen mit den **Textwerten** „ABC Hotel“, „ABC Hotel“ und „es“ haben. Der beste Name ist „ABC Hotel“ mit einem DescriptiveMentionIndex Wert von [0,1]. 

Jede Erwähnung umfasst die folgenden Felder
+ **BeginOffset**— Der Offset im Dokumenttext, an dem die Erwähnung beginnt.
+ **EndOffset**— Der Offset im Dokumenttext, an dem die Erwähnung endet.
+ **GroupScore**— Die Gewissheit, dass sich alle in der Gruppe genannten Unternehmen auf dasselbe Unternehmen beziehen.
+ **Text** — Der Text im Dokument, der die Entität identifiziert.
+ **Typ** — Der Typ der Entität. Amazon Comprehend unterstützt eine Vielzahl von [Entitätstypen](#how-targeted-sentiment-entities).
+ **Bewertung** — Modellieren Sie die Gewissheit, dass die Entität relevant ist. Der Wertebereich reicht von Null bis Eins, wobei Eins die höchste Konfidenz darstellt.
+ **MentionSentiment**— Enthält die Stimmung und den Stimmungswert für die Erwähnung.
+ **Stimmung — Die Stimmung**, die durch die Erwähnung ausgelöst wurde. Zu den Werten gehören: POSITIV, NEUTRAL, NEGATIV und GEMISCHT. 
+ **SentimentScore**— Verleiht dem Modell Sicherheit für jedes der möglichen Stimmungen. Der Wertebereich reicht von Null bis Eins, wobei Eins die höchste Konfidenz darstellt.

Die **Stimmungswerte** haben die folgende Bedeutung:
+ **Positiv** — Die erwähnte Entität drückt eine positive Stimmung aus.
+ **Negativ** — Die Erwähnung der Entität drückt eine negative Stimmung aus.
+ **Gemischt** — Die Erwähnung der Entität drückt sowohl positive als auch negative Gefühle aus.
+ **Neutral** — Die Erwähnung der Entität drückt weder positive noch negative Gefühle aus.

Im folgenden Beispiel hat eine Entität nur eine Erwähnung im Eingabedokument, also DescriptiveMentionIndex ist die Null (die erste Erwähnung im Array Erwähnungen). Die identifizierte Entität ist eine PERSON mit dem Namen „I“. Der Stimmungswert ist neutral.

```
{"Entities":[
  {
    "DescriptiveMentionIndex": [0],
    "Mentions": [
      {
       "BeginOffset": 0,
       "EndOffset": 1,
       "Score": 0.999997,
       "GroupScore": 1,
       "Text": "I",
       "Type": "PERSON",
       "MentionSentiment": {
         "Sentiment": "NEUTRAL",
         "SentimentScore": {
           "Mixed": 0,
           "Negative": 0,
           "Neutral": 1,
           "Positive": 0
         }
       }
     }
   ]
  }
 ],
 "File": "Input.txt",
 "Line": 0
}
```

## Analyse in Echtzeit mit der Konsole
<a name="how-targeted-sentiment-console"></a>

Sie können die Amazon Comprehend Comprehend-Konsole für die Ausführung [Gezielte Stimmung](realtime-console-analysis.md#realtime-analysis-console-targeted-sentiment) in Echtzeit verwenden. **Verwenden Sie den Beispieltext oder fügen Sie Ihren eigenen Text in das Eingabefeld ein und wählen Sie dann Analysieren.**

Im Bereich **Einblicke** werden in der Konsole drei Ansichten der gezielten Stimmungsanalyse angezeigt:
+ **Analysierter Text** — Zeigt den analysierten Text an und unterstreicht jede Entität. Die Farbe der Unterstreichung gibt den Stimmungswert (positiv, neutral, negativ oder gemischt) an, den die Analyse der Entität zugewiesen hat. Die Konsole zeigt die Farbzuordnungen in der oberen rechten Ecke des analysierten Textfeldes an. Wenn Sie den Mauszeiger über eine Entität bewegen, zeigt die Konsole ein Popup-Fenster mit Analysewerten (Entitätstyp, Stimmungswert) für die Entität an.
+ **Ergebnisse** — Zeigt eine Tabelle an, die eine Zeile für jede im Text identifizierte Entitätserwähnung enthält. Für jede Entität zeigt die Tabelle die [Entität](#how-targeted-sentiment-entities) und die Bewertung der Entität. Die Zeile enthält auch die primäre Stimmung und die Punktzahl für jeden Stimmungswert. Wenn dieselbe Entität mehrfach erwähnt wird, werden diese Erwähnungen in der Tabelle als zusammenklappbare Gruppe von Zeilen angezeigt[Gruppe, die gemeinsam referenziert](#how-targeted-sentiment-values), die der Hauptentität zugeordnet sind. 

  Wenn Sie in der **Ergebnistabelle** mit der Maus auf eine Entitätszeile zeigen, hebt die Konsole die Erwähnung der Entität im Bereich **Analysierter Text** hervor.
+ **Anwendungsintegration** — Zeigt die Parameterwerte der API-Anfrage und die Struktur des in der API-Antwort zurückgegebenen JSON-Objekts an. Eine Beschreibung der Felder im JSON-Objekt finden Sie unter[Organisation der Ausgabedatei](#how-targeted-sentiment-output).

### Beispiel für eine Echtzeitanalyse auf der Konsole
<a name="targeted-sentiment-example"></a>

In diesem Beispiel wird der folgende Text als Eingabe verwendet. Dies ist der Standardeingabetext, den die Konsole bereitstellt.

```
Hello Zhang Wei, I am John. Your AnyCompany Financial Services, LLC credit card account 1111-0000-1111-0008 has a minimum payment 
  of $24.53 that is due by July 31st. Based on your autopay settings, we will withdraw your payment on the due date from your 
  bank account number XXXXXX1111 with the routing number XXXXX0000. 
  Customer feedback for Sunshine Spa, 123 Main St, Anywhere. Send comments to Alice at sunspa@mail.com. 
  I enjoyed visiting the spa. It was very comfortable but it was also very expensive. The amenities were ok but the service made 
  the spa a great experience.
```

Der **Bereich Analysierter Text** zeigt die folgende Ausgabe für dieses Beispiel. Zeigen Sie mit der Maus auf den Text`Zhang Wei`, um das Popup-Fenster für diese Entität anzuzeigen.

![\[Text mit gezielter Stimmungsanalyse.\]](http://docs.aws.amazon.com/de_de/comprehend/latest/dg/images/gs-console-targeted-sentiment2.png)


Die **Ergebnistabelle** enthält zusätzliche Details zu jeder Entität, einschließlich der Entitätsbewertung, der primären Stimmung und der Punktzahl für jede Stimmung. 

![\[Tabelle mit Ergebnissen für gezielte Stimmungen.\]](http://docs.aws.amazon.com/de_de/comprehend/latest/dg/images/gs-console-targeted-sentiment3.png)


In unserem Beispiel erkennt die gezielte Stimmungsanalyse, dass jede Erwähnung **Ihrer** Person im Eingabetext ein Verweis auf die Personenentität **Zhang** Wei ist. In der Konsole werden diese Erwähnungen als Gruppe zusammenklappbarer Zeilen angezeigt, die der Hauptentität zugeordnet sind.

![\[Tabelle mit Ergebnissen für gezielte Stimmungen.\]](http://docs.aws.amazon.com/de_de/comprehend/latest/dg/images/gs-console-targeted-sentiment5.png)


Im Bereich „**Anwendungsintegration**“ wird das von der DetectTargetedSentiment API generierte JSON-Objekt angezeigt. Im folgenden Abschnitt finden Sie ein vollständiges Beispiel.

## Beispiel für eine gezielte Stimmungsausgabe
<a name="how-targeted-sentiment-example"></a>

Das folgende Beispiel zeigt die Ausgabedatei eines Auftrags zur gezielten Stimmungsanalyse. Die Eingabedatei besteht aus drei einfachen Dokumenten:

```
The burger was very flavorful and the burger bun was excellent. However, customer service was slow.
My burger was good, and it was warm. The burger had plenty of toppings.
The burger was cooked perfectly but it was cold. The service was OK.
```

Die gezielte Stimmungsanalyse dieser Eingabedatei erzeugt die folgende Ausgabe.

```
  {"Entities":[
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 4,
          "EndOffset": 10,
          "Score": 0.999991,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 0,
              "Positive": 1
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 38,
          "EndOffset": 44,
          "Score": 1,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0.000005,
              "Negative": 0.000005,
              "Neutral": 0.999591,
              "Positive": 0.000398
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 45,
          "EndOffset": 48,
          "Score": 0.961575,
          "GroupScore": 1,
          "Text": "bun",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000327,
              "Negative": 0.000286,
              "Neutral": 0.050269,
              "Positive": 0.949118
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 73,
          "EndOffset": 89,
          "Score": 0.999988,
          "GroupScore": 1,
          "Text": "customer service",
          "Type": "ATTRIBUTE",
          "MentionSentiment": {
            "Sentiment": "NEGATIVE",
            "SentimentScore": {
              "Mixed": 0.000001,
              "Negative": 0.999976,
              "Neutral": 0.000017,
              "Positive": 0.000006
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 0
}
{
  "Entities": [
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 0,
          "EndOffset": 2,
          "Score": 0.99995,
          "GroupScore": 1,
          "Text": "My",
          "Type": "PERSON",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 1,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0,
        2
      ],
      "Mentions": [
        {
          "BeginOffset": 3,
          "EndOffset": 9,
          "Score": 0.999999,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000002,
              "Negative": 0.000001,
              "Neutral": 0.000003,
              "Positive": 0.999994
            }
          }
        },
        {
          "BeginOffset": 24,
          "EndOffset": 26,
          "Score": 0.999756,
          "GroupScore": 0.999314,
          "Text": "it",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0.000003,
              "Neutral": 0.000006,
              "Positive": 0.999991
            }
          }
        },
        {
          "BeginOffset": 41,
          "EndOffset": 47,
          "Score": 1,
          "GroupScore": 0.531342,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.000215,
              "Negative": 0.000094,
              "Neutral": 0.00008,
              "Positive": 0.999611
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 52,
          "EndOffset": 58,
          "Score": 0.965462,
          "GroupScore": 1,
          "Text": "plenty",
          "Type": "QUANTITY",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 1,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 62,
          "EndOffset": 70,
          "Score": 0.998353,
          "GroupScore": 1,
          "Text": "toppings",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0,
              "Neutral": 0.999964,
              "Positive": 0.000036
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 1
}
{
  "Entities": [
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 4,
          "EndOffset": 10,
          "Score": 1,
          "GroupScore": 1,
          "Text": "burger",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "POSITIVE",
            "SentimentScore": {
              "Mixed": 0.001515,
              "Negative": 0.000822,
              "Neutral": 0.000243,
              "Positive": 0.99742
            }
          }
        },
        {
          "BeginOffset": 36,
          "EndOffset": 38,
          "Score": 0.999843,
          "GroupScore": 0.999661,
          "Text": "it",
          "Type": "OTHER",
          "MentionSentiment": {
            "Sentiment": "NEGATIVE",
            "SentimentScore": {
              "Mixed": 0,
              "Negative": 0.999996,
              "Neutral": 0.000004,
              "Positive": 0
            }
          }
        }
      ]
    },
    {
      "DescriptiveMentionIndex": [
        0
      ],
      "Mentions": [
        {
          "BeginOffset": 53,
          "EndOffset": 60,
          "Score": 1,
          "GroupScore": 1,
          "Text": "service",
          "Type": "ATTRIBUTE",
          "MentionSentiment": {
            "Sentiment": "NEUTRAL",
            "SentimentScore": {
              "Mixed": 0.000033,
              "Negative": 0.000089,
              "Neutral": 0.993325,
              "Positive": 0.006553
            }
          }
        }
      ]
    }
  ],
  "File": "TargetSentimentInputDocs.txt",
  "Line": 2
}
  }
```

# Syntaxanalyse
<a name="how-syntax"></a>

Verwenden Sie die Syntaxanalyse, um die Wörter aus dem Dokument zu analysieren und den Wortteil oder die syntaktische Funktion für jedes Wort im Dokument zurückzugeben. Sie können die Substantive, Verben, Adjektive usw. in Ihrem Dokument identifizieren. Verwenden Sie diese Informationen, um den Inhalt Ihrer Dokumente besser zu verstehen und die Beziehung der Wörter im Dokument zu verstehen.

Sie können beispielsweise in einem Dokument nach den Substantiven suchen und dann nach den Verben suchen, die sich auf diese Substantive beziehen. In einem Satz wie „Meine Großmutter hat ihre Couch umgezogen“ können Sie die Substantive „Großmutter“ und „Couch“ sowie das Verb „umgezogen“ sehen. Sie können diese Informationen verwenden, um Anwendungen zur Analyse von Text auf Wortkombinationen zu erstellen, an denen Sie interessiert sind.

Um die Analyse zu starten, analysiert Amazon Comprehend den Quelltext, um die einzelnen Wörter im Text zu finden. Nachdem der Text analysiert wurde, wird jedem Wort der Wortteil zugewiesen, den es im Quelltext verwendet.

Amazon Comprehend kann die folgenden Wortarten identifizieren. 


| Token | Teil der Rede | 
| --- | --- | 
| ADJ | Adjektiv Wörter, die normalerweise Substantive modifizieren. | 
| ADP | Ablagerung Der Kopf einer Präpositional- oder Postpositionalphrase. | 
| ADV | Adverb Wörter, die normalerweise Verben modifizieren. Sie können auch Adjektive und andere Adverbien modifizieren. | 
| AUX | Hilfsmittel Funktionswörter, die das Verb einer Verbphrase begleiten. | 
| CCONJ | Koordinierende Konjunktion Eine koordinierende Konjunktion verbindet Wörter, Ausdrücke oder Klauseln in einem Satz, ohne sie einander unterzuordnen. | 
| CONJ | Konjunktion Eine Konjunktion verbindet Wörter, Phrasen oder Klauseln in einem Satz. | 
| DET | Determinator Artikel und andere Wörter, die eine bestimmte Nominalphrase spezifizieren. | 
| INTJ | Zwischenruf Wörter, die als Ausruf oder Teil eines Ausrufs verwendet werden. | 
| SUBSTANTIV | Substantiv Wörter, die eine Person, einen Ort, eine Sache, ein Tier oder eine Idee beschreiben. | 
| ZAHL | Ziffer Wörter, in der Regel Determinanten, Adjektive oder Pronomen, die eine Zahl ausdrücken. | 
| O | Sonstige Wörter, denen kein Teil der Sprachkategorie zugewiesen werden kann. | 
| PART | Partikel Funktionswörter, die mit einem anderen Wort oder einer Phrase verknüpft sind, um eine Bedeutung zu vermitteln.  | 
| PRON | Pronomen Wörter, die Substantive oder Nominalphrasen ersetzen. | 
| PROPAN | EigennameEin Substantiv, das der Name einer bestimmten Person, eines bestimmten Ortes oder Objekts ist. | 
| PUNKT | Interpunktion Nicht alphabetische Zeichen, die Text abgrenzen. | 
| SCONJ | Untergeordnete Konjunktion Eine Konjunktion, die eine abhängige Klausel mit einem Satz verbindet. Ein Beispiel für eine untergeordnete Konjunktion ist „weil“. | 
| SYM | SymbolWortähnliche Entitäten wie das Dollarzeichen (\$1) oder mathematische Symbole. | 
| VERB | VerbWorte, die Ereignisse und Handlungen signalisieren. | 

Weitere Informationen zu den verschiedenen Wortarten finden Sie unter [Universal POS-Tags auf](http://universaldependencies.org/u/pos/) der *Universal Dependencies-Website*.

Die Operationen geben Tokens zurück, die das Wort und den Wortteil identifizieren, für den das Wort im Text steht. Jedes Token steht für ein Wort im Quelltext. Es gibt die Position des Wortes in der Quelle, den Wortteil, den das Wort im Text annimmt, die Gewissheit von Amazon Comprehend, dass der Wortteil korrekt identifiziert wurde, und das Wort, das aus dem Quelltext analysiert wurde, an.

Im Folgenden finden Sie die Struktur der Liste der Syntax-Tokens. Für jedes Wort im Dokument wird ein Syntaxtoken generiert. 

```
{
   "SyntaxTokens": [ 
      { 
         "BeginOffset": number,
         "EndOffset": number,
         "PartOfSpeech": { 
            "Score": number,
            "Tag": "string"
         },
         "Text": "string",
         "TokenId": number
      }
   ]
}
```

Jedes Token enthält die folgenden Informationen:
+ `BeginOffset`und `EndOffset` — Gibt die Position des Wortes im Eingabetext an. 
+ `PartOfSpeech`— Stellt zwei Informationen bereit: die, `Tag` die den Wortteil identifiziert, und die`Score`, die die Sicherheit von Amazon Comprehend Syntax darstellt, dass der Wortteil korrekt identifiziert wurde.
+ `Text`— Liefert das Wort, das identifiziert wurde.
+ `TokenId`— Stellt einen Bezeichner für das Token bereit. Der Bezeichner gibt die Position des Tokens in der Tokenliste an.

# Amazon Comprehend Benutzerdefiniert
<a name="concepts-custom"></a>

Sie können Amazon Comprehend an Ihre spezifischen Anforderungen anpassen, ohne über die erforderlichen Kenntnisse verfügen zu müssen, um auf maschinellem Lernen basierende NLP-Lösungen zu entwickeln. Mithilfe von automatischem maschinellem Lernen (AutoML) erstellt Comprehend Custom in Ihrem Namen maßgeschneiderte NLP-Modelle unter Verwendung der von Ihnen bereitgestellten Trainingsdaten.

**Verarbeitung von Eingabedokumenten** — Amazon Comprehend unterstützt die Verarbeitung von Dokumenten in einem Schritt zur benutzerdefinierten Klassifizierung und Erkennung benutzerdefinierter Entitäten. Sie können beispielsweise eine Mischung aus Nur-Text-Dokumenten und halbstrukturierten Dokumenten (wie PDF-Dokumenten, Microsoft Word-Dokumenten und Bildern) in einen benutzerdefinierten Analysejob eingeben. Weitere Informationen finden Sie unter [Bearbeitung von Dokumenten](idp.md).

**Benutzerdefinierte Klassifizierung** — Erstellen Sie benutzerdefinierte Klassifizierungsmodelle (Klassifikatoren), um Ihre Dokumente in Ihren eigenen Kategorien zu organisieren. Stellen Sie für jedes Klassifizierungslabel eine Reihe von Dokumenten bereit, die dieses Label am besten repräsentieren, und trainieren Sie Ihren Klassifizierer darauf. Nach dem Training kann ein Klassifikator für eine beliebige Anzahl unbeschrifteter Dokumentensätze verwendet werden. Sie können die Konsole verwenden, um ohne Code arbeiten zu können, oder das neueste SDK installieren. AWS Weitere Informationen finden Sie unter [Benutzerdefinierte Klassifizierung](how-document-classification.md).

**Benutzerdefinierte Entitätserkennung** — Erstellen Sie benutzerdefinierte Entitätserkennungsmodelle (Recognizer), die Text auf Ihre spezifischen Begriffe und auf Substantiven basierenden Ausdrücke analysieren können. Sie können Erkennungsprogramme darin schulen, Begriffe wie Versicherungsnummern oder Ausdrücke, die auf eine Kundeneskalation hindeuten, zu extrahieren. Um das Modell zu trainieren, stellen Sie eine Liste der Entitäten und eine Reihe von Dokumenten bereit, in denen sie enthalten sind. Sobald das Modell trainiert ist, können Sie Analyseaufträge für das Modell einreichen, um die zugehörigen benutzerdefinierten Entitäten zu extrahieren. Weitere Informationen finden Sie unter [Benutzerdefinierte Entitätserkennung](custom-entity-recognition.md). 

# Themenmodellierung
<a name="topic-modeling"></a>

**Anmerkung**  
Die Funktionen von Amazon Comprehend zur Themenmodellierung, zur Ereigniserkennung und zur sofortigen Sicherheitsklassifizierung stehen Neukunden ab dem 30. April 2026 nicht mehr zur Verfügung. Wenn Sie diese Funktionen mit neuen Konten nutzen möchten, tun Sie dies bitte vor diesem Datum. Für Konten, die diese Funktionen in den letzten 12 Monaten genutzt haben, sind keine Maßnahmen erforderlich. Weitere Informationen finden Sie unter [Änderung der Verfügbarkeit von Amazon Comprehend Comprehend-Funktionen](comprehend-availability-change.md).

Sie können Amazon Comprehend verwenden, um den Inhalt einer Sammlung von Dokumenten zu untersuchen, um gemeinsame Themen zu ermitteln. Sie können Amazon Comprehend beispielsweise eine Sammlung von Nachrichtenartikeln zur Verfügung stellen, und es bestimmt die Themen wie Sport, Politik oder Unterhaltung. Der Text in den Dokumenten muss nicht mit Anmerkungen versehen werden. 

Amazon Comprehend verwendet ein auf [Latent-Dirichlet-Zuordnung](http://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf) basierendes Lernmodell, um die Themen in einer Reihe von Dokumenten zu bestimmen. Es untersucht jedes Dokument, um den Kontext und die Bedeutung eines Wortes zu bestimmen. Die Wörter, die im gesamten Dokumentensatz häufig zum gleichen Kontext gehören, bilden ein Thema.

Ein Wort wird einem Thema in einem Dokument zugeordnet, je nachdem, wie häufig dieses Thema in einem Dokument vorkommt und wie viel Affinität das Thema zu dem Wort hat. Dasselbe Wort kann je nach Themenverteilung in einem bestimmten Dokument unterschiedlichen Themen in verschiedenen Dokumenten zugeordnet werden. 

Beispielsweise kann das Wort „Glukose“ in einem Artikel, in dem es hauptsächlich um Sport geht, dem Thema „Sport“ zugeordnet werden, während dasselbe Wort in einem Artikel über „Medizin“ dem Thema „Medizin“ zugewiesen wird.

Jedem Wort, das einem Thema zugeordnet ist, wird eine Gewichtung zugewiesen, die angibt, wie sehr das Wort zur Definition des Themas beiträgt. Die Gewichtung gibt an, wie oft das Wort im gesamten Dokument im Thema im Vergleich zu anderen Wörtern des Themas vorkommt.

Für genaueste Ergebnisse sollten Sie Amazon Comprehend den größtmöglichen Korpus zur Verfügung stellen, mit dem Sie arbeiten können. Um die besten Ergebnisse zu erzielen:
+ Sie sollten für jeden Themenmodellierungsjob mindestens 1.000 Dokumente verwenden.
+ Jedes Dokument sollte mindestens 3 Sätze lang sein.
+ Wenn ein Dokument hauptsächlich aus numerischen Daten besteht, sollten Sie es aus dem Korpus entfernen.

Die Themenmodellierung ist ein asynchroner Prozess. Mithilfe dieses Vorgangs reichen Sie Ihre Dokumentenliste aus einem Amazon S3-Bucket an Amazon Comprehend ein. [StartTopicsDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_StartTopicsDetectionJob.html) Die Antwort wird an einen Amazon S3 S3-Bucket gesendet. Sie können sowohl den Eingabe- als auch den Ausgabe-Bucket konfigurieren. Rufen Sie eine Liste der Themenmodellierungsaufträge ab, die Sie mithilfe der [ListTopicsDetectionJobs](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ListTopicsDetectionJobs.html)Operation eingereicht haben, und zeigen Sie Informationen zu einem Job an, der die [DescribeTopicsDetectionJob](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DescribeTopicsDetectionJob.html)Operation verwendet. Inhalte, die an Amazon-S3-Buckets geliefert werden, können Kundeninhalte enthalten. Weitere Informationen zum Entfernen sensibler Daten finden Sie unter [Wie entleere ich einen S3 Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/empty-bucket.html) oder [Wie lösche ich einen S3 Bucket?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/delete-bucket.html).

Dokumente müssen in Textdateien im UTF-8-Format vorliegen. Sie können Ihre Dokumente auf zwei Arten einreichen. Die folgende Tabelle zeigt die Optionen.


| Format | Description | 
| --- | --- | 
| Ein Dokument pro Datei | Jede Datei enthält ein Eingabedokument. Dies eignet sich am besten für Sammlungen großer Dokumente. | 
| Ein Dokument pro Zeile | Die Eingabe ist eine einzelne Datei. Jede Zeile in der Datei wird als Dokument betrachtet. Dies eignet sich am besten für kurze Dokumente, z. B. Beiträge in sozialen Netzwerken. Jede Zeile muss mit einem Zeilenvorschub (LF,\$1n), einem Zeilenwechsel (CR,\$1 r) oder beidem (CRLF,\$1 r\$1n) enden. Das Unicode-Zeilentrennzeichen (u\$12028) kann nicht zum Beenden einer Zeile verwendet werden. | 

Weitere Informationen finden Sie unter [InputDataConfig](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_InputDataConfig.html)Datentyp.

Nachdem Amazon Comprehend Ihre Dokumentensammlung verarbeitet hat, gibt es ein komprimiertes Archiv zurück, das zwei Dateien enthält, und`topic-terms.csv`. `doc-topics.csv` Weitere Informationen zur Ausgabedatei finden Sie unter. [OutputDataConfig](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_OutputDataConfig.html) 

Die erste Ausgabedatei,`topic-terms.csv`, ist eine Liste von Themen in der Sammlung. Für jedes Thema enthält die Liste standardmäßig die wichtigsten Begriffe, sortiert nach Themen, entsprechend ihrer Gewichtung. Wenn Sie Amazon Comprehend beispielsweise eine Sammlung von Zeitungsartikeln geben, wird möglicherweise Folgendes zurückgegeben, um die ersten beiden Themen in der Sammlung zu beschreiben:


| Thema | Begriff | Gewicht | 
| --- | --- | --- | 
| 000 | Team | 0,118533 | 
| 000 | game | 0,106072 | 
| 000 | player | 0,031625 | 
| 000 | Jahreszeit | 0,023633 | 
| 000 | spielen | 0,021118 | 
| 000 | Hof | 0,024454 | 
| 000 | Trainer | 0,016012 | 
| 000 | Spiele | 0,016191 | 
| 000 | Fußball | 0.015049 | 
| 000 | Quarterback | 0,014239 | 
| 001 | Becher | 0,205236 | 
| 001 | Essen | 0.040686 | 
| 001 | Minuten | 0,036062 | 
| 001 | hinzufügen | 0,029697 | 
| 001 | Esslöffel | 0,028789 | 
| 001 | ölen | 0,021254 | 
| 001 | Pfeffer | 0,022205 | 
| 001 | Teelöffel | 0,020040 | 
| 001 | Wein | 0,016588 | 
| 001 | Zucker | 0,015101 | 

Die Gewichte stellen eine Wahrscheinlichkeitsverteilung über die Wörter in einem bestimmten Thema dar. Da Amazon Comprehend nur die ersten 10 Wörter für jedes Thema zurückgibt, ergibt die Summe der Gewichtungen nicht 1,0. In den seltenen Fällen, in denen ein Thema weniger als 10 Wörter enthält, ergibt die Summe der Gewichtungen 1,0.

Die Wörter werden nach ihrer Unterscheidungskraft sortiert, indem ihr Vorkommen in allen Themengebieten berücksichtigt wird. In der Regel entspricht dies ihrem Gewicht, aber in einigen Fällen, wie z. B. bei den Wörtern „Spiel“ und „Hof“ in der Tabelle, führt dies zu einer Reihenfolge, die nicht mit der Gewichtung übereinstimmt.

Sie können die Anzahl der Themen angeben, die zurückgegeben werden sollen. Wenn Sie Amazon Comprehend beispielsweise bitten, 25 Themen zurückzugeben, werden die 25 wichtigsten Themen in der Sammlung zurückgegeben. Amazon Comprehend kann bis zu 100 Themen in einer Sammlung erkennen. Wählen Sie die Anzahl der Themen basierend auf Ihren Kenntnissen über die Domäne. Es kann einige Experimente erfordern, um die richtige Zahl zu ermitteln. 

In der zweiten Datei `doc-topics.csv` werden die Dokumente aufgeführt, die einem Thema zugeordnet sind, sowie der Anteil des Dokuments, der sich mit dem Thema befasst. Falls Sie angegeben haben, wird `ONE_DOC_PER_FILE` das Dokument anhand des Dateinamens identifiziert. Falls Sie angegeben haben, wird `ONE_DOC_PER_LINE` das Dokument anhand des Dateinamens und der mit 0 indizierten Zeilennummer in der Datei identifiziert. Amazon Comprehend kann beispielsweise Folgendes für eine Sammlung von Dokumenten zurückgeben, die mit einem Dokument pro Datei eingereicht wurden:


| Dokument | Thema | Anteil | 
| --- | --- | --- | 
| Beispieldokument 1 | 000 | 0,999330137 | 
| Beispieldokument 2 | 000 | 0,998532187 | 
| Beispieldokument 3 | 000 | 0,998384574 | 
| ... |   |   | 
| Beispiel-DOCN | 000 | 3,57E-04 | 

Amazon Comprehend verwendet Informationen aus dem *Lemmatization Lists Dataset von MBM*, der [hier unter der [Open](https://opendatacommons.org/licenses/odbl/1-0/) Database License (L) v1.0](https://github.com/michmech/lemmatization-lists) zur Verfügung gestellt wird. ODb

# Modi der Dokumentenverarbeitung
<a name="concepts-processing-modes"></a>

Amazon Comprehend unterstützt drei Modi zur Dokumentenverarbeitung. Ihre Wahl des Modus hängt von der Anzahl der Dokumente ab, die Sie verarbeiten müssen, und davon, wie schnell Sie die Ergebnisse anzeigen müssen:
+ **Synchrones Einzeldokument** — Sie rufen Amazon Comprehend mit einem einzigen Dokument auf und erhalten eine synchrone Antwort, die sofort an Ihre Anwendung (oder die Konsole) übermittelt wird. 
+ **Synchron mit mehreren Dokumenten** — Sie rufen die Amazon Comprehend API mit einer Sammlung von bis zu 25 Dokumenten auf und erhalten eine synchrone Antwort.
+ **Asynchroner Stapel** — Legen Sie bei einer großen Sammlung von Dokumenten die Dokumente in einen Amazon S3 S3-Bucket und starten Sie einen asynchronen Job (mithilfe von Konsolen- oder API-Operationen), um die Dokumente zu analysieren. Amazon Comprehend speichert die Ergebnisse der Analyse in der S3 bucket/folder , die Sie in der Anfrage angeben.

**Topics**
+ [Verarbeitung einzelner Dokumente](#how-single)
+ [Synchrone Verarbeitung mehrerer Dokumente](#how-batch)
+ [Asynchrone Stapelverarbeitung](#how-async)

## Verarbeitung einzelner Dokumente
<a name="how-single"></a>

Operationen für ein einzelnes Dokument sind synchrone Operationen, bei denen die Ergebnisse der Dokumentenanalyse direkt an Ihre Anwendung zurückgegeben werden. Verwenden Sie synchrone Operationen für einzelne Dokumente, wenn Sie eine interaktive Anwendung erstellen, die jeweils an einem Dokument arbeitet.

Weitere Informationen zu den synchronen API-Vorgängen finden Sie unter [Echtzeitanalyse mit den integrierten Modellen](realtime-console-analysis.md) (für die Konsole) und. [Echtzeitanalyse mithilfe der API](using-api-sync.md)

## Synchrone Verarbeitung mehrerer Dokumente
<a name="how-batch"></a>

Wenn Sie mehrere Dokumente verarbeiten möchten, können Sie die `Batch*` API-Operationen verwenden, um mehr als ein Dokument gleichzeitig an Amazon Comprehend zu senden. Sie können in jeder Anfrage bis zu 25 Dokumente senden. Amazon Comprehend sendet eine Liste mit Antworten zurück, eine für jedes Dokument in der Anfrage. Anfragen, die mit diesen Vorgängen gestellt werden, sind synchron. Ihre Anwendung ruft den Vorgang auf und wartet dann auf die Antwort des Dienstes. 

Die Verwendung der `Batch*` Operationen ist identisch mit dem Aufrufen eines einzelnen Dokuments APIs für jedes der Dokumente in der Anfrage. Ihre Verwendung APIs kann zu einer besseren Leistung Ihrer Anwendungen führen.

Die Eingabe für jedes dieser Elemente APIs ist eine JSON-Struktur, die die zu verarbeitenden Dokumente enthält. Für alle Operationen`BatchDetectDominantLanguage`, außer dass Sie die Eingabesprache festlegen müssen. Sie können für jede Anfrage nur eine Eingabesprache festlegen. Das Folgende ist beispielsweise die Eingabe für den `BatchDetectEntities` Vorgang. Es enthält zwei Dokumente und ist in englischer Sprache.

```
{
   "LanguageCode": "en",
   "TextList": [
      "I have been living in Seattle for almost 4 years",
      "It is raining today in Seattle"
   ]
}
```

Die Antwort auf eine `Batch*` Operation enthält zwei Listen, die `ResultList` und die`ErrorList`. Die `ResultList` enthält einen Datensatz für jedes Dokument, das erfolgreich verarbeitet wurde. Das Ergebnis für jedes Dokument in der Anforderung ist identisch mit dem Ergebnis, das Sie erhalten würden, wenn Sie einen einzelnen Dokumentvorgang für das Dokument ausführen würden. Den Ergebnissen für jedes Dokument wird ein Index zugewiesen, der auf der Reihenfolge der Dokumente in der Eingabedatei basiert. Die Antwort der `BatchDetectEntities` Operation lautet:

```
{
   "ResultList"  : [
      {
         "Index": 0,
         "Entities": [
            {
               "Text": "Seattle", 
               "Score": 0.95, 
               "Type": "LOCATION", 
               "BeginOffset": 22, 
               "EndOffset": 29
            },
            {
               "Text": "almost 4 years", 
               "Score": 0.89, 
               "Type": "QUANTITY", 
               "BeginOffset": 34, 
               "EndOffset": 48
            }
         ]
      },
      {
         "Index": 1,
         "Entities": [
            {
              "Text": "today",
              "Score": 0.87,
              "Type": "DATE",
              "BeginOffset": 14,
              "EndOffset": 19
            },
            {
               "Text": "Seattle",
               "Score": 0.96,
               "Type": "LOCATION",
               "BeginOffset": 23,
               "EndOffset": 30
            }
         ]
      }
   ],
   "ErrorList": []
}
```

Wenn in der Anforderung ein Fehler auftritt, enthält die Antwort eine`ErrorList`, die die Dokumente identifiziert, die einen Fehler enthielten. Das Dokument wird anhand seines Index in der Eingabeliste identifiziert. Die folgende Eingabe für den `BatchDetectLanguage` Vorgang enthält beispielsweise ein Dokument, das nicht verarbeitet werden kann:

```
{
   "TextList": [
     "hello friend", 
     "$$$$$$",
     "hola amigo"
   ]       
}
```

Die Antwort von Amazon Comprehend enthält eine Fehlerliste, in der das Dokument identifiziert wird, das einen Fehler enthielt:

```
{
    "ResultList": [
        {
          "Index": 0,
          "Languages":[
            {
              "LanguageCode":"en",
              "Score": 0.99
            }
          ]
        },
        {
          "Index": 2
          "Languages":[
            {
              "LanguageCode":"es",
              "Score": 0.82
            }
          ]
        }
    ],
    "ErrorList": [
      {
        "Index": 1,
        "ErrorCode": "InternalServerException",
        "ErrorMessage": "Unexpected Server Error. Please try again."
      }
    ]
}
```

Weitere Informationen zu den synchronen Batch-API-Vorgängen finden Sie unter. [Batch in Echtzeit APIs](using-api-sync.md#get-started-batch)

## Asynchrone Stapelverarbeitung
<a name="how-async"></a>

Verwenden Sie die asynchronen Vorgänge von Amazon Comprehend, um große Dokumente und große Dokumentensammlungen zu analysieren.

Um eine Sammlung von Dokumenten zu analysieren, führen Sie in der Regel die folgenden Schritte aus:

1. Speichern Sie die Dokumente in einem Amazon S3 S3-Bucket.

1. Starten Sie einen oder mehrere Analysejobs, um die Dokumente zu analysieren.

1. Überwachen Sie den Fortschritt der Analysejobs.

1. Rufen Sie die Ergebnisse der Analyse aus einem S3-Bucket ab, wenn der Job abgeschlossen ist.

Weitere Informationen zur Verwendung der asynchronen API-Operationen finden Sie unter [Analysejobs mit der Konsole ausführen](analysis-jobs.md) (Konsole) und[Asynchrone Analysejobs mithilfe der API](api-async.md).