

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Generierung von Erkenntnissen aus Anrufen mithilfe von Anrufanalysen für das Amazon Chime SDK
<a name="call-analytics"></a>

In den Themen in diesem Abschnitt wird erklärt, wie Sie mithilfe von Amazon Chime SDK-Anrufanalysen Erkenntnisse aus Ihren Anrufdaten gewinnen können. 

Amazon Chime SDK Call Analytics bietet Entwicklern Low-Code-Lösungen zur Generierung kostengünstiger Erkenntnisse aus Echtzeit-Audio, einschließlich Audioaufnahme, Analyse, Warnmeldungen und Data-Lake-Integration. Mit Call Analytics können Sie durch die Integration mit Amazon Transcribe und Transcribe Call Analytics (TCA) sowie nativ durch Amazon Chime SDK-Sprachanalysen Erkenntnisse gewinnen. Call Analytics kann auch Anrufe an Ihren Amazon S3 S3-Bucket aufzeichnen.

Sie können die folgenden Methoden verwenden, um Anrufanalysen zu konfigurieren und auszuführen.
+ Verwenden Sie die Amazon Chime SDK-Konsole, um eine Konfiguration für Anrufanalysen zu erstellen und sie mit einem Amazon Chime SDK Voice Connector zu verknüpfen. Während dieses Vorgangs können Sie die Aufzeichnung und Analyse von Anrufen aktivieren. Sie müssen keinen Code schreiben, um den Vorgang abzuschließen.
+ Verwenden Sie eine Reihe von Amazon Chime SDK APIs [Amazon Chime SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/welcome.html), APIs um programmgesteuert eine Konfiguration zu erstellen und auszuführen.

Weitere Informationen finden Sie unter [Anrufanalysekonfigurationen für das Amazon Chime SDK erstellen](creating-ca-configuration.md) und weiter unten in [Verwenden von Anrufanalysekonfigurationen für das Amazon Chime SDK](using-call-analytics-configurations.md) diesem Abschnitt.

**Topics**
+ [Was ist Amazon Chime SDK Call Analytics](what-is-amazon-chime-sdk-call-analytics.md)
+ [Grundlegendes zur Anrufanalyse-Terminologie für das Amazon Chime SDK](ca-terms-concepts.md)
+ [Anrufanalysekonfigurationen für das Amazon Chime SDK erstellen](creating-ca-configuration.md)
+ [Verwenden von Anrufanalysekonfigurationen für das Amazon Chime SDK](using-call-analytics-configurations.md)
+ [Verwaltung von Anrufanalyse-Pipelines für das Amazon Chime SDK](managing-call-analytics-pipelines.md)
+ [Anhalten und Wiederaufnehmen von Anrufanalyse-Pipelines für das Amazon Chime SDK](pausing-and-resuming-call-analytics-pipelines.md)
+ [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md)
+ [Grundlegendes zum Status der Anrufanalysen für das Amazon Chime SDK](call-analytics-statuses.md)
+ [Überwachung von Anrufanalyse-Pipelines für das Amazon Chime SDK mit Amazon CloudWatch](monitoring-with-cloudwatch.md)
+ [Rufen Sie den Analyseprozessor und die Ausgabeziele für das Amazon Chime SDK auf](call-analytics-processor-and-output-destinations.md)
+ [Rufen Sie das Analytics-Datenmodell für das Amazon Chime SDK auf](ca-data-model.md)
+ [Verwenden von Sprachanalysen im Amazon Chime SDK](voice-analytics.md)
+ [Kontingente für den Call Analytics Service für das Amazon Chime SDK](ca-regions.md)

# Was ist Amazon Chime SDK Call Analytics
<a name="what-is-amazon-chime-sdk-call-analytics"></a>

Amazon Chime SDK Call Analytics ist eine Low-Code-Lösung zur Generierung kostengünstiger Erkenntnisse aus Echtzeit-Audio, einschließlich Funktionen für Audioaufnahme, Aufzeichnung, Sprachanalyse, Alarmierung und einen Data Lake. Sie können mithilfe von Anrufanalysen Erkenntnisse auf Basis von maschinellem Lernen generieren, indem Sie eine wiederverwendbare Konfiguration für Anrufanalysen erstellen, die festlegt, welche Integrationen für AWS maschinelles Lernen und welche Audioverarbeitungsfunktionen für einen Workflow aktiviert werden sollen. Anschließend verwenden Sie die Konfiguration für Anrufanalysen mit verschiedenen Medienquellen wie Voice Connectors oder Amazon Kinesis Video Streams. Call Analytics generiert Erkenntnisse durch Integrationen mit Amazon Transcribe und Transcribe Call Analytics (TCA) sowie nativ durch [Amazon Chime SDK Voice Analytics, einen Service, der unter Call Analytics läuft](voice-analytics.md).

Gehen Sie wie folgt vor, um Call Analytics zu verwenden:

![\[Das Bild zeigt den Prozess der Einrichtung von Amazon Chime SDK-Anrufanalysen.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/CallAnalyticsOverview.png)


Im Diagramm:

1. Sie beginnen mit der Erstellung einer Konfiguration für Anrufanalysen.

1. Sie legen Ihre Ausgabeziele und einen optionalen Data Lake fest.

1. Sie erstellen Workflows, die Ihre Konfiguration mit einem Voice Connector und Amazon Kinesis Video Streams verknüpfen.

1. Sie analysieren und visualisieren Ihre Erkenntnisse optional.

Sie können die Amazon Chime SDK-Konsole verwenden, um eine Konfiguration für Anrufanalysen zu erstellen und den automatischen Start der Anrufanalysen zu aktivieren. Wenn Sie die Konfigurationen kontrollieren müssen, die für einen bestimmten Anruftyp gelten, verwenden Sie, APIs um eine Konfiguration zu erstellen. In beiden Fällen enthält die Konfiguration Details zu den AWS Machine-Learning-Diensten, die für das Anruf-Audio aufgerufen werden sollen, zur Aktivierung der Anrufaufzeichnung und zu den Zielen für die Einblicke, Metadaten und Aufzeichnungen. Die Anrufanalyse bietet die folgenden Ziele:
+ Ein Amazon Kinesis Data Stream (KDS). Sie können KDS verwenden, um Einblicke in Live-Anrufe zu erhalten, die Sie dann in Ihre Anwendung integrieren können. Sie können die Live-Einblicke beispielsweise integrieren, um einem Vertriebs- oder Kundenbetreuer bei einem Kundengespräch zu helfen, oder die Erkenntnisse nutzen, um generative KI-Eingabeaufforderungen und Zusammenfassungen zu ergänzen.
+ Ein Amazon S3 S3-Bucket, der als Data Warehouse konfiguriert ist. Der Bucket speichert Daten im Parquet-Format. Parquet ist ein Open-Source-Dateiformat, das zum Komprimieren und Speichern großer Datenmengen entwickelt wurde. Anschließend können Sie Amazon Athena verwenden, um diese Daten mit Simple Query Language (SQL) abzufragen, oder die Daten in Ihr vorhandenes Data Warehouse verschieben, um sie mit Ihren Geschäftsdaten zu verknüpfen. Sie können beispielsweise aggregierte Analysen nach dem Anruf durchführen, um die Effektivität der Kundenanrufe, Problembereiche eines Produkts oder Möglichkeiten zur Schulung von Mitarbeitern zur Erzielung besserer Kundenergebnisse zu ermitteln.

Zusätzlich zu diesen Zielen unterstützt die Anrufanalyse auch Benachrichtigungen in Echtzeit, die Sie auf der Grundlage der gewonnenen Erkenntnisse vorab konfigurieren können. Die Benachrichtigungen werden an Amazon gesendet EventBridge. 

**Anmerkung**  
Wenn Sie eine Konfiguration für die Anrufanalyse erstellen, wählen Sie keine bestimmte Audioquelle aus. Auf diese Weise können Sie Konfigurationen für mehrere Audioquellen wiederverwenden. Eine Konfiguration kann beispielsweise die Anrufaufzeichnung und die Anruftranskription ermöglichen. Anschließend können Sie die Konfiguration mit einem Chime SDK Voice Connector und einem Audiostream über einen Kinesis Video Stream verwenden. Sie können die Konfiguration auch auf mehrere Voice Connectors verteilen. Jede Konfiguration für Anrufanalysen ist einzigartig und wird durch einen ARN identifiziert. 

# Grundlegendes zur Anrufanalyse-Terminologie für das Amazon Chime SDK
<a name="ca-terms-concepts"></a>

Die folgenden Begriffe und Konzepte sind für das Verständnis der Verwendung von Amazon Chime SDK-Anrufanalysen von zentraler Bedeutung.

**Amazon Athena**  
Ein interaktiver Abfrageservice, mit dem Sie Daten in Amazon S3 mithilfe von Standard-SQL analysieren können. Athena ist serverlos, sodass Sie keine Infrastruktur verwalten müssen, und Sie zahlen nur für die Abfragen, die Sie ausführen. Um Athena zu verwenden, verweisen Sie auf Ihre Daten in Amazon S3, definieren Sie das Schema und verwenden Sie Standard-SQL-Abfragen. Sie können Arbeitsgruppen auch verwenden, um Benutzer zu gruppieren und zu kontrollieren, auf welche Ressourcen sie bei der Ausführung von Abfragen Zugriff haben. Arbeitsgruppen ermöglichen es Ihnen, die Parallelität von Abfragen zu verwalten und die Ausführung von Abfragen für verschiedene Benutzergruppen und Workloads zu priorisieren. Weitere Informationen finden Sie unter [Was ist Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html).

**Amazon Kinesis Data Firehose**  
Ein ETL-Service (Extrahieren, Transformieren und Laden), der Streaming-Daten zuverlässig erfasst, transformiert und an Data Lakes, Datenspeicher und Analysedienste weiterleitet. Weitere Informationen finden Sie unter [Was ist Amazon Kinesis Data Firehose](https://aws.amazon.com/kinesis/data-firehose/).

**Rufen Sie Analytics Data Warehouse auf**  
Optionaler Speicher für Anrufanalysedaten. Das Warehouse speichert Daten in einem auf Parkett basierenden Datendateiformat in einem Amazon S3 S3-Bucket. Sie können Standard-SQL verwenden, um die Daten abzufragen. Sie aktivieren das Warehouse in einer Call Analytics-Konfiguration.

**Glue Data Catalog**  
Ein zentralisiertes Metadaten-Repository für Datenbestände aus verschiedenen Datenquellen. Der Katalog besteht aus Datenbanken und Tabellen. Bei Anrufanalysen teilen die Metadaten in der Tabelle Athena den Standort Ihres Amazon S3 S3-Buckets mit. Es spezifiziert auch die Datenstruktur, wie Spaltennamen, Datentypen und den Namen der Tabelle. Datenbanken enthalten nur die Metadaten und Schemainformationen für einen Datensatz. Weitere Informationen finden Sie weiter [Grundlegendes zur Struktur der AWS Glue Datenkatalogtabellen für das Amazon Chime SDK](ca-data-model-diagram.md) unten in diesem Abschnitt.

**Pipeline für Einblicke in die Medien**  
 Eine temporäre Ressource, die durch ein Unikat identifiziert wird`MediaPipelineId`. Erstellt mithilfe einer Konfiguration und Laufzeitparametern für die Call Analytics-Pipeline. Die Laufzeitparameter spezifizieren die Datenquelle für die Pipeline.

**Konfiguration der Media Insights-Pipeline**  
Eine statische Konfiguration, die zur Erstellung von Media Insights-Pipelines verwendet wird. Sie können eine Konfiguration verwenden, um eine oder mehrere Pipelines zu instanziieren.

**Konfigurationselement für Media Insights — Pipeline**  
Das Media Insights-Pipeline-Konfigurationselement enthält Anweisungen für die Verarbeitung von Medien mithilfe eines Prozessorelements oder für die Bereitstellung generierter Erkenntnisse mithilfe eines Senkenelements.

**Pipeline-Aufgabe für Medieneinblicke**  
Eine temporäre Unterressource einer Media Insights-Pipeline. Aufgaben enthalten Metadaten über den Status eines Prozesses für einen bestimmten Stream-ARN und eine Kanal-ID. Identifiziert durch eine eindeutige ID. Erstellt durch den Start von Voice Analytics in einer Media Insights-Pipeline. 

**Suche nach Lautsprechern**  
Eine Sprachanalysefunktion, mit der Sie Gesprächsteilnehmer erkennen können.

**Sprachanalyse**  
Eine Amazon Chime SDK-Funktion, die Lautsprechersuche und Stimmenanalyse umfasst.

**Einbettung von Sprache**  
Eine Vektordarstellung der Stimme eines Anrufers sowie eine eindeutige ID.

**Verbesserung der Stimme**  
Ein System, das die Audioqualität von Telefonanrufen verbessert.

**Stimmprofil**  
Die Kombination aus einer Spracheinbettung, ihrer ID und ihrem Ablaufdatum.

**Domäne des Sprachprofils**  
Eine Sammlung von Sprachprofilen.

**Analyse des Stimmtons**  
Eine Sprachanalysefunktion, mit der Sie die Stimmen von Anrufern auf ein `positive``negative`, oder `neutral` -Stimmung hin analysieren können.

Weitere Informationen zu Konfigurationen, die zum Erstellen von Call Insights-Konfigurationen, zum Initiieren von Pipelines und zum Ausführen von Sprachanalysen APIs verwendet werden, finden Sie unter [Amazon Chime SDK Media Pipelines](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) in der *Amazon Chime* SDK API-Referenz.

**Anmerkung**  
Wir empfehlen dringend, die Media Insights-Pipeline für die Durchführung von Anrufanalysen APIs zu verwenden, da nur diese APIs neue Funktionen bieten. Weitere Informationen zu den Unterschieden zwischen der Media Pipeline und den Sprachnamespaces finden Sie weiter unten in [APIs Sprachanalysen für das Amazon Chime SDK mithilfe von Sprache ausführen](va-in-voice-namespace.md) diesem Abschnitt.

# Anrufanalysekonfigurationen für das Amazon Chime SDK erstellen
<a name="creating-ca-configuration"></a>

Um Anrufanalysen zu verwenden, erstellen Sie zunächst eine *Konfiguration*, eine statische Struktur, die die Informationen enthält, die für die Erstellung einer Anrufanalyse-Pipeline erforderlich sind. Sie können die Amazon Chime SDK-Konsole verwenden, um eine Konfiguration zu erstellen, oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API aufrufen.

Eine Konfiguration für Anrufanalysen umfasst Details zu Audioprozessoren, z. B. Aufzeichnung, Sprachanalyse oder Amazon Transcribe. Sie umfasst auch Insight-Ziele und Konfigurationen für Alarmereignisse. Optional können Sie Ihre Anrufdaten zur weiteren Analyse in einem Amazon S3 S3-Bucket speichern.

*Konfigurationen beinhalten jedoch keine spezifischen Audioquellen*. Auf diese Weise können Sie die Konfiguration in mehreren Anrufanalyse-Workflows wiederverwenden. Sie können beispielsweise dieselbe Konfiguration für Anrufanalysen mit unterschiedlichen Voice Connectors oder für verschiedene Amazon Kinesis Video Stream (KVS) -Quellen verwenden.

Sie verwenden die Konfigurationen, um Pipelines zu erstellen, wenn SIP-Anrufe über einen Voice Connector erfolgen oder wenn neue Medien an einen Amazon Kinesis Video Stream (KVS) gesendet werden. Die Pipelines wiederum verarbeiten die Medien gemäß den Spezifikationen in der Konfiguration.

Sie können eine Pipeline jederzeit programmgesteuert beenden. Pipelines beenden auch die Medienverarbeitung, wenn ein Voice Connector-Anruf beendet wird. Darüber hinaus können Sie eine Pipeline anhalten. Dadurch werden Aufrufe der zugrunde liegenden Amazon Machine Learning-Dienste deaktiviert und bei Bedarf wieder aufgenommen. Die Anrufaufzeichnung wird jedoch ausgeführt, während Sie eine Pipeline unterbrechen.

In den folgenden Abschnitten werden die Voraussetzungen für die Erstellung einer Konfiguration für die Anrufanalyse und deren Erstellung erläutert.

**Topics**
+ [Grundlegendes zu den Voraussetzungen für die Amazon Chime SDK-Anrufanalyse](ca-prerequisites.md)
+ [Verwenden der Amazon Chime SDK-Konsole zum Erstellen von Konfigurationen für Anrufanalysen](create-config-console.md)
+ [Wird verwendet APIs , um Konfigurationen für Anrufanalysen für das Amazon Chime SDK zu erstellen](create-config-apis.md)
+ [Zuordnen einer Konfiguration zu einem Voice Connector für das Amazon Chime SDK](ca-associate-vc-steps.md)

# Grundlegendes zu den Voraussetzungen für die Amazon Chime SDK-Anrufanalyse
<a name="ca-prerequisites"></a>

Bevor Sie eine Konfiguration für Anrufanalysen erstellen, müssen Sie über die folgenden Elemente verfügen. Sie können die AWS Konsole verwenden, um sie zu erstellen:
+ Ein Amazon Chime SDK Voice Connector. Falls nicht, finden Sie weitere Informationen unter [Amazon Chime SDK Voice Connectors erstellen](https://docs.aws.amazon.com/chime-sdk/latest/ag/ca-prerequisites.html). Sie müssen außerdem:
  + Aktivieren Sie das Streaming für den Voice Connector. Weitere Informationen finden Sie unter [Automatisieren des Amazon Chime SDK mit EventBridge](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) im Amazon Chime *SDK-Administratorhandbuch* 
  + Konfigurieren Sie den Voice Connector für die Verwendung von Anrufanalysen. Weitere Informationen finden Sie unter [Konfiguration von Voice Connectors für die Verwendung von Anrufanalysen](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) im *Amazon Chime SDK-Administratorhandbuch*.
+  EventBridge Amazon-Ziele. Falls nicht, finden Sie weitere Informationen unter [Überwachen des Amazon Chime SDK mit EventBridge](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html), *Amazon Chime SDK-Administratorhandbuch*.
+ Eine dienstbezogene Rolle, die es dem Voice Connector ermöglicht, auf Aktionen an den Zielen zuzugreifen. EventBridge Weitere Informationen finden Sie unter [Verwenden der Richtlinie für verknüpfte Rollen mit dem Amazon Chime SDK Voice Connector-Service](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html) im *Amazon Chime SDK-Administratorhandbuch*.
+ Ein Amazon Kinesis Kinesis-Datenstream. Falls nicht, finden Sie weitere Informationen unter [Creating and Managing Streams](https://docs.aws.amazon.com/streams/latest/dev/working-with-streams.html) im *Amazon Kinesis Streams Developer Guide*. Sprachanalyse und Transkription erfordern einen Kinesis Data Stream.
+ Um Anrufe offline zu analysieren, müssen Sie einen Amazon Chime SDK-Data Lake erstellen. Informationen dazu finden Sie weiter [Einen Amazon Chime SDK-Data Lake erstellen](ca-data-lake.md) unten in diesem Handbuch.

# Verwenden der Amazon Chime SDK-Konsole zum Erstellen von Konfigurationen für Anrufanalysen
<a name="create-config-console"></a>

Nachdem Sie die im vorherigen Abschnitt aufgeführten Voraussetzungen erstellt haben, können Sie die Amazon Chime SDK-Konsole verwenden, um eine oder mehrere Konfigurationen für Anrufanalysen zu erstellen. Sie können die Konsole auch verwenden, um Ihren Konfigurationen einen oder mehrere Voice Connectors zuzuordnen. Wenn Sie diesen Vorgang abgeschlossen haben, beginnt die Anrufanalyse mit den Funktionen, die Sie bei der Erstellung der Konfiguration aktiviert haben.

Gehen Sie wie folgt vor, um eine Konfiguration für Anrufanalysen zu erstellen:

1. Geben Sie die Konfigurationsdetails an, einschließlich eines Namens und optionaler Tags.

1. Konfigurieren Sie Ihre Aufnahmeeinstellungen. Erstellen Sie eine Konfiguration für die Anrufanalyse, die Erkenntnisse aus Aufzeichnung und maschinellem Lernen umfasst.

1. Konfigurieren Sie Ihre Analysedienste.

1. Wählen Sie Ausgabeziele aus, um Erkenntnisse in Echtzeit zu nutzen. Erstellen Sie einen optionalen Data Lake, um Analysen nach dem Anruf durchzuführen.

1. Erstellen Sie eine neue Servicerolle oder verwenden Sie eine bestehende Rolle. 

1. Richten Sie Echtzeit-Benachrichtigungen ein, die Benachrichtigungen über Amazon senden EventBridge , wenn bestimmte Bedingungen erfüllt sind.

1. Überprüfen Sie Ihre Einstellungen und erstellen Sie die Konfiguration

Nachdem Sie die Konfiguration erstellt haben, aktivieren Sie die Anrufanalyse, indem Sie der Konfiguration einen Voice Connector zuordnen. Sobald Sie dies getan haben, wird die Anrufanalyse automatisch gestartet, wenn ein Anruf bei diesem Voice Connector eingeht. Weitere Informationen finden Sie weiter [Zuordnen einer Konfiguration zu einem Voice Connector für das Amazon Chime SDK](ca-associate-vc-steps.md) unten in diesem Abschnitt.

In den folgenden Abschnitten wird erklärt, wie die einzelnen Schritte des Vorgangs abgeschlossen werden. Erweitern Sie sie in der angegebenen Reihenfolge.

## Geben Sie die Konfigurationsdetails an
<a name="ca-config-details"></a>

**Um Konfigurationsdetails anzugeben**

1. Öffnen Sie die Amazon Chime Chime-Konsole zu [https://console.aws.amazon.com/chime-sdk/Hause](https://console.aws.amazon.com/chime-sdk/home).

1. Wählen Sie im Navigationsbereich unter **Call Analytics** die Option **Configurations** und anschließend **Create configuration** aus.

1. Führen Sie unter **Basic information** (Grundlegende Informationen) die folgenden Schritte aus:

   1. Geben Sie einen Namen für die Konfiguration ein. Der Name sollte Ihren Anwendungsfall und alle Tags widerspiegeln.

   1. (Optional) Wählen Sie unter **Tags** die Option **Neues Tag hinzufügen** aus und geben Sie dann Ihre Tag-Schlüssel und optionalen Werte ein. Sie definieren die Schlüssel und Werte. Mithilfe von Tags können Sie die Konfiguration abfragen.

   1. Wählen Sie **Weiter** aus.

## Aufnahme konfigurieren
<a name="recording-details"></a>

**Um die Aufnahme zu konfigurieren**
+ Gehen Sie auf der Seite **Aufzeichnung konfigurieren** wie folgt vor: 

  1. Wählen Sie das Kontrollkästchen **Anrufaufzeichnung aktivieren** aus. Dies ermöglicht die Aufzeichnung von Voice Connector-Anrufen oder KVS-Streams und das Senden der Daten an Ihren Amazon S3 S3-Bucket.

  1. Wählen Sie unter **Dateiformat** die Option **WAV mit PCM** aus, um die beste Audioqualität zu erzielen.

      –oder –

     Wählen Sie **OGG mit OPUS**, um das Audio zu komprimieren und den Speicher zu optimieren.

  1. (Optional) Wählen Sie bei Bedarf den Link **Amazon S3 S3-Bucket erstellen** und folgen Sie diesen Schritten, um einen Amazon S3 S3-Bucket zu erstellen.

  1. Geben Sie die URI Ihres Amazon S3 S3-Buckets ein, oder wählen Sie **Durchsuchen**, um nach einem Bucket zu suchen.

  1. (Optional) Wählen Sie **Sprachverbesserung aktivieren**, um die Audioqualität Ihrer Aufnahmen zu verbessern.

  1. Wählen Sie **Weiter** aus.

## Grundlegendes zur Sprachverbesserung
<a name="understand-voice-enhancement"></a>

Wenn Sie eine Konfiguration für Anrufanalysen erstellen, können Sie die Anrufaufzeichnung aktivieren und die aufgezeichneten Anrufe in einem Amazon S3 S3-Bucket speichern. Im Rahmen dessen können Sie auch die Sprachverbesserung aktivieren und die Audioqualität Ihrer gespeicherten Anrufe verbessern. Die Sprachverbesserung gilt nur für Aufzeichnungen, die nach der Aktivierung der Funktion generiert wurden. Wenn die Sprachverbesserungsfunktion aktiv ist, wird zusätzlich zur Originalaufnahme eine erweiterte Aufnahme erstellt, die im selben Amazon S3 S3-Bucket und -Format gespeichert wird. Durch die Sprachverbesserung werden verbesserte Aufzeichnungen für Anrufe mit einer Dauer von bis zu 30 Minuten generiert. Für Anrufe, die länger als 30 Minuten dauern, werden keine verbesserten Aufzeichnungen generiert. 

Telefonanrufe werden schmalbandgefiltert und bei 8 abgetastet. KHz Die Sprachverbesserung erhöht die Abtastrate von 8 kHz auf 16 kHz und verwendet ein Modell für maschinelles Lernen, um den Frequenzinhalt von Schmalband auf Breitband zu erweitern, sodass die Sprache natürlicher klingt. Die Sprachverbesserung verwendet auch ein Geräuschreduzierungsmodell namens Amazon Voice Focus, um Hintergrundgeräusche im verbesserten Audio zu reduzieren.

Die Sprachverbesserung verwendet auch ein Modell zur Geräuschreduzierung namens Voice Focus. Das Modell trägt dazu bei, Hintergrundgeräusche im verbesserten Audio zu reduzieren. Mit der Sprachverbesserung wird das Modell auf das verbesserte KHz 16-Audiomaterial angewendet.

**Anmerkung**  
Die Sprachverbesserungsfunktion wird nur in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) unterstützt.

Metadaten für Sprachverbesserungsaufzeichnungen werden über Ihr konfiguriertes KDS in der vorhandenen AWS Glue-Datenkatalogtabelle *call\$1analytics\$1recording\$1metadata* veröffentlicht. *Um den ursprünglichen Anrufaufzeichnungsdatensatz aus der sprachgestützten Anrufaufzeichnung zu identifizieren, wird der KDS-Benachrichtigung und der Glue-Tabelle call\$1analytics\$1recording\$1metadata ein neues Feld namens *detail-subtype with value* hinzugefügt. *VoiceEnhancement** Weitere Informationen zum Data Warehouse-Schema finden Sie unter. [Rufen Sie das Analytics-Datenmodell für das Amazon Chime SDK auf](ca-data-model.md)

### Dateiformat zur Sprachverbesserung
<a name="enhancement-file-format"></a>

Beachten Sie Folgendes zu erweiterten Aufnahmedateien.
+ Verbesserte Aufzeichnungen werden in denselben Amazon S3 S3-Bucket geschrieben wie reguläre Aufzeichnungen. Sie konfigurieren das Ziel [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html)APIs, indem Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)oder oder die Amazon Chime SDK-Konsole verwenden. 
+ Bei erweiterten Aufzeichnungen wurde **\$1enhanced** an den Namen der Basisdatei angehängt.
+ Verbesserte Aufzeichnungen behalten das gleiche Dateiformat wie die Originalaufnahme bei. Sie konfigurieren das Dateiformat [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html) APIs, indem Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)oder oder die Amazon Chime SDK-Konsole verwenden.

Das folgende Beispiel zeigt ein typisches Dateinamenformat.

```
s3://original_file_name_enhanced.wav
```

oder

```
s3://original_file_name_enhanced.ogg
```

## Konfigurieren Sie Analysedienste
<a name="configure-analytics"></a>

Amazon Transcribe bietet Texttranskriptionen von Anrufen. Sie können die Transkripte dann verwenden, um andere Machine-Learning-Dienste wie Amazon Comprehend oder Ihre eigenen Machine-Learning-Modelle zu erweitern.

**Anmerkung**  
Amazon Transcribe bietet auch automatische Spracherkennung. Sie können diese Funktion jedoch nicht mit benutzerdefinierten Sprachmodellen oder der Redaktion von Inhalten verwenden. Wenn Sie die Sprachenidentifikation zusammen mit anderen Funktionen verwenden, können Sie außerdem nur die Sprachen verwenden, die von diesen Funktionen unterstützt werden. Weitere Informationen finden Sie unter [Sprachenidentifikation mit Streaming-Transkriptionen](https://docs.aws.amazon.com/transcribe/latest/dg/lang-id-stream.html) im *Amazon Transcribe* Developer Guide.

Amazon Transcribe Call Analytics ist eine auf maschinellem Lernen basierende API, die Gesprächsprotokolle, Stimmungen und Einblicke in Konversationen in Echtzeit bietet. Der Service macht das Anfertigen von Notizen überflüssig und ermöglicht sofortige Maßnahmen bei erkannten Problemen. Der Service bietet auch Analysen nach dem Anruf, z. B. zur Stimmung des Anrufers, zu Anrufern, zur Gesprächszeit, zu Unterbrechungen, zur Gesprächsgeschwindigkeit und zu Gesprächsmerkmalen.

**Anmerkung**  
Standardmäßig streamt die Analyse nach dem Anruf Anrufaufzeichnungen in Ihren Amazon S3 S3-Bucket. Um zu vermeiden, dass doppelte Aufzeichnungen erstellt werden, sollten Sie die Anrufaufzeichnung und die Analyse nach dem Anruf nicht gleichzeitig aktivieren.

Schließlich kann Transcribe Call Analytics Konversationen anhand bestimmter Phrasen automatisch kennzeichnen und dabei helfen, vertrauliche Informationen aus Audio und Text zu redigieren. Weitere Informationen zu den Medienprozessoren für Anrufanalysen, den von diesen Prozessoren generierten Erkenntnissen und den Ausgabezielen finden Sie [Rufen Sie den Analyseprozessor und die Ausgabeziele für das Amazon Chime SDK auf](call-analytics-processor-and-output-destinations.md) weiter unten in diesem Abschnitt.

**Um Analysedienste zu konfigurieren**

1. Aktivieren Sie auf der Seite **Analysedienste konfigurieren** die Kontrollkästchen neben **Sprachanalyse** oder **Transkriptionsdienste**. Sie können beide Elemente auswählen.

   Aktivieren Sie das Kontrollkästchen **Sprachanalyse**, um eine beliebige Kombination aus **Lautsprechersuche** und **Stimmenanalyse zu** aktivieren. 

   Markieren Sie das Kontrollkästchen **Transkriptionsdienste**, um Amazon Transcribe oder Transcribe Call Analytics zu aktivieren.

   1. **Um die Lautsprechersuche zu aktivieren**
      + **Aktivieren Sie das Kontrollkästchen **Ja, ich stimme der Zustimmungsbestätigung für Amazon Chime SDK Voice Analytics** zu und wählen Sie dann Akzeptieren aus.**

   1. Um die Sprachtonanalyse zu aktivieren
      + Wählen Sie das Kontrollkästchen **Stimmenanalyse** aus.

   1. Um Amazon Transcribe zu aktivieren

      1. Wählen Sie die **Schaltfläche Amazon Transcribe.**

      1. Führen Sie unter **Spracheinstellungen** einen der folgenden Schritte aus:

         1. Wenn Ihre Anrufer nur eine Sprache sprechen, wählen Sie **Bestimmte Sprache** aus, öffnen Sie dann die **Sprachenliste** und wählen Sie die Sprache aus.

         1. Wenn deine Anrufer mehrere Sprachen sprechen, kannst du sie automatisch identifizieren. Wählen Sie **Automatische Spracherkennung**. 

         1. Öffnen Sie die Liste **Sprachoptionen für die automatische Sprachenidentifikation** und wählen Sie mindestens zwei Sprachen aus.

         1. (Optional) Öffnen Sie die Liste der **bevorzugten Sprachen** und geben Sie eine bevorzugte Sprache an. Wenn die im vorherigen Schritt ausgewählten Sprachen übereinstimmende Konfidenzwerte aufweisen, transkribiert der Service die bevorzugte Sprache.

         1. (Optional) Erweitern Sie die **Einstellungen zum Entfernen von Inhalten**, wählen Sie eine oder mehrere Optionen aus und wählen Sie dann eine oder mehrere der zusätzlichen Optionen aus, die angezeigt werden. Der Hilfstext erklärt die einzelnen Optionen.

         1. (Optional) Erweitern Sie **Zusätzliche Einstellungen**, wählen Sie eine oder mehrere Optionen aus und wählen Sie dann eine oder mehrere der zusätzlichen Optionen aus, die angezeigt werden. Der Hilfstext erklärt jede Option.

   1. Um Amazon Transcribe Call Analytics zu aktivieren

      1. Wählen Sie die **Schaltfläche Amazon Transcribe Call Analytics**.

      1. Öffnen Sie die **Sprachliste** und wählen Sie eine Sprache aus.

      1. (Optional) Erweitern Sie die **Einstellungen zum Entfernen von Inhalten**, wählen Sie eine oder mehrere Optionen aus und wählen Sie dann eine oder mehrere der zusätzlichen Optionen aus, die angezeigt werden. Der Hilfstext erklärt die einzelnen Optionen.

      1. (Optional) Erweitern Sie **Zusätzliche Einstellungen**, wählen Sie eine oder mehrere Optionen aus und wählen Sie dann eine oder mehrere der zusätzlichen Optionen aus, die angezeigt werden. Der Hilfstext erklärt jede Option.

      1. (Optional) Erweitern Sie die **Einstellungen für Analysen nach dem Anruf** und gehen Sie wie folgt vor:

         1. Aktivieren Sie das Kontrollkästchen „**Analyse nach dem Anruf**“.

         1. Geben Sie die URI Ihres Amazon S3 S3-Buckets ein.

         1. Wählen Sie einen Redaktionstyp für den Inhalt aus.

1. **Wenn Sie mit Ihrer Auswahl fertig sind, wählen Sie Weiter.** 

## Konfigurieren Sie die Ausgabedetails
<a name="configure-output"></a>

Nachdem Sie die Schritte zur Medienverarbeitung abgeschlossen haben, wählen Sie ein Ziel für die Analyseausgabe aus. Call Analytics bietet Live-Einblicke über Amazon Kinesis Data Streams und optional über ein Data Warehouse in einem Amazon S3 S3-Bucket Ihrer Wahl. Um das Data Warehouse zu erstellen, verwenden Sie eine CloudFormation Vorlage. Die Vorlage hilft Ihnen bei der Erstellung der Infrastruktur, die die Anruf-Metadaten und Einblicke in Ihren Amazon S3 S3-Bucket bereitstellt. Weitere Informationen zur Erstellung eines Data Warehouse finden Sie weiter [Einen Amazon Chime SDK-Data Lake erstellen](ca-data-lake.md) unten in diesem Abschnitt. Weitere Informationen zum Data Warehouse-Schema finden Sie unter[Rufen Sie das Analytics-Datenmodell für das Amazon Chime SDK auf](ca-data-model.md), ebenfalls weiter unten in diesem Abschnitt.

Wenn Sie die Sprachanalyse im vorherigen Abschnitt aktiviert haben, können Sie auch Sprachanalyse-Benachrichtigungsziele wie AWS Lambda, Amazon Simple Queue Service oder Amazon Simple Notification Service hinzufügen. In den folgenden Schritten wird die Vorgehensweise erläutert.

**Um Ausgabedetails zu konfigurieren**

1. Öffnen Sie die **Kinesis-Datenstream-Liste** und wählen Sie Ihren Datenstream aus.
**Anmerkung**  
Wenn Sie Ihre Daten visualisieren möchten, müssen Sie den Kinesis-Datenstream auswählen, der vom Amazon S3 S3-Bucket und Amazon Kinesis Data Firehose verwendet wird.

1. (Optional) Erweitern Sie **Zusätzliche Sprachanalyse-Benachrichtigungsziele** und wählen Sie eine beliebige Kombination von AWS Lambda-, Amazon SNS- und Amazon SQS SQS-Zielen aus.

1. (Optional) Aktivieren Sie unter **Analysieren und Visualisieren von Erkenntnissen** das Kontrollkästchen **Historische Analyse mit Data Lake durchführen**. Weitere Informationen zu Data Lakes finden Sie weiter [Einen Amazon Chime SDK-Data Lake erstellen](ca-data-lake.md) unten in diesem Abschnitt.

1. Wenn Sie fertig sind, wählen Sie **Weiter**.

## Konfigurieren von Zugriffsberechtigungen
<a name="configure-perms"></a>

Um Anrufanalysen zu ermöglichen, müssen der Machine Learning-Dienst und andere Ressourcen über Berechtigungen für den Zugriff auf Datenträger und die Bereitstellung von Erkenntnissen verfügen. Sie können eine vorhandene Servicerolle verwenden oder die Konsole verwenden, um eine neue Rolle zu erstellen. Weitere Informationen zu Rollen finden Sie weiter [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md) unten in diesem Abschnitt.

**Um Zugriffsberechtigungen zu konfigurieren**

1. Führen Sie auf der Seite **Zugriffsberechtigungen konfigurieren** einen der folgenden Schritte aus:

   1. Wählen Sie **Neue Servicerolle erstellen und verwenden** aus.

   1. Geben Sie im Feld **Suffix für den Namen der Servicerolle ein beschreibendes Suffix für die Rolle** ein.

    –oder –

   1. Wählen Sie **Bestehende Servicerolle verwenden** aus.

   1. Öffnen Sie die Liste der **Servicerollen** und wählen Sie eine Rolle aus.

1. Wählen Sie **Weiter** aus.

## (Optional) Konfigurieren Sie Warnmeldungen in Echtzeit
<a name="configure-alerts"></a>

**Wichtig**  
Um Benachrichtigungen in Echtzeit verwenden zu können, müssen Sie zuerst Amazon Transcribe oder Amazon Transcribe Analytics aktivieren.

Sie können eine Reihe von Regeln erstellen, die Echtzeitwarnungen an Amazon senden EventBridge. Wenn ein von Amazon Transcribe oder Amazon Transcribe Call Analytics generierter Einblick während einer Analysesitzung mit Ihrer angegebenen Regel übereinstimmt, wird eine Warnung gesendet. Benachrichtigungen haben den Detailtyp. `Media Insights Rules Matched` EventBridge unterstützt die Integration mit nachgelagerten Diensten wie Amazon Lambda, Amazon SQS und Amazon SNS, um Benachrichtigungen für den Endbenutzer auszulösen oder eine andere benutzerdefinierte Geschäftslogik zu initiieren. Weitere Informationen finden Sie weiter unten in [Verwenden von EventBridge Amazon-Benachrichtigungen für das Amazon Chime SDK](using-eventbridge-notifications.md) diesem Abschnitt.

**Um Benachrichtigungen zu konfigurieren**

1. Wählen Sie unter **Echtzeitwarnungen** die Option **Aktive Echtzeitwarnungen** aus.

1. Wählen Sie unter **Regeln** die Option **Regel erstellen** aus.

1. Geben Sie im Feld **Regelname** einen Namen für die Regel ein.

1. Öffnen Sie die Liste **Regeltyp** und wählen Sie den Regeltyp aus, den Sie verwenden möchten.

1. Verwenden Sie die angezeigten Steuerelemente, um der Regel Schlüsselwörter hinzuzufügen und Logik anzuwenden, z. B. **erwähnt** oder **nicht erwähnt**.

1. Wählen Sie **Weiter** aus.

## Überprüfen und erstellen
<a name="review-create"></a>

**Um die Konfiguration zu erstellen**

1. Überprüfen Sie die Einstellungen in den einzelnen Abschnitten. Wählen Sie bei Bedarf **Bearbeiten**, um eine Einstellung zu ändern.

1. Wählen Sie **Create configuration** (Konfiguration erstellen).

Ihre Konfiguration wird auf der **Konfigurationsseite** der Amazon Chime SDK-Konsole angezeigt.

# Wird verwendet APIs , um Konfigurationen für Anrufanalysen für das Amazon Chime SDK zu erstellen
<a name="create-config-apis"></a>

Sie können Voice Connectors und Konfigurationen für Anrufanalysen programmgesteuert erstellen und diese dann verknüpfen, um einen Anrufanalyse-Workflow zu starten. In diesem Handbuch wird davon ausgegangen, dass Sie wissen, wie der Code geschrieben wird.

Welche APIs Sie verwenden, hängt von der Art des Workflows ab. Um beispielsweise Audio aufzunehmen, rufen Sie zunächst die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API auf, um eine Konfiguration für die Anrufanalyse zu erstellen. Anschließend rufen Sie den [CreateVoiceConnector](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html)auf, um einen Voice Connector zu erstellen. Schließlich verknüpfen Sie die Konfiguration mithilfe der [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html)API mit einem Voice Connector.

Um Audio mit einem Kinesis-Videostream-Producer aufzunehmen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html), rufen Sie dagegen die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API auf und rufen sie dann auf.

Weitere Informationen zur Verwendung von Anrufanalysekonfigurationen zur Aktivierung verschiedener Workflows finden Sie weiter unten in [Verwenden von Anrufanalysekonfigurationen für das Amazon Chime SDK](using-call-analytics-configurations.md) diesem Abschnitt unter Workflows.

# Zuordnen einer Konfiguration zu einem Voice Connector für das Amazon Chime SDK
<a name="ca-associate-vc-steps"></a>

Nachdem Sie die Konsole verwendet haben, um eine Konfiguration für Anrufanalysen zu erstellen, verwenden Sie die Konfiguration, indem Sie ihr einen Voice Connector zuordnen. Der Voice Connector ruft dann automatisch die in Ihrer Konfiguration angegebenen Analysedienste an. Der Voice Connector ruft für jeden Anruf eine Anrufanalyse auf.

**Um einen Voice Connector zuzuordnen**

1. Öffnen Sie die Amazon Chime Chime-Konsole zu [https://console.aws.amazon.com/chime-sdk/Hause](https://console.aws.amazon.com/chime-sdk/home).

1. Wählen Sie im Navigationsbereich unter **SIP Trunking** die Option **Voice** Connectors aus.

1. Wählen Sie den Namen des Voice Connectors aus, den Sie einer Konfiguration zuordnen möchten, und wählen Sie dann die Registerkarte **Streaming**.

1. Falls es noch nicht ausgewählt ist, wählen Sie **Start**, um mit dem Streaming zu Kinesis Video Streams zu beginnen.

1. Wählen Sie unter **Call Analytics** die Option **Activate** aus und wählen Sie im daraufhin angezeigten Menü Ihre Call Analytics-Konfiguration ARN aus.

1. Wählen Sie **Speichern**.

**Anmerkung**  
Warten Sie nach dem Aktivieren, Deaktivieren oder Ändern einer mit einem Voice Connector verknüpften Konfiguration 5 Minuten, bis die neuen Einstellungen über den Dienst verbreitet werden und wirksam werden.

Weitere Informationen zu Konfigurationen für Anrufanalysen finden Sie unter [Managing Call Analytics](https://docs.aws.amazon.com/chime-sdk/latest/ag/ag-call-analytics.html) im *Amazon Chime SDK-Administratorhandbuch*.

Weitere Informationen zur Verwendung von Konfigurationen für Anrufanalysen zur Aktivierung verschiedener Workflows finden Sie weiter [Verwenden von Anrufanalysekonfigurationen für das Amazon Chime SDK](using-call-analytics-configurations.md) unten in diesem Abschnitt.

# Verwenden von Anrufanalysekonfigurationen für das Amazon Chime SDK
<a name="using-call-analytics-configurations"></a>

Um Audio mithilfe einer Anrufanalysekonfiguration zu verarbeiten, müssen Sie eine Anrufanalyse-Pipeline erstellen, die auch als Media Insights-Pipeline bezeichnet wird. Die Pipeline wird während eines Anrufs zur Bearbeitung der Audiodaten erstellt und am Ende des Anrufs beendet. Anrufanalyse-Pipelines benötigen den ARN einer Anrufanalysekonfiguration und Informationen zur Audioquelle. Die Konfiguration für die Anrufanalyse enthält Details zu Audioprozessoren, Insight-Zielen und Konfigurationen für Alarmereignisse, *jedoch nicht zur Audioquelle*. Auf diese Weise können Sie die Konfiguration für verschiedene Anrufanalyse-Workflows wiederverwenden, z. B. für verschiedene Voice Connectors oder KVS-Quellen. Die Anrufanalyse-Pipeline ruft die in der Konfiguration angegebenen Dienste für maschinelles Lernen auf und zeichnet das Audio auf. Sie können die Pipeline manuell oder automatisch beenden, wenn der Anruf beendet ist.

Sie können Anrufanalyse-Pipelines in einer Vielzahl von Anwendungsfällen verwenden. Die folgenden Workflows zeigen mögliche Möglichkeiten, eine Konfiguration und Pipeline für Anrufanalysen zu verwenden.

**Topics**
+ [Grundlegendes zu Workflows für die Aufzeichnung von Anrufen für das Amazon Chime SDK](recording-workflows.md)
+ [Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK](ml-based-analytics.md)

# Grundlegendes zu Workflows für die Aufzeichnung von Anrufen für das Amazon Chime SDK
<a name="recording-workflows"></a>

In den Themen in diesem Abschnitt werden die Workflows für die Aufzeichnung von Anrufen und Kinesis Video Streams aufgeführt und beschrieben.

# Aufzeichnen von Voice Connector-Anrufen
<a name="record-vc-calls"></a>

Verwenden Sie diesen Workflow, wenn:
+ Sie verwenden bereits einen Voice Connector oder planen, ihn zu verwenden, um SIP-Medien in die Anrufanalyse einzubeziehen.
**Anmerkung**  
Voice Connectors unterstützen SIP und SIPREC. Weitere Informationen finden Sie unter [Managing Amazon Chime SDK Voice Connectors](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) im *Amazon Chime SDK-Administratorhandbuch*.
+ Sie möchten automatisch SIP- oder SIPREC-Anrufe mit geringer Latenz an Amazon Simple Storage Service-Ziele Ihrer Wahl aufzeichnen.
+ Sie möchten die Amazon Chime SDK-Konsole verwenden, um die Konfiguration zu erstellen und sie einem Voice Connector zuzuordnen.
+ Sie möchten dieselbe Aufnahmekonfiguration auf jeden Voice Connector-Anruf anwenden. Wenn Sie mehrere Konfigurationen auf einen oder mehrere Voice Connectors anwenden möchten, lesen Sie den nächsten Abschnitt.

Verwenden Sie das folgende Amazon Chime SDK, um programmgesteuertes Aufrufen zu aktivieren. APIs
+ Verwenden Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Konfiguration für Anrufanalysen zu erstellen
+ Verwenden Sie den [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html), um einen Voice Connector zu erstellen.
+ Verwenden Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API, um die Konfiguration einem Voice Connector zuzuordnen. 

Weitere Informationen finden Sie unter [Konfiguration von Voice Connectors für die Verwendung von Anrufanalysen](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) im *Amazon Chime SDK-Administratorhandbuch*. 

 Das folgende Diagramm zeigt den Datenfluss, wenn ein Voice Connector eine Anrufaufzeichnungssitzung einleitet. Die Zahlen im Diagramm entsprechen dem nummerierten Text unten. 

![\[Das Bild zeigt den Datenfluss, wenn ein Voice Connector mit der Aufzeichnung eines Anrufs beginnt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)


 Im Diagramm: 

1. Verwenden Sie die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Konfiguration für Anrufanalysen zu erstellen. Während der Erstellung der Konfiguration aktivieren Sie einfach die Anrufaufzeichnung, wählen das gewünschte Aufnahmedateiformat und geben das Amazon S3 S3-Ziel zum Speichern der Aufzeichnungsdateien an. Weitere Informationen finden Sie unter [Creating Call Analytics-Konfigurationen](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-ca-config.html) im *Amazon Chime SDK-Administratorhandbuch*.

1. Sie verwenden die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API, um die Konfiguration einem Voice Connector zuzuordnen. Informationen zur Verwendung der Konsole finden Sie unter [Voice Connectors konfigurieren, um Anrufanalysen zu verwenden.](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html)

1. Während eines ausgehenden Anrufs empfängt der Voice Connector das Audio jedes Gesprächsteilnehmers.

1. Wenn eine Konfiguration für die Aufzeichnung von Anrufanalysen an den Voice Connector angehängt ist, verwendet der Voice Connector-Dienst den Media Pipeline-Dienst, um eine Anrufanalyse-Aufzeichnungssitzung zu initiieren.

1. Der Media Pipeline-Dienst initiiert den Prozessor für die Anrufaufzeichnung, der den laufenden Anruf überwacht.

1. Wenn der Anruf beendet ist, übermittelt der Media Pipeline-Service die Anrufaufzeichnungsdatei an den dafür vorgesehenen Amazon S3 S3-Bucket und stellt die Aufzeichnungsmetadaten über den Amazon Kinesis Data Stream bereit. Wenn ein Data Warehouse aktiviert ist, werden die Aufruf-Metadaten auch an das Amazon Simple Storage Service Data Warehouse gesendet. In Fällen, in denen SIPREC verwendet wird, um SIP-Audio in die Anrufanalyse zu integrieren, enthalten die Anruf-Metadaten SIPREC-Metadaten in einem Tabellenformat. Weitere Informationen zu den Aufzeichnungstabellen finden Sie weiter unten in [Grundlegendes zu den AWS Glue Datenkatalogtabellen für das Amazon Chime SDK](glue-tables.md) diesem Abschnitt.

1. Der Media Pipeline-Service sendet die Pipeline-Status-Ereignisse an das Standard-Amazon EventBridge. Weitere Informationen finden Sie unter [Verwenden von EventBridge Benachrichtigungen](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) in diesem Handbuch. 

**Anmerkung**  
 Bitte beachten Sie, dass Sie Voice Connector-Streaming aktivieren müssen, um die Aufnahme mit einem Voice Connector zu ermöglichen. Diese Funktion ermöglicht das Streaming von Anrufdaten zu den von Voice Connector verwalteten Kinesis Video Streams in Ihrem Konto. Weitere Informationen finden Sie unter [Streaming von Amazon Chime SDK Voice Connector-Medien zu Kinesis Video Streams](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) im *Amazon Chime SDK-Administratorhandbuch*.

 Sie können auch mit Voice Connector erstellte Anrufdaten in Kinesis Video Streams für unterschiedliche Zeiträume speichern, die von Stunden über Tage bis hin zu Jahren reichen. Wenn Sie sich dafür entscheiden, keine Daten aufzubewahren, wird die Verwendbarkeit der Anrufdaten für den sofortigen Zugriff eingeschränkt. Die Kosten für Kinesis Video Streams richten sich nach der verwendeten Bandbreite und dem insgesamt genutzten Speicherplatz. Sie können die Datenaufbewahrungsdauer jederzeit in der Voice Connector-Streaming-Konfiguration anpassen. Um die Aufzeichnung von Anrufanalysen zu aktivieren, müssen Sie sicherstellen, dass der Kinesis Video Stream die Daten lange genug speichert, um die Anrufanalysen durchzuführen. Dazu geben Sie einen geeigneten Aufbewahrungszeitraum für Daten an. 

 Sie können eine Konfiguration der Call Insights-Pipeline beliebig vielen Voice Connectors zuordnen. Sie können auch für jeden Voice Connector eine andere Konfiguration erstellen. Voice Connectors verwenden die AWSServiceRoleForAmazonChimeVoiceConnector , um die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API in Ihrem Namen einmal pro Transaktions-ID aufzurufen. Informationen zur Rolle finden Sie unter [Verwenden der serviceverknüpften Amazon Chime SDK-Rolle für Amazon Chime SDK Voice Connectors im Amazon Chime *SDK-Administratorhandbuch*](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream).

# Aufnahme mit Amazon Kinesis Video-Stream-Produzenten
<a name="record-kvs-streams"></a>

Sie zeichnen Amazon Kinesis Video-Streams auf, wenn: 
+ Sie müssen unterschiedliche Konfigurationen auf einen Anruf anwenden, anstatt dieselbe Konfiguration für jeden Voice Connector-Anruf zu verwenden.
+ Sie möchten SIP- oder Nicht-SIP-Audio aufnehmen, das nicht von einem Voice Connector verarbeitet wird.

 Um diese Option zur Anrufaufzeichnung zu verwenden, müssen Sie Audio in Kinesis Video Streams (KVS) veröffentlichen und dann die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API mit KVS-Stream-Kanalinformationen und einem ARN für die Anrufanalysekonfiguration aufrufen.

**Anmerkung**  
Die Anrufanalyse APIs unterstützt maximal zwei Audiokanäle. Sie können auch das Voice Connector-Streaming aktivieren und dann die in den EventBridge Benachrichtigungen des Voice Connectors veröffentlichten KVS-Informationen verwenden, um eine Anrufaufzeichnung zu starten. 

 Wenn Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API aufrufen, können Sie wählen, ob Sie Fragmentnummern für jede KVS-Stream-Kanaldefinition angeben möchten oder nicht. Wenn Sie eine Fragmentnummer angeben, beginnt Call Analytics mit der Verarbeitung des Streams an diesem Fragment. Wenn Sie keine Fragment-ID angeben, beginnt Call Analytics mit der Verarbeitung des Streams ab dem neuesten verfügbaren Fragment. 

 Das folgende Diagramm zeigt den Datenfluss, wenn ein Voice Connector eine Anrufaufzeichnungssitzung initiiert. Die Zahlen im Diagramm entsprechen dem nummerierten Text unten. 

![\[Das Bild zeigt den Datenfluss, wenn ein Voice Connector mit der Aufzeichnung eines Anrufs beginnt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/call-analytics-workflow-2.png)


Im Diagramm:

1. Sie können die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API verwenden, um eine Konfiguration für die Anrufaufzeichnung zu erstellen.

1. Verwenden Sie das AWS SDK, um eine Anwendung zu erstellen, die externes Audio in KVS überträgt, oder aktivieren Sie Voice Connector-Streaming, um Anruf-Audio automatisch in einem KVS zu veröffentlichen. Weitere Informationen finden Sie unter [Streaming von Amazon Chime SDK Voice Connector-Medien zu Kinesis Video Streams](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) im *Amazon Chime SDK-Administratorhandbuch*.

1. Wenn Voice Connector-Streaming aktiviert ist, sendet der Voice Connector-Dienst standardmäßig Benachrichtigungen. EventBridge

1. Im Fall von Voice Connector-Streaming kann Ihre Anwendung die Amazon Chime Voice `STARTED` Connector-Streaming-Ereignisse von verwenden, EventBridge um KVS-Stream-Informationen über die einzelnen Phasen eines Anrufs zu sammeln.

1. Sobald Ihre Anwendung über die Audioinformationen von Voice Connector-Streaming-Ereignissen oder einer externen Quelle verfügt, ruft Ihre Anwendung die Amazon Chime [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)SDK-API auf.

1. Der Media Pipeline-Service initiiert den Prozessor für die Anrufaufzeichnung, der den laufenden Anruf überwacht.

1. Der Media Pipeline-Service sendet die Pipeline-Status-Ereignisse an das Standard-Amazon EventBridge. Weitere Informationen finden Sie unter [ EventBridge Benachrichtigungen verwenden](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).

1. Sobald ein Anruf abgeschlossen ist, übermittelt der Media Pipeline-Service die Anrufaufzeichnungsdatei an den dafür vorgesehenen Amazon S3 S3-Bucket und stellt die Aufzeichnungsmetadaten über Amazon Kinesis Data Stream bereit. Wenn ein Data Warehouse aktiviert ist, werden die Anruf-Metadaten auch an das Amazon S3 S3-Data Warehouse gesendet. In Fällen, in denen SIPREC verwendet wird, um SIP-Audio in die Anrufanalyse zu integrieren, enthalten die Anruf-Metadaten SIPREC-Metadaten in einem praktischen Tabellenformat. Weitere Informationen zu den Aufzeichnungstabellen finden Sie weiter unten in [Grundlegendes zu den AWS Glue Datenkatalogtabellen für das Amazon Chime SDK](glue-tables.md) diesem Abschnitt.

1. Ihre Anwendung kann die Pipeline und im Falle eines Voice Connectors den Anrufstatus anhand von Ereignissen überwachen, die auf Amazon veröffentlicht wurden EventBridge. Weitere Informationen finden Sie unter [Verwenden von EventBridge Benachrichtigungen](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) in diesem Handbuch.

1. Um die Aufzeichnung zu beenden, rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)API auf, um die Anrufaufzeichnung zu beenden. 

API-basierte Aufzeichnungen und Beispiele finden Sie unter [Amazon S3 Recording Sink](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-s3-recording-sink) in diesem Handbuch.

# Verwenden der CLI zum Starten der Aufnahme
<a name="using-the-cli-to-start-recording"></a>

In den Beispielen in diesem Abschnitt wird erklärt, wie Sie Folgendes tun können:
+ Verwenden Sie die CLI, um eine Konfiguration für Anrufanalysen auszuführen und die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)aufzurufen.
+ Verwenden Sie die CLI, um Aufnahmeziele, Audiodateiformate und Audiodateinamen anzugeben.

**Topics**
+ [Eine Konfiguration ausführen und eine Pipeline starten](#cli-run-config)
+ [Ziele, Namen und Formate festlegen](#cli-set-buckets-formats)

## Eine Konfiguration ausführen und eine Pipeline starten
<a name="cli-run-config"></a>

Verwenden Sie den folgenden Befehl, um eine Konfiguration auszuführen und eine Media Insights-Pipeline zu starten. Die Datei pipeline.json enthält die Konfigurationseinstellungen.

```
aws chime-sdk-media-pipeline create-media-insights-pipeline --cli-input-json file://pipeline.json
```

Das folgende Beispiel zeigt eine typische Datei. `pipeline.json`

```
{
    "MediaInsightsPipelineConfigurationArn": arn:aws:chime:region;account_id:media-insights-pipeline-configuration/MyConfiguration,
    "KinesisVideoStreamRecordingSourceRuntimeConfiguration": {
        "Streams": [
            {
                "StreamArn": kinesis_video_stream_arn_1
            },
            {
                "StreamArn": kinesis_video_stream_arn_2
            }
        ],
        "FragmentSelector": {
            "FragmentSelectorType": "selector_type", // Specify "server_timestamp" or "producer_timestamp" as the fragment selector type
            "TimestampRange": {
                "StartTimestamp": epoch_time_seconds,
                "EndTimestamp": epoch_time_seconds
            }
        }
    },
    "S3RecordingSinkRuntimeConfiguration": {
        "Destination": arn:aws:s3:::bucket_name/prefix/optional_file_name,
        "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format, if you want to override the configuration
    }
}
```

Dies `MediaInsightsPipelineConfigurationArn` ist der Konfigurations-ARN, den Sie erhalten, nachdem Sie eine Anrufanalysekonfiguration erstellt haben.

## Ziele, Namen und Formate festlegen
<a name="cli-set-buckets-formats"></a>

 Im folgenden Beispiel wird ein Ordner verwendet, der `MyRecordingBucket` als `S3SinkConfiguration.Destination` Wert und `Opus` als `RecordingFileFormat` Wert benannt ist.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.ogg
```

Im folgenden Beispiel wird `MyRecordingBucket` als `S3SinkConfiguration.Destination` Wert und `Wav` als `RecordingFileFormat` Wert verwendet.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.wav
```

# Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK
<a name="ml-based-analytics"></a>

In den folgenden Abschnitten wird beschrieben, wie Sie die Analysefunktionen für maschinelles Lernen verwenden, die von Amazon Chime SDK Call Analytics bereitgestellt werden.

**Anmerkung**  
Wenn Sie planen, mehrere Machine-Learning-Analysen auf demselben Kinesis Video Stream auszuführen, müssen Sie möglicherweise das Verbindungslimit für `GetMedia` und `GetMediaForFragmentList` für den Videostream erhöhen. Weitere Informationen finden Sie unter [Kinesis Video Streams-Grenzwerte](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/limits.html) im *Kinesis Video Streams Developer Guide*.

# Verwenden von Voice Connectors zur automatischen Initiierung von Anrufanalysen
<a name="automatic-vc-analytics"></a>

Verwenden Sie diesen Workflow, wenn:
+ Sie möchten ein konsolengesteuertes Setup.
+ Sie verwenden bereits einen Voice Connector oder planen, ihn zu verwenden, um SIP-Medien in die Anrufanalyse einzubeziehen. Voice Connectors unterstützen sowohl SIP als auch SIPREC. Weitere Informationen zur Konfiguration von Voice Connectors finden Sie unter [Amazon Chime SDK Voice Connector verwalten](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html).
+ Sie möchten dieselbe Media Insights-Konfiguration auf jeden Voice Connector-Anruf anwenden.
+ Sie müssen Amazon Chime SDK Voice Analytics verwenden, wofür ein Voice Connector oder eine Media Insights-Pipeline erforderlich ist.

Um diesen Workflow in der Amazon Chime SDK-Konsole zu aktivieren, folgen Sie den Schritten zum Erstellen einer Aufzeichnungskonfiguration [unter Voice Connectors zur Verwendung von Anrufanalysen konfigurieren.](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html)

Um diesen Workflow programmgesteuert zu aktivieren, verwenden Sie Folgendes APIs: [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Konfiguration für Anrufanalysen zu erstellen und die Konfiguration dann mithilfe der API einem Voice Connector zuzuordnen. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html) Weitere Informationen finden Sie unter [Konfiguration von Voice Connectors für die Verwendung von Sprachanalysen](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) im *Amazon Chime SDK-Administratorhandbuch*. 

 Das folgende Diagramm zeigt den Datenfluss, wenn ein Voice Connector eine Anrufanalysesitzung einleitet. Die Zahlen im Diagramm entsprechen dem nummerierten Text unten. 

 ![\[Image showing the flow of data when a Voice Connector initiates a call.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)

 Im Diagramm: 

1. Sie verwenden die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Media Insights-Pipeline-Konfiguration zu erstellen.

1. Sie verwenden die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API, um die Konfiguration einem Voice Connector zuzuordnen. Informationen zum Zuordnen einer vorhandenen Konfiguration zu einem Voice Connector finden Sie unter [Konfiguration von Voice Connectors für die Verwendung von Anrufanalysen](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) im *Amazon Chime SDK-Administratorhandbuch*.

1. Während eines ausgehenden Anrufs empfängt der Voice Connector das Audio jedes Gesprächsteilnehmers.

1. Aufgrund der integrierten Integration mit der Anrufanalyse initiiert der Voice Connector-Dienst eine Anrufanalysesitzung mithilfe des Media Pipeline-Dienstes, wenn eine Anrufanalysekonfiguration an einen Voice Connector angehängt ist.

1. Der Media Pipeline-Dienst ruft einen oder mehrere Medienprozessoren auf, wie in der Konfiguration angegeben.

1. Der Medien-Pipeline-Dienst sendet die Ausgabedaten je nach Konfiguration an ein oder mehrere Ziele. Sie können beispielsweise Echtzeitanalysen über einen Amazon Kinesis Data Stream senden, und wenn konfiguriert, können Sie die Anruf-Metadaten und Analysen an ein Amazon S3 S3-Data Warehouse senden.

1. Der Media Pipeline-Service sendet die Pipeline-Status-Ereignisse an das Standard-Amazon EventBridge. Wenn Sie Regeln konfiguriert haben, werden die Benachrichtigungen dafür EventBridge auch an Amazon gesendet. Weitere Informationen finden Sie unter [ EventBridge Benachrichtigungen verwenden](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).

**Anmerkung**  
Ein Sprachanalyseprozessor wird nur automatisch gestartet, wenn Sie das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html) APIs. 
Sie müssen das Voice Connector-Streaming aktivieren, um die Anrufanalyse mit Voice Connector verwenden zu können. Diese Funktion ermöglicht das Streamen von Anrufdaten zu den von Voice Connector verwalteten Kinesis Video Streams in Ihrem Konto. Weitere Informationen finden Sie unter [Streaming von Amazon Chime SDK Voice Connector-Medien zu Kinesis Video Streams](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) im *Amazon Chime SDK-Administratorhandbuch*. 

 Sie können Voice Connector-Anrufdaten für unterschiedliche Zeiträume, von Stunden bis hin zu Jahren, in Kinesis Video Streams speichern. Wenn Sie sich für die Nichtspeicherung von Daten entscheiden, wird die Verwendbarkeit der Anrufdaten für den sofortigen Zugriff eingeschränkt. Die Kosten für Kinesis Video Streams richten sich nach der verwendeten Bandbreite und dem insgesamt genutzten Speicherplatz. Sie können die Datenaufbewahrungsdauer jederzeit anpassen, indem Sie die Streaming-Konfiguration Ihres Voice Connectors bearbeiten. Um die Aufzeichnung von Anrufanalysen zu aktivieren, müssen Sie sicherstellen, dass der Kinesis Video Stream Daten speichert, bis die Anrufanalyse abgeschlossen ist. Dazu geben Sie einen geeigneten Aufbewahrungszeitraum für Daten an. 

 Sie können eine Media Insights-Pipeline-Konfiguration beliebig vielen Voice Connectors zuordnen. Sie können auch für jeden Voice Connector eine andere Konfiguration erstellen. Voice Connectors verwenden die AWSServiceRoleForAmazonChimeVoiceConnector , um die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API in Ihrem Namen einmal pro Transaktions-ID aufzurufen. Informationen zur Rolle finden Sie unter [Verwenden der serviceverknüpften Amazon Chime SDK-Rolle für Amazon Chime SDK Voice Connectors im Amazon Chime *SDK-Administratorhandbuch*](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream). 

# Verwenden von Anrufanalysen mit Voice Connectors APIs
<a name="ca-apis-with-vc"></a>

Verwenden Sie diesen Workflow, wenn Sie einen Voice Connector verwenden, aber kontrollieren müssen, wann Sie eine Anrufanalyse-Konfiguration anwenden und auf welchen Anruf die Konfiguration angewendet werden soll.

 Um diese Methode verwenden zu können, müssen Sie ein EventBridge Ziel für Ereignisse erstellen, die der Voice Connector veröffentlicht, und dann die Ereignisse verwenden, um die Anrufanalysepipeline auszulösen APIs. Weitere Informationen finden Sie unter [Automatisieren des Amazon Chime SDK mit EventBridge](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) im Amazon Chime *SDK-Administratorhandbuch*. 

 Das folgende Diagramm zeigt, wie Sie bei der Verwendung von Anrufanalysen mit Voice Connector eine detailliertere Steuerung implementieren können. Die Zahlen im Diagramm entsprechen den Zahlen im Text unten. 

![\[Das Bild zeigt den Datenfluss bei der Verwendung von API-Aufrufen mit Voice Connectors.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/analytics-vc-with-apis.png)


 Im Diagramm: 

1. Sie verwenden die Amazon Chime SDK-Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Media Insights-Pipeline-Konfiguration zu erstellen.

1. Während eines ausgehenden Anrufs empfängt der Voice Connector Audio von Teilnehmern.

1. Der Voice Connector sendet Anruf-Audio an Kinesis Video Stream und entsprechende Ereignisse an den EventBridge. Diese Ereignisse verfügen über Stream- und Anrufmetadaten.

1. Ihre Anwendung wurde EventBridge über ein EventBridge Target abonniert.

1. Ihre Anwendung ruft die Amazon Chime [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)SDK-API auf.

1. Der Media Pipeline-Service ruft einen oder mehrere Medienprozessoren auf der Grundlage der Prozessorelemente in der Media Insights-Pipeline-Konfiguration auf.

1. Der Media Pipeline-Dienst sendet die Ausgabedaten je nach Konfiguration an ein oder mehrere Ziele. Amazon Chime SDK Call Analytics bietet Echtzeitanalysen über Amazon Kinesis Data Stream und ruft, sofern konfiguriert, Metadatenanalysen für ein Amazon S3 S3-Data Warehouse auf.

1. Der Media Pipeline-Service sendet die Ereignisse an Amazon EventBridge. Wenn Sie Regeln konfiguriert haben, werden die Benachrichtigungen dafür EventBridge auch an Amazon gesendet.

1. Sie können die Anrufanalysesitzung anhalten oder fortsetzen, indem Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API aufrufen.
**Anmerkung**  
Die Anrufaufzeichnung unterstützt das Anhalten und Wiederaufnehmen von Anrufen nicht. Außerdem werden Sprachanalyseaufgaben, die für den Anruf gestartet wurden, auch beendet, wenn Sie eine Sitzung unterbrechen. Um sie neu zu starten, müssen Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

1. Wenn Sie bei der Konfiguration die Sprachtonanalyse auswählen, starten Sie die Sprachanalyse, indem Sie die Option [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)Oder aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Verwenden von Anrufanalysen mit Kinesis Video Streams Streams-Produzenten
<a name="ca-apis-kvs"></a>

 Um diese Option zu verwenden, müssen Sie Audiodaten in Kinesis Video Streams (KVS) veröffentlichen und dann die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API mit den KVS-Stream-Kanalinformationen aufrufen.

**Anmerkung**  
Die Anrufanalyse APIs unterstützt maximal zwei Audiokanäle.

Beim Aufruf der [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API können Sie Fragmentnummern für jede KVS-Stream-Kanaldefinition angeben. Wenn Sie eine Fragmentnummer angeben, beginnt Call Analytics mit der Verarbeitung des Streams an diesem Fragment. Andernfalls beginnt Call Analytics mit der Verarbeitung des Streams anhand des neuesten verfügbaren Fragments.

Die Anrufanalyse unterstützt PCM-Audio (nur signierte 16-Bit-Little-Endian-Audioformate, WAV nicht enthalten) mit einer Audio-Samplerate zwischen 8 kHz und 48 kHz. Audioqualität von geringer Qualität, z. B. Telefonieaudio, liegt in der Regel bei etwa 8.000 Hz. Hochwertige Audiosignale liegen in der Regel im Bereich von 16.000 Hz bis 48.000 Hz. Die von Ihnen angegebene Samplerate muss mit der Ihres Audios übereinstimmen. Weitere Informationen finden Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html)in der *Amazon Chime SDK API-Referenz.*

Das Kinesis Video Streams Producer SDK bietet eine Reihe von Bibliotheken, mit denen Sie Audiodaten in einen Kinesis Video Stream streamen können. Weitere Informationen finden Sie unter [Kinesis Video Streams Producer Libraries](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk.html) im *Amazon Kinesis Video Streams Developer Guide*.

Das folgende Diagramm zeigt den Datenfluss bei der Verwendung von Anrufanalysen mit einem benutzerdefinierten Kinesis Video Stream-Producer. Die Zahlen im Diagramm entsprechen dem nummerierten Text unten.

![\[Bild, das den Datenfluss bei der Verwendung von Anrufanalysen mit einem Kinesis Video Stream-Producer zeigt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/analytics-kvs-with-apis.png)


1. Sie verwenden die AWS Konsole oder die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API, um eine Media Insights-Pipeline-Konfiguration zu erstellen.

1. Sie verwenden einen Kinesis Video Stream Producer, um Audio in Kinesis Video Streams zu schreiben.

1. Ihre Anwendung ruft die API auf. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)

1. Der Media Pipeline-Service liest Audio aus den Kinesis Video Streams des Kunden.

1. Der Media Pipeline-Service sendet die Ereignisse an Amazon EventBridge. Wenn Sie Regeln konfiguriert haben, werden die Benachrichtigungen dafür EventBridge auch an Amazon gesendet.

1. Der Media Pipeline-Dienst ruft ein oder mehrere Prozessorelemente auf.

1. Der Medien-Pipeline-Dienst sendet Ausgabedaten an ein oder mehrere Senkenelemente.

1. Sie können die Anrufanalysesitzung anhalten oder fortsetzen, indem Sie die [ UpdateMediaInsightsPipelineStatus](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API aufrufen.
**Anmerkung**  
Die Anrufaufzeichnung unterstützt das Anhalten und Fortsetzen nicht.

1. Ihre Anwendung kann die EventBridge Amazon-Ereignisse verarbeiten, um benutzerdefinierte Geschäftsabläufe auszulösen.

1. Wenn Sie beim Erstellen einer Konfiguration Sprachanalyse auswählen, kann Ihre Anwendung Sprachanalysen starten, indem Sie die Option [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Verwaltung von Anrufanalyse-Pipelines für das Amazon Chime SDK
<a name="managing-call-analytics-pipelines"></a>

 Sie können Media Insights-Pipelines lesen, auflisten und löschen, indem Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html), [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_ListMediaPipelines.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_ListMediaPipelines.html)und aufrufen. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html) APIs 

 Media Insights-Pipelines werden beendet, wenn eine der folgenden Bedingungen erfüllt ist: 
+ Keiner der Kinesis-Video-Streams sendet 15 Sekunden lang keine neuen Fragmente an eine `InProgress` Pipeline.
+ Die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)API wird aufgerufen.
+ Die Media Insights-Pipeline wurde vor mehr als 8 Stunden erstellt. Das System stoppt die Pipeline automatisch.
+ Die Media Insights-Pipeline wurde für mehr als 2 Stunden angehalten. Das System stoppt die Pipeline automatisch.

# Anhalten und Wiederaufnehmen von Anrufanalyse-Pipelines für das Amazon Chime SDK
<a name="pausing-and-resuming-call-analytics-pipelines"></a>

Um eine Media Insights-Pipeline anzuhalten und wieder aufzunehmen, rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API mit der Aktion oder auf. `Pause` `Resume` Dazu übergeben Sie entweder die ID oder den ARN der Pipeline in das `Identifier` Feld.

**Warnung**  
Warnung: Die `UpdateMediaInsightsPipelineStatus` API *stoppt* alle Sprachanalyseaufgaben, die in einer Media Insights-Pipeline gestartet wurden, wenn ein `Pause` Status angegeben wird. Wenn der `Resume` Status angegeben ist, werden Aufgaben nicht wieder aufgenommen und müssen erneut gestartet werden. Sie müssen alle erforderlichen Hinweise bereitstellen und alle erforderlichen Zustimmungen der Referenten einholen, bevor Sie die Aufgaben wieder aufnehmen können. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html)in der *Amazon Chime SDK API-Referenz.*

Im angehaltenen Zustand sendet die Pipeline keine Medien mehr an Prozessoren und schreibt keine Daten mehr in Kinesis Data Streams und Data Warehouses. Wenn Sie `Resume` die Pipeline aufrufen, sendet der Service den neuesten verfügbaren Chunk im Stream. Media Insights-Pipelines werden automatisch gestoppt, wenn sie länger als 2 Stunden angehalten werden. **Bitte beachten Sie, dass** die Anrufaufzeichnung das Anhalten und Wiederaufnehmen nicht unterstützt. 

 Weitere Informationen finden Sie in den folgenden Themen: 
+ [ EventBridge Benachrichtigungen verwenden](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).
+ [https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType)im *Amazon Kinesis Video Streams Streams-Entwicklerhandbuch*.
+ [Amazon Transcribe-Prozessor für Anrufanalysen.](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-transcribe-analytics-processor)

**Anmerkung**  
 Ihnen wird die Nutzung der Anrufanalysen in Rechnung gestellt, während eine Pipeline unterbrochen ist. AWS Dienste, auf die über die Rolle „Ressourcenzugriff“ zugegriffen wird, wie Amazon Transcribe und Amazon Kinesis, werden Ihnen jedoch nicht in Rechnung gestellt. 

 Sie können vorhandene Anrufanalysekonfigurationen mit, und lesen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html), aktualisieren und löschen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html), [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html) APIs indem Sie den Konfigurationsnamen oder den ARN im Feld Identifier übergeben. 

 Sie können Konfigurationen auflisten, indem Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html)API aufrufen. 

# Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK
<a name="call-analytics-resource-access-role"></a>

Das anrufende Konto muss die Rolle für den Ressourcenzugriff erstellen, die von einer Media Insights-Pipeline-Konfiguration verwendet wird. Sie können keine kontoübergreifenden Rollen verwenden. 

Abhängig von den Funktionen, die Sie beim Erstellen einer Konfiguration für Anrufanalysen aktivieren, müssen Sie zusätzliche Ressourcenrichtlinien verwenden. Erweitern Sie die folgenden Abschnitte, um mehr zu erfahren.

## Erforderliche Mindestrichtlinie
<a name="minimum-policy"></a>

Für die Rolle ist mindestens die folgende Richtlinie erforderlich:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "transcribe:StartCallAnalyticsStreamTranscription",
                "transcribe:StartStreamTranscription"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": ["kms:Decrypt"],
            "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

Sie müssen außerdem die folgende Vertrauensrichtlinie verwenden:

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "Service": "mediapipelines.chime.amazonaws.com"
      },
      "Action": "sts:AssumeRole",
      "Condition": {
        "StringEquals": {
            "aws:SourceAccount": "111122223333"
        },
        "ArnLike": {
            "aws:SourceARN": "arn:aws:chime:*:111122223333:*"
        }
        }
    }
  ]
}
```

------

## KinesisDataStreamSink-Richtlinie
<a name="kds-stream-sink-policy"></a>

Wenn Sie die verwenden`KinesisDataStreamSink`, fügen Sie die folgende Richtlinie hinzu:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "kinesis:PutRecord"
            ],
            "Resource": [
                "arn:aws:kinesis:us-east-1:111122223333:stream/output_stream_name"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## S3RecordingSink-Richtlinie
<a name="s3-recording-sink-policy"></a>

Wenn Sie die verwenden`S3RecordingSink`, fügen Sie die folgende Richtlinie hinzu:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:PutObject",
                "s3:PutObjectAcl",
                "s3:PutObjectTagging"
            ],
            "Resource": [
                "arn:aws:s3:::input_bucket_path/*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
                "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## Analytics-Richtlinie nach dem Anruf
<a name="post-call-analytics-policy"></a>

Wenn Sie die Funktion Post Call Analytics von verwenden`AmazonTranscribeCallAnalyticsProcessor`, fügen Sie die folgende Richtlinie hinzu:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "iam:PassRole"
            ],
            "Resource": [
                "arn:aws:iam::111122223333:role/transcribe_role_name"
            ],
            "Condition": {
                "StringEquals": {
                    "iam:PassedToService": "transcribe.streaming.amazonaws.com"
                }
            }
        }
    ]
}
```

------

## VoiceEnhancementSinkConfiguration-Richtlinie
<a name="enhancement-sink-config-policy"></a>

Wenn Sie das `VoiceEnhancementSinkConfiguration` Element verwenden, fügen Sie die folgende Richtlinie hinzu:

------
#### [ JSON ]

****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObject",
            "s3:PutObject",
            "s3:PutObjectAcl",
            "s3:PutObjectTagging"
         ],
         "Resource":[
            "arn:aws:s3:::input_bucket_path/*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:GetDataEndpoint",
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
         "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kms:GenerateDataKey"
         ],
         "Resource":[
         "arn:aws:kms:us-east-1:111122223333:key/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      }
   ]
}
```

------

## VoiceAnalyticsProcessor-Richtlinie
<a name="voice-analytics-processor-policy"></a>

Wenn Sie das verwenden`VoiceAnalyticsProcessor`, fügen Sie die Richtlinien für`LambdaFunctionSink`, und `SnsTopicSink` je nachdem`SqsQueueSink`, welche Senken Sie definiert haben, hinzu.

`LambdaFunctionSink`-Richtlinie:    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "lambda:InvokeFunction",
        "lambda:GetPolicy"
       ],
      "Resource": [
          "arn:aws:lambda:us-east-1:111122223333:function:function_name"
       ],
      "Effect": "Allow"
    }
  ]
}
```

`SqsQueueSink`-Richtlinie    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sqs:SendMessage",
        "sqs:GetQueueAttributes"
       ],
      "Resource": [
      "arn:aws:sqs:us-east-1:111122223333:queue_name"
        ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

`SnsTopicSink`-Richtlinie:    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sns:Publish",
        "sns:GetTopicAttributes"
      ],
      "Resource": [
      "arn:aws:sns:us-east-1:111122223333:topic_name"
      ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

# Grundlegendes zum Status der Anrufanalysen für das Amazon Chime SDK
<a name="call-analytics-statuses"></a>

Media Insights-Pipelines verfolgen eine Reihe von Status, wenn Sie eine oder beide der folgenden Aktionen ausführen: 
+ Verwenden Sie mehrere Verarbeitungselemente für maschinelles Lernen, wie Amazon Transcribe und Voice Analytics.
+ Aktivieren Sie die Anrufaufzeichnung mit oder ohne maschinelles Lernen.

Verwenden Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html)API und [EventBridgeBenachrichtigungen](using-eventbridge-notifications.md), um den Pipeline- und Elementstatus abzurufen.

Verwenden Sie die Benachrichtigungsziele [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html)und und [GetVoiceToneAnalysisTask APIs](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html)[Sprachanalyse-Benachrichtigungen, um den Status für Sprachanalyseaufgaben](va-notification-targets.md) abzurufen.

Media Insights-Pipelines verfolgen die folgenden Status.
+ **Pipeline-Status** — Der Gesamtstatus einer Call Analytics-Pipeline, auch bekannt als Media Insights-Pipeline. Dies wird durch den Status der Elemente bestimmt.
+ **Elementstatus** — Der Verarbeitungsstatus für die einzelnen Konfigurationselemente der Media Insights-Pipeline.
+ **Aufgabenstatus** — Der Verarbeitungsstatus für eine Media Insights-Pipeline-Aufgabe, die für Sprachanalysen gestartet wurde. Der Status des `VoiceAnalyticsProcessor` Elements wird durch den Status der Aufgaben bestimmt. Kein anderes Element in einer Anrufanalyse-Pipeline hat einen Aufgabenstatus.

  Weitere Informationen zu den Aufgaben der Media Insights-Pipeline finden Sie weiter [Grundlegendes zur Anrufanalyse-Terminologie für das Amazon Chime SDK](ca-terms-concepts.md) oben in diesem Handbuch.

Nicht alle Media Insights-Konfigurationselementtypen haben einen Elementstatus. Im Allgemeinen haben nur Media Insights-Konfigurationselemente vom Typ „Prozessor“ einen Elementstatus. Außerdem haben die Amazon S3 S3-Speicher für Aufnahme und Sprachverbesserung Prozessorstatus. Insbesondere gibt es Elementstatus für die folgenden Media Insights-Konfigurationselementtypen:
+ `AmazonTranscribeProcessor`
+ `AmazonTranscribeCallAnalyticsProcessor`
+ `S3RecordingSink`
+ `VoiceAnalyticsProcessor`
+ `VoiceEnhancementSink`

Der Pipeline-Status wird durch die Elementstatus wie folgt bestimmt:


| Status der Pipeline | Bedingung | 
| --- | --- | 
| NotStarted | Alle Elementstatus sind nicht gestartet. | 
| Initialisieren | Mindestens ein Element wird initialisiert und der Rest wird nicht gestartet. | 
| InProgress | Mindestens ein Element ist in Bearbeitung.  | 
| Fehlgeschlagen | Mindestens ein Element ist ausgefallen und die übrigen Elemente wurden gestoppt. | 
| Wird angehalten | Eine [Verwaltung von Anrufanalyse-Pipelines für das Amazon Chime SDK](managing-call-analytics-pipelines.md) vollständige Liste der Stoppbedingungen finden Sie unter. | 
| Angehalten | Alle Elemente sind gestoppt. | 
| Pausiert | Alle Elemente sind angehalten. | 

Im Gegensatz zu anderen Elementstatus weist das `VoiceAnalyticsProcessor` Element einige Nuancen auf. Wie bereits erwähnt, wird der `VoiceAnalyticsProcessor` Elementstatus, der der Sprachanalysefunktion des Amazon Chime SDK entspricht, durch den Aufgabenstatus bestimmt, der aus [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)und erstellt wurde. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html)
+ Der Status `VoiceAnalyticsProcessor` des Elements beginnt mit einem `NotStarted` Status, weil `StartSpeakerSearchTask` und `StartVoiceToneAnalysisTask` muss aufgerufen werden, bevor das Element den Status in und dann ändern kann. `Initializing` `InProgress`
+ Der `VoiceAnalyticsProcessor` bleibt `InProgress` so lange bestehen, wie eine Aufgabe gestartet wird und eine [Stoppbedingung](managing-call-analytics-pipelines.md) nicht erfüllt ist, während die Aufgabe ausgeführt wird.
+ Auch wenn dies der `VoiceAnalyticsProcessor` Fall sein kann`InProgress`, wird Ihnen nur die Dauer in Rechnung gestellt, für die die Aufgaben bearbeitet werden.
+ Um Media Insights-Pipelines zu bereinigen, in denen mindestens eine Sprachanalyse-Aufgabe gestartet wurde und keine weiteren Aufgaben ausgeführt wurden, müssen Sie anrufen. `DeleteMediaPipeline`
+ Solange eine Aufgabe erfolgreich ausgeführt oder abgeschlossen wird, bleibt der `VoiceAnalyticsProcessor` Elementstatus bei. `InProgress`

# Überwachung von Anrufanalyse-Pipelines für das Amazon Chime SDK mit Amazon CloudWatch
<a name="monitoring-with-cloudwatch"></a>

Sie können Amazon verwenden CloudWatch , um die Aufrufanalyse-Pipelines des Amazon Chime SDK zu überwachen. Sie können auch Alarme einrichten, die auf bestimmte Grenzwerte achten und Benachrichtigungen senden oder Aktivitäten auslösen, wenn diese Grenzwerte erreicht werden. Weitere Informationen zu CloudWatch finden Sie im [ CloudWatchAmazon-Benutzerhandbuch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/).

**Topics**
+ [Voraussetzungen](#monitoring-prereqs)
+ [Rufen Sie Analyse-Metriken auf](#monitoring-metrics)
+ [CloudWatch Dimensionen für Pipeline-Metriken](#monitoring-dimensions)

## Voraussetzungen
<a name="monitoring-prereqs"></a>

Um CloudWatch Metriken verwenden zu können, müssen Sie zunächst eine servicebezogene Rolle für Media Pipelines erstellen, die Berechtigungen zur Veröffentlichung von Servicemetriken auf Amazon gewährt. CloudWatch Weitere Informationen zur serviceverknüpften Rolle finden Sie in diesem [Eine serviceverknüpfte Rolle für Amazon Chime SDK-Medien-Pipelines erstellen](create-pipeline-role.md) Handbuch.

## Rufen Sie Analyse-Metriken auf
<a name="monitoring-metrics"></a>

Amazon Chime SDK Call Analytics veröffentlicht die folgenden Metriken im `AWS/ChimeSDK` Namespace für Media Insights-Pipelines, die Sie mithilfe einer Media Insights-Konfiguration erstellen.


| Metrik | Description | 
| --- | --- | 
|  `MediaInsightsPipelineCreated`  |  Die Media Insights-Pipeline wurde erfolgreich erstellt. Einheit: Anzahl  | 
|  `MediaInsightsPipelineStopped`  |  Die Media Insights-Pipeline wurde erfolgreich gestoppt. Einheit: Anzahl  | 
|  `MediaInsightsPipelineFailed`  |  Die Media Insights-Pipeline ist ausgefallen. Einheit: Anzahl  | 
|  `MediaInsightsPipelineDuration`  |  Die Zeit zwischen der Erstellung der Pipeline und Stopped/Failed. Einheit: Sekunden  | 
|  `MediaInsightsPipelineBillingDuration`  |  Die Abrechnungsdauer der Media Insights-Pipeline. Einheit: Anzahl  | 
|  `RecordingFileSize`  |  Die Größe der Aufnahmedatei. Einheit: Byte  | 
|  `RecordingDuration `  |  Die Dauer der Aufnahme. Einheit: Sekunden  | 

## CloudWatch Dimensionen für Pipeline-Metriken
<a name="monitoring-dimensions"></a>

In der folgenden Tabelle sind die CloudWatch Dimensionen aufgeführt, die Sie zur Überwachung von Anrufanalyse-Pipelines verwenden können.


| Dimension | Description | 
| --- | --- | 
| `MediaInsightsPipelineConfigurationId` | Die ID der Media Insights-Pipeline-Konfiguration. | 
| `MediaInsightsPipelineConfigurationName` | Der Name der Media Insights-Pipeline-Konfiguration. | 

# Rufen Sie den Analyseprozessor und die Ausgabeziele für das Amazon Chime SDK auf
<a name="call-analytics-processor-and-output-destinations"></a>

 Sie können eindeutige Elemente nur einmal pro Media Insights-Pipeline-Konfiguration angeben. Alle Prozessoren und Senken müssen sich in demselben AWS Konto befinden, und Sie müssen sie in derselben AWS Region erstellen wie der Endpunkt, den Sie aufrufen. Wenn Sie beispielsweise den `us-east-1` Endpunkt für Amazon Chime SDK Media Pipelines verwenden, können Sie keinen Kinesis Data Stream aus der Region übergeben. `us-west-2` 

Erweitern Sie jeden Abschnitt, um Informationen zu den einzelnen Zielen zu erhalten.

## Ziele des Amazon Transcribe Call Analytics-Prozessors
<a name="amazon-transcribe-call-analytics-processor"></a>

Unterstützte Spülbecken:. `KinesisDataStreamSink`

Sie können diesen Prozessor nicht mit einem Amazon Transcribe Transcribe-Prozessor kombinieren. Weitere Informationen zu Amazon Transcribe Call Analytics finden Sie unter [Anrufanalysen in Echtzeit](https://docs.aws.amazon.com/transcribe/latest/dg/call-analytics-streaming.html) im *Amazon Transcribe* Developer Guide. Wenn Sie die [Analyse nach dem Anruf](https://docs.aws.amazon.com/transcribe/latest/dg/tca-post-call.html) aktivieren, indem Sie sie `PostCallAnalyticsSettings` in den `AmazonTranscribeCallAnalyticsProcessorConfiguration` API-Aufruf aufnehmen, erhalten Sie Artefakte am angegebenen Amazon S3 S3-Speicherort, wenn die Media Insights-Pipeline stoppt und die Verarbeitung abgeschlossen ist.

**Anmerkung**  
Wenn Sie die Pipeline für mehr als 35 Sekunden anhalten und dann fortsetzen, werden Artefakte nach dem Aufrufen in separaten Dateien mit unterschiedlichen Sitzungen IDs im Amazon S3 S3-Bucket generiert.

Zu den Artefakten nach dem Anruf gehören eine JSON-Analysedatei und eine WAV- oder Opus-Datei für Audioaufnahmen. Die Amazon S3 S3-Bucket-URL für geschwärzte (wenn Sie die Inhaltsschwärzung aktivieren) und nicht geschwärzte Aufzeichnungsdateien wird einmal für jede Amazon Transcribe Call Analytics-Post-Call-Sitzung als Teil des Metadatenbereichs an den Kinesis Data Stream gesendet. `onetimeMetadata`

Anrufanalysen mit Amazon Transcribe Call Analytics verwenden Audiodaten, die vom Kinesis Video Stream eingegeben werden.
+ Unterstützte Medienkodierung: PCM-signiertes 16-Bit-Little-Endian-Audio.
+ Unterstützte Medien-Sampleraten: Zwischen 8.000 Hz und 48.000 Hz.

`StreamConfiguration`Eingabe für einen Amazon Transcribe Analytics-Prozess:
+ Sie müssen das `KinesisVideoStreamArn` für jeden Stream angeben.
+ (Optional) Das KVS `FragmentNumber` startet eine Anrufanalyseaufgabe mit dem Chunk nach einem bestimmten Fragment. Falls nicht angegeben, verwendet es den neuesten Teil des Kinesis-Videostreams.
+ Das `StreamChannelDefinition` definiert, wer spricht. Amazon Transcribe Call Analytics erfordert Zweikanal-Audio. Sie müssen angeben, welcher Lautsprecher sich auf welchem Kanal befindet, wenn Sie die API aufrufen. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) Wenn Ihr Agent beispielsweise zuerst spricht, setzen Sie auf, `ChannelId` `0` um den ersten Kanal anzuzeigen, und auf, `ParticipantRole` `AGENT` um anzuzeigen, dass der Agent spricht.

**Anmerkung**  
Wenn Sie einen Voice Connector verwenden, um einen `MediaInsightsPipeline` mit einem Amazon Transcribe Anrufanalyseprozessor zu erstellen, ist das Audio des Voice Connector-Kontos `AGENT` und das PSTN-Audio für den. `CUSTOMER` `ParticipantRole`  
Für Voice Connector SIPREC verlassen wir uns auf die SIPREC-Metadaten. In den meisten Fällen wird das Stream-Label mit dem niedrigsten lexikografischen Wert als das Stream-Label angesehen. `AGENT`

Das folgende Beispiel zeigt den Kinesis Video Stream-Eingang für einen Zweikanal-Audiostream.

```
"StreamChannelDefinition" : {
    "NumberOfChannels" : 2
    "ChannelDefinitions": [
        {
            "ChannelId": 0,
            "ParticipantRole": "AGENT"
        },
        {
            "ChannelId": 1,
            "ParticipantRole": "CUSTOMER"
        }
    ]
}
```

 Im Gegensatz dazu zeigt das folgende Beispiel zwei Monoeingänge von zwei verschiedenen Kinesis-Videostreams. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0,
               "ParticipantRole": "AGENT"
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1,
               "ParticipantRole": "CUSTOMER"
            }
        ]
    }
```

## Ausgabe der Amazon Transcribe Transcribe-Anrufanalysen
<a name="amazon-transcribe-call-analytics-output"></a>

 Jeder Amazon Transcribe Transcribe-Datensatz enthält ein `UtteranceEvent` oder ein`CategoryEvent`, aber nicht beides. `CategoryEvents`habe ein `detail-type` von. `TranscribeCallAnalyticsCategoryEvent` 

Das folgende Beispiel zeigt das einmalige Metadaten-Ausgabeformat für Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string", // siprec metadata in JSON (converted from above XML) 
    
    // If PostcallSettings are enabled for Amazon Transcribe Call Analytics
    "s3RecordingUrl": "string", 
    "s3RecordingUrlRedacted": "string"
}
 
// inviteHeaders object
{
    "string": "string"
}
```

 Das folgende Beispiel zeigt das Amazon Transcribe Call Analytics-Ausgabeformat. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "TranscribeCallAnalytics",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceConnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    },
    "UtteranceEvent": {
        "UtteranceId": "string",
        "ParticipantRole": "string",
        "IsPartial": boolean,
        "BeginOffsetMillis": number,
        "EndOffsetMillis": number,
        "Transcript": "string",
        "Sentiment": "string",
        "Items": [{
            "Content": "string",
            "Confidence": number,
            "VocabularyFilterMatch": boolean,
            "Stable": boolean,
            "ItemType": "string",
            "BeginOffsetMillis": number,
            "EndOffsetMillis": number,
        }, ]
        "Entities": [{
            "Content": "string",
            "Confidence": number,
            "Category": "string", // Only PII is supported currently
            "Type": "string",
            "BeginOffset": number,
            "EndOffset": number,
        }, ],
        "IssuesDetected": [{
            "CharacterOffsets": {
                "Begin": number,
                "End": number
            }
        }]
    },
    "CategoryEvent": {
        "MatchedCategories": ["string"],
        "MatchedDetails": {
            "string": {
                "TimestampRanges": [{
                    "BeginOffsetMillis": number,
                    "EndOffsetMillis": number
                }]
            }
        }
    }
}
```

## Amazon Chime SDK Voice Connector-Streaming aktualisiert Metadaten
<a name="cvc-stream-update-metadata"></a>

Wenn die Konfiguration der Anrufanalyse mit einem Amazon Chime SDK Voice Connector verknüpft ist, wird die folgende Payload für das Voice Connector-Update gesendet, wenn es ein [Voice Connector-Streaming-Update](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) gibt.

Das folgende Beispiel zeigt ein Update-Metadatenformat für den Amazon Transcribe Transcribe-Prozessor und den Transcribe Call Analytics-Prozessor.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// sipHeaders object
{
    "string": "string"
}
```

Das folgende Beispiel zeigt ein aktualisiertes Metadatenformat für Call Analytics Amazon S3 Recording.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Metadaten zur SIP-Anrufaufzeichnung
<a name="sip-update-metadata"></a>

Die folgenden Beispiele zeigen die Metadaten für die Aufzeichnung eines SIP-Anrufs zwischen zwei Personen, Alice und Bob. Beide Teilnehmer senden und empfangen Audio und Video. Der Einfachheit halber enthält das Beispiel nur Ausschnitte von SIP und SDP, und SRC zeichnet die Streams jedes Teilnehmers auf SRS auf, ohne sie zu mischen.

```
INVITE sip:recorder@example.com SIP/2.0
   Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
   From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
   To: <sip:recorder@example.com>
   Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
   Session-ID: ab30317f1a784dc48ff824d0d3715d86
    ;remote=00000000000000000000000000000000
   CSeq: 101 INVITE
   Max-Forwards: 70
   Require: siprec
   Accept: application/sdp, application/rs-metadata,
   application/rs-metadata-request
   Contact: <sip:2000@src.example.com>;+sip.src
   Content-Type: multipart/mixed;boundary=boundary
   Content-Length: [length]

   Content-Type: application/SDP
   ...
   m=audio 49170 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:96
   a=sendonly
   ...
   m=video 49174 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:97
   a=sendonly
   ...
   m=audio 51372 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:98
   a=sendonly
   ...
   m=video 49176 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:99
   a=sendonly
   ....

Content-Type: application/rs-metadata
Content-Disposition: recording-session

<?xml version="1.0" encoding="UTF-8"?>
<recording xmlns='urn:ietf:params:xml:ns:recording:1'>
  <datamode>complete</datamode>
        <group group_id="7+OTCyoxTmqmqyA/1weDAg==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
                <!-- Standardized extension -->
                <call-center xmlns='urn:ietf:params:xml:ns:callcenter'>
                        <supervisor>sip:alice@atlanta.com</supervisor>
                </call-center>
                <mydata xmlns='http://example.com/my'>
                        <structure>structure!</structure>
                        <whatever>structure</whatever>
                </mydata>
        </group>
        <session session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <sipSessionID>ab30317f1a784dc48ff824d0d3715d86;
                                      remote=47755a9de7794ba387653f2099600ef2</sipSessionID>
                <group-ref>7+OTCyoxTmqmqyA/1weDAg==
                </group-ref>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </session>
        <participant
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <nameID aor="sip:alice@atlanta.com">
                        <naSRCme xml:lang="it">Alice</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <participant
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <nameID aor="sip:bob@biloxy.com">
                        <name xml:lang="it">Bob</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <stream stream_id="UAAMm5GRQKSCMVvLyl4rFw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>96</label>
        </stream>
        <stream stream_id="i1Pz3to5hGk8fuXl+PbwCw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>97</label>
        </stream>
        <stream stream_id="8zc6e0lYTlWIINA6GR+3ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>98</label>
        </stream>
        <stream stream_id="EiXGlc+4TruqqoDaNE76ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>99</label>
        </stream>
        <sessionrecordingassoc session_id="hVpd7YQgRW2nD22h7q60JQ==">
            <associate-time>2010-12-16T23:41:07Z</associate-time>
        </sessionrecordingassoc>
        <participantsessionassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w=="
              session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantsessionassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantstreamassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
                <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
                <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
                <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
        </participantstreamassoc>
        <participantstreamassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <send>8zc6e0lYTlWIINA6GR+3ag==</send>
                <send>EiXGlc+4TruqqoDaNE76ag==</send>
                <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
                <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
        </participantstreamassoc>
</recording>
```

Das folgende Beispiel zeigt die aktualisierten Metadaten, wenn ein Gesprächsteilnehmer den anderen in die Warteschleife setzt. In diesem Fall empfängt es `participant_id srfBElmCRp2QB23b7Mpk0w==` nur Medienstreams und sendet keine Medien, sodass das `send` XML-Element weggelassen wird. `participant_id zSfPoSvdSDCmU3A3TRDxAw==`Sendet dagegen Medien an den anderen Teilnehmer, empfängt aber keine Medien von diesem, sodass das `recv` XML-Element weggelassen wird.

```
INVITE sip:recorder@example.com SIP/2.0
            Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....

   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
             </participantstreamassoc>
           </recording>
```

Das folgende Beispiel zeigt die Aktualisierung der Metadaten, wenn der Anruf wieder aufgenommen wird. Die Nutzlast enthält jetzt die `recv` XML-Elemente `send` und.

```
INVITE sip:recorder@example.com SIP/2.0
      Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....
    
   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
             <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
              <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
             <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
             </participantstreamassoc>
           </recording>
```

## Ziele für Amazon Transcribe Transcribe-Prozessoren
<a name="amazon-transcribe-processors"></a>

Unterstützte Spülbecken:. `KinesisDataStreamSink`

Sie können diesen Prozessor nicht mit der Amazon Transcribe-Anrufanalyse kombinieren. Weitere Informationen zur Eingabe und Ausgabe von Amazon Transcribe finden Sie unter Transcribe [Streaming Audio im *Amazon* Transcribe](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html) Developer Guide.

Die Anrufanalysesitzung mit Amazon Transcribe verwendet Audiodaten, die von Kinesis Video Stream eingegeben werden.
+ Unterstützt MediaEncoding: PCM-signiertes 16-Bit-Little-Endian-Audio.
+ Unterstützte MediaSampleRate Abtastraten: Zwischen 8.000 Hz und 48.000 Hz.

 `StreamConfiguration`Eingabe für Amazon Transcribe Transcribe-Prozessoren: 
+ Sie müssen das `KinesisVideoStreamArn` für jeden Stream angeben.
+ (Optional) KVS `FragmentNumber` — Startet einen Anrufanalysejob mit dem Block nach einem bestimmten Fragment. Falls nicht angegeben, wird der neueste verfügbare Chunk im Kinesis Video Stream verwendet.
+ `StreamChannelDefinition`Amazon Transcribe unterstützt derzeit Audio mit zwei Kanälen. Sie müssen das `NumberOfChannels` in der Laufzeit angeben. `StreamChannelDefinition` Außerdem müssen Sie das übergeben, `ChannelId` wenn Sie Mono-Audio in zwei separaten Kanälen senden. In Ihrem Transkript sind die Kanäle mit den Bezeichnungen `ch_0` und `ch_1` versehen. Das folgende Beispiel zeigt den KVS-Eingang für einen Mono-Audiokanal-Stream.

```
"StreamChannelDefinition" : {"
    NumberOfChannels" : 1
}
```

 Das folgende Beispiel zeigt den KVS-Eingang für zwei Mono-Audioeingänge in zwei verschiedenen Streams. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1
            }
        ]
    }
```

**Anmerkung**  
Für den Voice Connector, der `MediaInsightsPipeline` mit einem Amazon Transcribe Transcribe-Prozessor erstellt wurde, wird das Voice Connector-Konto Leg Audio `channel-0` und das PSTN Leg Audio zugewiesen. `channel-1`  
Für Voice Connector SIPREC verlassen wir uns auf die SIPREC-Metadaten. In den meisten Fällen wird das Stream-Label mit dem niedrigsten lexikografischen Wert zugewiesen. `channel-0`  
Wenn Sie bei den Anrufanalyseprozessoren Amazon Transcribe und Amazon Transcribe zwei Kinesis Video-Streams weiterleiten und jeder Stream einen Mono-Audiokanal enthält, verschachteln wir beide Kanäle zu einem einzigen Audiostream, bevor wir Transcribe- oder Transcribe-Anrufanalysedaten verarbeiten.

## Amazon Transcribe Transcribe-Ausgabe
<a name="amazon-transcribe-output"></a>

Das folgende Beispiel zeigt ein einmaliges Metadaten-Ausgabeformat für Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// inviteHeaders object
{
    "string": "string"
}
```

Das folgende Beispiel zeigt das Amazon Transcribe Transcribe-Ausgabeformat. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Transcribe",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceconnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    }
    "TranscriptEvent": {
        "Transcript": {
            "Results": [{
                "Alternatives": [{
                    "Entities": [{
                        "Category": "string",
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "StartTime": number,
                        "Type": "string"
                    }],
                    "Items": [{
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "Speaker": "string",
                        "Stable": boolean,
                        "StartTime": number,
                        "Type": "string",
                        "VocabularyFilterMatch": boolean
                    }],
                    "Transcript": "string"
                }],
                "ChannelId": "string",
                "EndTime": number,
                "IsPartial": boolean,
                "LanguageCode": "string",
                "LanguageIdentification": [{
                    "LanguageCode": "string",
                    "Score": number
                }],
                "ResultId": "string",
                "StartTime": number
            }]
        }
    }
}
```

## Ziele des Sprachanalyseprozessors
<a name="voice-analytics-processor"></a>

 Unterstützte Senken:`KinesisDataStreamSink`, `SqsQueueSink``SnsTopicSink`, und`LambdaFunctionSink`. 

 Sie können diesen Prozessor mit dem Amazon Transcribe Transcribe-Prozessor für Anrufanalysen, dem Amazon Transcribe Transcribe-Prozessor oder der Anrufaufzeichnung kombinieren. Sie müssen das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)oder verwenden, [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs um einen Sprachanalyseprozessor aufzurufen. Weitere Informationen zur Verwendung von Sprachanalysen finden Sie unter [Verwenden von Amazon Chime SDK-Sprachanalysen.](https://docs.aws.amazon.com/chime-sdk/latest/dg/voice-analytics.html) 

## Kinesis Data Stream als Senke verwenden
<a name="kinesis-data-stream-destination"></a>

Die durch Anrufanalysen generierten Kinesis Data Stream (KDS) -Datensätze umfassen die Medien-Pipeline-ID, den Detailtyp, Metadaten und prozessorspezifische Abschnitte. Informationen zur Nutzung von Daten aus einem Kinesis Data Stream finden Sie unter [Daten aus Amazon Kinesis Data Streams lesen im Amazon Kinesis Streams *Streams-Entwicklerhandbuch*](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html). Um eine Konfiguration mit dieser Senke zu erstellen, benötigen Sie `kinesis:DescribeStream` Berechtigungen für den angegebenen Stream. 

 **Metadaten**

 Der `metadata` Abschnitt der generierten KDS-Datensätze enthält alle Schlüssel-Wert-Paare, die `CallAnalyticsRuntimeMetadata` während des API-Aufrufs angegeben wurden. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) Wenn eine Anrufanalysesitzung von einem Voice Connector initiiert wurde, wird der Metadatenbereich automatisch mit den folgenden Parametern gefüllt: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Zusätzlich zu den oben aufgeführten Parametern wird der Metadatenbereich für von Voice Connector initiierte Anrufanalysesitzungen mit einem `oneTimeMetadata` Feld gefüllt, das Folgendes enthält: 
+ `inviteHeaders`
+ `siprecMetadata`

Dies wird zu Beginn der Sitzung nur einmal in Kinesis Data Streams veröffentlicht und hat den Wert `detail-type` von`CallAnalyticsMetadata`.

Sie können `MediaInsightsRuntimeMetadata` für jeden [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API-Aufruf eindeutige Kennungen übergeben, sodass Sie die Quelle jedes Datensatzes, der an Ihren Kinesis Data Stream geliefert wird, eindeutig identifizieren können.

## Amazon S3 S3-Anrufaufzeichnung
<a name="amazon-s3-call-recording"></a>

 Die Aufzeichnung von Call Analytics liest Audio aus einem KVS-Stream, zeichnet es als Audiodatei auf und lädt die Datei in den angegebenen Amazon S3 S3-Bucket hoch. Nach der Aufzeichnung sendet Call Analytics auch die Metadaten des Anrufs zusammen mit dem Speicherort der Datei an KDS. Wenn Sie ein Data Warehouse aktivieren, werden die Metadaten des Anrufs (einschließlich SIPREC-Metadaten, falls SIPREC verwendet wurde) in Form von Parquet-Tabellen, die Sie abfragen können, an das Data Warehouse übermittelt.

Wie bei jedem anderen Prozessor für Anrufanalysen müssen Sie zunächst eine Konfiguration für die Pipeline erstellen. Sie können die Amazon Chime SDK-Konsole oder die CLI verwenden, um die Konfiguration zu erstellen. Anschließend verwenden Sie die CLI, um die Pipeline zu erstellen. Weitere Informationen zur Verwendung der Konsole zum Erstellen von Aufzeichnungskonfigurationen finden Sie weiter [Anrufanalysekonfigurationen für das Amazon Chime SDK erstellen](creating-ca-configuration.md) oben in diesem Abschnitt. Weitere Informationen zur Verwendung der Aufzeichnungsworkflows finden Sie weiter [Grundlegendes zu Workflows für die Aufzeichnung von Anrufen für das Amazon Chime SDK](recording-workflows.md) oben in diesem Abschnitt.

 **So verwenden Sie die CLI zum Erstellen einer Konfiguration**

 Führen Sie den folgenden Befehl aus: 

```
aws chime-sdk-media-pipeline create-media-insights-pipeline-configuration --cli-input-json file://configuration.json 
```

 Das folgende Beispiel zeigt eine JSON-Konfigurationsdatei, bei der nur die Aufzeichnung aktiviert ist: 

```
{
    "MediaInsightsPipelineConfigurationName": configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": "arn:aws:s3:::kvs-recording-testing",
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }         
    ]
}
```

Beachten Sie Folgendes:
+ Um die Anrufaufzeichnung über Kinesis Video Streams zu ermöglichen, sollte Audio mit PCM-signierter 16-Bit-Little-Endian-Signatur sein. Die Samplerate muss 8 sein. KHz 
+ Entwickler müssen eine ausreichend lange Datenaufbewahrungsdauer für den Kinesis Video Stream festlegen, um sicherzustellen, dass die Fragmente aufbewahrt und für Anrufanalysen verwendet werden können. 
+ Wenn Sie die Anrufaufzeichnung entweder alleine oder in Kombination mit anderen Prozessoren aktivieren, müssen Sie zwei Kinesis Video Stream ARNs für die Aufzeichnung bereitstellen. Die Anrufaufzeichnung unterstützt keinen einzelnen Stereo-Audioeingang. 

## Ausgabe von Metadaten für die Amazon S3 S3-Anrufaufzeichnung
<a name="s3-recording-metadata-output"></a>

Das folgende Beispiel zeigt das Metadaten-Ausgabeformat für die Amazon S3 S3-Aufzeichnung von Call Analytics.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",   
    "mediaInsightsPipelineId": "string",
    "s3MediaObjectConsoleUrl": "string",
    "recordingDurationSeconds": "number",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "startTime": "string", // ISO8601 format
    "endTime": "string", // ISO8601 format
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Aktivieren Sie die Sprachverbesserung
<a name="voice-enhancement-sink"></a>

Um die Sprachverbesserung zu aktivieren, fügen Sie ein `VoiceEnhancementSinkConfiguration` Element in einen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API-Aufruf ein.

Dieses Beispiel zeigt ein typisches Element.

```
{
  "Type":"VoiceEnhancementSink",
  "VoiceEnhancementSinkConfiguration": {
       "Disabled": Boolean (string) // FALSE ==> Voice Enhancement will be performed
}
```

Um eine Konfiguration zu aktualisieren, fügen Sie das `VoiceEnhancementSinkConfiguration` Element zu einem [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html)API-Aufruf hinzu. Wenn Sie dies tun, nimmt die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)API das `VoiceEnhancementSinkConfiguration` Element in die Ergebnisse auf.

Diese Beispielanfrage zeigt, wie Voice Enhancement und Amazon S3 S3-Aufzeichnung aktiviert werden.

```
POST /media-insights-pipeline-configurations HTTP/1.1
Content-type: application/json

{
   "MediaInsightsPipelineConfigurationName":"media_insights_configuration_name",
   "ResourceAccessRoleArn":"arn:aws:iam::account_id:role/resource_access_role",
   "Elements":[
      {
         "Type":"S3RecordingSink",
         "S3RecordingSinkConfiguration":{
            "Destination":"arn:aws:s3:::input_bucket_path",
            "RecordingFileFormat":"Wav"
         }
      },
      {
         "Type":"VoiceEnhancementSink",
         "VoiceEnhancementSinkConfiguration": {
            "disabled":"false"
         }
      }
   ],
   "ClientRequestToken":"client_request_token"
}
```

**Anmerkung**  
Das `VoiceEnhancementSink` Element erfordert immer ein `S3RecordingSink` Element in einer Konfiguration für Anrufanalysen.

# Kombinieren von Transkription mit Aufnahmesenken für das Amazon Chime SDK
<a name="combining-recording-transcription"></a>

Sie können die Prozessoren Amazon Transcribe und Amazon Transcribe Call Analytics mit einer Amazon S3 S3-Aufnahmesenke kombinieren. Builder können RecordingSinkConfiguration zusätzlich zu den Amazon Transcribe Transcribe-Prozessoren ein S3 in einem [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API-Aufruf oder mithilfe der Konsole übergeben.

In Verbindung mit der Amazon S3 S3-Aufnahmesenke können Sie einen Amazon Transcribe- oder einen Amazon Transcribe Call Analytics-Prozessor verwenden, aber niemals beide. Sie können derselben Konfiguration zusätzlich zu einer Aufnahmesenke auch Sprachanalysen hinzufügen, mit oder ohne Transkriptionsprozessor.

**Anmerkung**  
Sie können die Aufnahme mit jedem der oben aufgeführten Prozessoren aktivieren. Wenn Sie jedoch Amazon Transcribe Call Analytics zusammen mit der Amazon S3 S3-Anrufaufzeichnung aktivieren, müssen Sie zwei Kinesis-Videostreams bereitstellen, und Sie erhalten doppelte Aufzeichnungsdateien, eine von Amazon Transcribe Call Analytics und eine von der Amazon S3 S3-Anrufaufzeichnung.

Beachten Sie Folgendes:
+ Sie müssen ein Unikat verwenden. `MediaInsightsPipelineConfigurationName`
+ Informationen zu den `ResourceAccessRoleArn` finden Sie [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md) in diesem Handbuch.
+ Der `Destination` Wert muss ein S3-Pfad-ARN sein. Der Amazon S3 S3-Bucket muss demselben Konto gehören.
+ Wenn Sie eine Konfiguration mit Transcribe und Recording verwenden, um eine Pipeline zu erstellen, erscheinen Pausen und Wiederaufnahmen nur in den Erkenntnissen, die durch einen Kinesis Data-Stream generiert werden. Alle Daten in den KVS-Streams werden aufgezeichnet und auf Amazon S3 hochgeladen.
+ Wenn eine Konfiguration zusätzlich zur Aufzeichnung Amazon Transcribe oder Transcribe Call Analytics (TCA) verwendet, bietet die Media Insights-Pipeline Transkriptions- oder Transcribe Call Analytics-Einblicke in Echtzeit, gefolgt von einer Amazon S3 S3-Aufzeichnung am Ende des Anrufs. Wenn die Transkriptionsdienste während der Anrufanalyse fehlschlagen, versucht der S3-Aufzeichnungsjob trotzdem, ausgeführt zu werden. Umgekehrt wirkt sich ein Amazon S3 S3-Aufzeichnungsfehler nicht auf die Transcribe Insights aus, da er nach Abschluss der Transkription ausgeführt wird.

Dieses Beispiel zeigt eine Konfiguration mit einem Amazon Transcribe Transcribe-Prozessor und einer Amazon S3 S3-Aufnahmesenke. Das Beispiel ermöglicht auch eine teilweise Stabilisierung der Ergebnisse, wodurch die Latenz bei der Ausgabe reduziert werden kann, die Genauigkeit jedoch beeinträchtigt werden kann. Weitere Informationen finden Sie unter [Stabilisierung teilweiser Ergebnisse](https://docs.aws.amazon.com/transcribe/latest/dg/streaming-partial-results.html#streaming-partial-result-stabilization) im *Amazon Transcribe* Developer Guide.

```
{
    "MediaInsightsPipelineConfigurationName": unique_configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [{
            "AmazonTranscribeProcessorConfiguration": {
                "ContentIdentificationType": "string",
                "ContentRedactionType": "string",
                "EnablePartialResultsStabilization": boolean, //Enables partial result stabilization. Can reduce latency. May impact accuracy. 
                "FilterPartialResults": boolean, //To control partial utterance events
                "LanguageCode": "string",
                "LanguageModelName": "string",
                "PartialResultsStability": "string",
                "PiiEntityTypes": "string",
                "ShowSpeakerLabel": boolean,
                "VocabularyFilterMethod": "string",
                "VocabularyFilterName": "string",
                "VocabularyName": "string"
            },
            "Type": "AmazonTranscribeProcessor"
        },
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording and insights live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": S3_Arn,
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }
    ]
}
```

# Verwenden von EventBridge Amazon-Benachrichtigungen für das Amazon Chime SDK
<a name="using-eventbridge-notifications"></a>

Amazon Chime SDK Call Analytics unterstützt das Senden von Ereignissen an den EventBridge Standardbus, wenn sich der Status der Media Insights-Pipeline ändert oder wenn die Echtzeitwarnungsbedingungen für Anrufanalysen erfüllt sind. Für Statusaktualisierungen der Media Insights-Pipeline empfehlen wir, dass Sie ein EventBridge Ziel konfigurieren, das Sie benachrichtigt, wenn Ihre Ressourcen asynchron ausfallen. Benachrichtigungen zur Anrufanalyse haben eine aws.chime-Quelle und verschiedene Detailtypen, die in den folgenden Abschnitten beschrieben werden. Weitere Informationen finden Sie im [ EventBridge Amazon-Benutzerhandbuch](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html).

**Topics**
+ [Status-Aktualisierungen](#status-updates)
+ [Warnmeldungen in Echtzeit](#realtime-alerts)

## Status-Aktualisierungen
<a name="status-updates"></a>

 Media Insights-Pipelines senden EventBridge Benachrichtigungen, wenn eine Anrufanalysesitzung voranschreitet und entweder erfolgreich beendet wird oder Fehler auftreten. Sie erhalten eine EventBridge Benachrichtigung mit dem Detailtyp „Media Insights-Statusänderung“, wenn: 
+ Der Status einer Media Insights-Pipeline ändert sich.
+ Der Status eines Elements der Media Insights-Pipeline ändert sich.
+ Jedes Pipeline-Element wird gestoppt.
+ Jedes Pipeline-Element fällt aus.

Der Detailbereich enthält immer die folgenden Felder:
+ `version`
+ `mediaInsightsPipelineArn`
+ `eventType`

Der Detailbereich enthält auch ein `mediaInsightsPipelineElementStatuses` Feld, falls die Media Insights-Pipeline mehrere Elemente enthält, z. B. Analyseprozessoren und Datensenken. Dieses Feld gibt den Status der einzelnen Elemente in der Pipeline an. Der mögliche Status für jedes Pipeline-Element könnte sein:
+ `NotStarted`
+ `InProgress`
+ `Stopped`
+ `Failed`

 Der Detailabschnitt enthält auch alle Schlüssel-Wert-Paare, die `MediaInsightsRuntimeMetadata` während des [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API-Aufrufs angegeben wurden. Wenn eine Anrufanalysesitzung von einem Voice Connector initiiert wurde, wird der Metadatenbereich automatisch mit den folgenden Parametern gefüllt: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Die folgenden Ereignistypen können immer dann auftreten, wenn eine Media Insights-Pipeline ein einzelnes Element enthält. Erweitern Sie jeden Abschnitt, um mehr zu erfahren.

### Medieninformationen zum Amazon Chime SDK in Bearbeitung
<a name="insights-in-progress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsInProgress",
        "version": "0",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Amazon Chime SDK Media Insights wurde angehalten
<a name="insights-paused"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPaused",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Medieneinblicke im Amazon Chime SDK wurden eingestellt
<a name="insights-stoppped"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsStopped",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Vorübergehender Ausfall von Amazon Chime SDK Media Insights
<a name="insights-temp-failure"></a>

Zeigt an, dass der Service auf einen vorübergehenden Fehler gestoßen ist und versucht, es erneut zu versuchen. Es sind keine Maßnahmen von Ihnen erforderlich.

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Dauerhafter Ausfall von Amazon Chime SDK Media Insights
<a name="insights-perm-failure"></a>

Weist auf einen Fehler hin, der Maßnahmen Ihrerseits erfordert. Verwenden Sie den`failureReason`, um das Problem zu beheben. Zu den typischen Fehlern könnten die folgenden gehören:
+ Unzureichende Berechtigungen für die Rolle „Ressourcenzugriff“
+ Fehlende oder gelöschte Ressourcen
+ Drosselung durch einen AWS Dienst, der Analytics in Ihrem Namen aufruft, wie Amazon Transcribe oder Amazon Kinesis.
+ Inkompatible Medienformate in KVS-Streams

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPermanentFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string"              
    }
}
```

**Anmerkung**  
Das Feld `failureReason` ist optional. Ein typischer Grund könnte beispielsweise sein`Access denied when assuming resource access role`.

Die folgenden Ereignistypen können auftreten, wenn eine Media Insights-Pipeline für eine von einem Amazon Chime SDK Voice Connector initiierte Anrufanalysesitzung erstellt wird oder der Erstellungsversuch fehlschlägt. Erweitern Sie jeden Abschnitt, um mehr zu erfahren.

### Medieneinblicke zum Amazon Chime SDK erstellt
<a name="vc-pipeline-created"></a>

Dieses Beispiel zeigt ein typisches Erfolgsereignis.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsCreated",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
    }
}
```

### Die Erstellung von Media Insights im Amazon Chime SDK ist fehlgeschlagen
<a name="vc-pipeline-failed"></a>

Dieses Beispiel zeigt ein typisches Fehlerereignis.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change",     
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "eventType": "chime:MediaInsightsCreateFailed", 
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureOrigin": "Voice Connector",
        "httpStatusCode": "string",
        "failureReason": "string"
    }
}
```

Die folgenden Ereignistypen können auftreten, wenn eine Media Insights-Pipeline mehrere Elemente enthält. Die Beispielbenachrichtigungen gelten für die `AmazonTranscribeProcessor` Kombination mit`S3RecordingSink`. Erweitern Sie jeden Abschnitt, um mehr zu erfahren. 

### AmazonTranscribeProcessor ist in Bearbeitung und S3 RecordingSink wurde nicht gestartet
<a name="processor-running-sink-not-started"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "InProgress",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor war erfolgreich und S3 RecordingSink ist in Bearbeitung
<a name="processor-success-sink-in-progress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist ausgefallen und S3 RecordingSink ist in Bearbeitung
<a name="processor-fail-sink-in-process"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist fehlgeschlagen und S3 RecordingSink war erfolgreich
<a name="processor-fail-record-finish"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor war erfolgreich und S3 RecordingSink ist gescheitert
<a name="processor-success-recording-fail"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Failed",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist angehalten und S3 RecordingSink wurde nicht gestartet
<a name="processor-pause-recording-no-start"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPaused",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Paused",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ist vorübergehend ausgefallen und S3 RecordingSink wurde nicht gestartet
<a name="processor-temp-fail-recording-no-start"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "TemporarilyFailed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor und S3 RecordingSink war erfolgreich
<a name="processor-sink-success"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsStopped",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement läuft
<a name="voice-enhancement-sink-inprogress"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsInProgress",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancementSink",
        "status": "InProgress",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement scheiterte aufgrund von Aufrufen, die länger als 30 Minuten waren
<a name="voice-enhancement-sink-fail-longerthan30minutes"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsStopped",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "NotSupported",
        "updatedOn": 1686184070655,
        "statusDetail": "Unsupported recording length"
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink war erfolgreich und VoiceEnhancement schlug aufgrund von Aufrufen von weniger als 30 Minuten fehl
<a name="voice-enhancement-sink-fail-lessthan30minutes"></a>

Dieses Beispiel zeigt eine typische Ereignisstruktur.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsPermanentFailure",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "Failed",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

## Warnmeldungen in Echtzeit
<a name="realtime-alerts"></a>

**Anmerkung**  
Nur die Prozessoren Amazon Transcribe und Amazon Transcribe Call Analytics unterstützen Benachrichtigungen in Echtzeit.

 Mit der Amazon Chime SDK-Anrufanalyse können Entwickler Regeln für das Senden von Echtzeitwarnungen über einen Prozessor während einer Analysesitzung einrichten. Benachrichtigungen werden EventBridge mit dem Detailtyp an Amazon gesendet`Media Insights Rules Matched`. EventBridge unterstützt die Integration mit nachgelagerten Diensten wie Lambda, Amazon SQS und Amazon SNS, um Benachrichtigungen für den Endbenutzer auszulösen oder eine andere benutzerdefinierte Geschäftslogik zu initiieren.

 Echtzeitwarnungen werden als Teil des `RealTimeAlertConfiguration` Feldes für eingerichtet. `MediaInsightsPipelineConfiguration` Sie können die Amazon Chime SDK-Konsole verwenden, um das Feld zu konfigurieren, oder Sie können das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)oder [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html) APIsaufrufen. 

 Dieses Beispiel zeigt, wie eine Echtzeit-Warnkonfiguration über die API erstellt oder aktualisiert wird. 

```
{
    "MediaInsightsPipelineConfigurationName": "config_name",
    "ResourceAccessRoleArn": "arn:aws:iam::account_id:role/role_name",
    "RealTimeAlertConfiguration": {
        "Disabled": false,
        "Rules": [{
                "Type": "KeywordMatch",
                "KeywordMatchConfiguration": {
                    "RuleName": "rule_name_1",
                    "Keywords": [
                        "hello",
                        "thank you"
                    ],
                    "Negate": false
                }
            },
            {
                "Type": "Sentiment",
                "RuleName": "rule_name_2",
                "SentimentType": "NEGATIVE",
                "TimePeriod": 60
            },
            {
                "Type": "IssueDetection",
                "RuleName": "rule_name_3"
            }
        ]
    },
    "Elements": [{
            "Type": "AmazonTranscribeCallAnalyticsProcessor",
            "AmazonTranscribeCallAnalyticsProcessorConfiguration": {
                "LanguageCode": "en-US"
            }
        },
        {
            "Type": "KinesisDataStreamSink",
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": "arn:aws:kinesis:us-east-1:account_id:stream/stream_name"
            }
        }
    ]
}
```

Jede Regel in einer Echtzeit-Warnungskonfiguration wird unabhängig ausgelöst. Sie erhalten möglicherweise mehrere EventBridge Benachrichtigungen, wenn mehrere Regelbedingungen gleichzeitig erfüllt sind. Um eine Liste mit Regeln für Ihre Benachrichtigungen zu erstellen, können Sie zwischen den folgenden Regeltypen wählen:

Übereinstimmung mit Schlüsselwörtern  
Warnt, wenn ein bestimmter Satz von Schlüsselwörtern oder Phrasen in einer Äußerung oder einem Transkriptereignis übereinstimmt. Sie können die Warnung so konfigurieren, dass ein Ereignis ausgelöst wird, wenn:  
+ Alle angegebenen Schlüsselwörter werden gesprochen und `Negate` sind auf eingestellt`false`.
+ Alle angegebenen Schlüsselwörter bleiben während des gesamten Anrufs unausgesprochen, wenn auf gesetzt `Negate` ist. `true`
Amazon Transcribe und Amazon Transcribe Analytics unterstützen diesen Regeltyp.

Stimmungsanalyse  
Warnt, wenn ein bestimmter Stimmungstyp über einen fortlaufenden Zeitraum andauert. Nur Transcribe Call Analytics unterstützt diese Regel.

Problemerkennung  
Warnt, wenn bei einer Äußerung ein Problem erkannt wird. Nur Transcribe Call Analytics unterstützt diesen Regeltyp.

Das folgende Beispiel zeigt ein Alarmereignis in Echtzeit für eine `KeywordMatch` Regel.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights Rules Matched", 
    "source": "aws.chime", 
    "account": number,
    "region": "us-east-1",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail":   {
        "version": "0",
        "sourceMetadata": {}
        "ruleName": "string"
        "utteranceId": "string",
        "beginTimestamp": "yyyy-mm-ddThh:mm:ssZ",
    }
}
```

Einige EventBridge Felder sind spezifisch für den Regeltyp, der zutrifft:

**Felder, die mit Schlüsselwörtern übereinstimmen**  
`utteranceId`: ID des Transkripts, das ein passendes Schlüsselwort enthält, wenn Sie Amazon Transcribe Call Analytics verwenden. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.  
`resultId`: ID des Transkripts, das ein passendes Schlüsselwort enthält, wenn Sie Amazon Transcribe verwenden. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.  
`beginTimestamp`: Startzeit des Transkripts, das ein passendes Schlüsselwort enthält. Nur für die Übereinstimmung mit gesprochenen Schlüsselwörtern.

**Felder für die Stimmungsanalyse**  
`beginTimestamp`: Startzeit des fortlaufenden Zeitfensters für die übereinstimmende Stimmung.  
`endTimestamp`: Endzeit des fortlaufenden Zeitfensters für den passenden Sentiment.

# Einen Amazon Chime SDK-Data Lake erstellen
<a name="ca-data-lake"></a>

Mit dem Amazon Chime SDK Call Analytics Data Lake können Sie Ihre auf maschinellem Lernen basierenden Erkenntnisse und alle Metadaten aus Amazon Kinesis Data Stream in Ihren Amazon S3 S3-Bucket streamen. Verwenden Sie beispielsweise den Data Lake für den Zugriff URLs auf Aufzeichnungen. Um den Data Lake zu erstellen, stellen Sie eine Reihe von AWS CloudFormation Vorlagen entweder über die Amazon Chime SDK-Konsole oder programmgesteuert mithilfe von bereit. AWS CLI Mit dem Data Lake können Sie Ihre Anrufmetadaten und Sprachanalysedaten abfragen, indem Sie auf AWS Glue-Datentabellen in Amazon Athena verweisen.

**Topics**
+ [Voraussetzungen](#data-lake-prereqs)
+ [Terminologie und Konzepte von Data Lakes](#data-lake-terms)
+ [Mehrere Data Lakes erstellen](#creating-multiple-data-lakes)
+ [Regionale Verfügbarkeit von Data Lakes](#data-lake-regions)
+ [Data-Lake-Architektur](#data-lake-architecture)
+ [Einrichtung eines Data Lakes](#data-lake-setup)

## Voraussetzungen
<a name="data-lake-prereqs"></a>

Sie benötigen die folgenden Elemente, um einen Amazon Chime SDK-Lake zu erstellen:
+ Ein Amazon Kinesis Kinesis-Datenstream. Weitere Informationen finden Sie unter [Creating a Stream via the AWS Management Console](https://docs.aws.amazon.com/streams/latest/dev/how-do-i-create-a-stream.html) im *Amazon Kinesis Streams Developer Guide*.
+ Ein S3-Bucket. Weitere Informationen finden Sie unter [Erstellen Sie Ihren ersten Amazon S3 S3-Bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html) im *Amazon S3 S3-Benutzerhandbuch*.

## Terminologie und Konzepte von Data Lakes
<a name="data-lake-terms"></a>

Verwenden Sie die folgenden Begriffe und Konzepte, um zu verstehen, wie der Data Lake funktioniert.

**Amazon Kinesis Data Firehose**  
Ein ETL-Service (Extrahieren, Transformieren und Laden), der Streaming-Daten zuverlässig erfasst, transformiert und an Data Lakes, Datenspeicher und Analysedienste weiterleitet. Weitere Informationen finden Sie unter Was ist Amazon Kinesis Data Firehose?

**Amazon Athena**  
Amazon Athena ist ein interaktiver Abfrageservice, mit dem Sie Daten in Amazon S3 mithilfe von Standard-SQL analysieren können. Athena ist serverlos, sodass Sie keine Infrastruktur verwalten müssen, und Sie zahlen nur für die Abfragen, die Sie ausführen. Um Athena zu verwenden, verweisen Sie auf Ihre Daten in Amazon S3, definieren Sie das Schema und verwenden Sie Standard-SQL-Abfragen. Sie können Arbeitsgruppen auch verwenden, um Benutzer zu gruppieren und zu kontrollieren, auf welche Ressourcen sie bei der Ausführung von Abfragen Zugriff haben. Arbeitsgruppen ermöglichen es Ihnen, die Parallelität von Abfragen zu verwalten und die Ausführung von Abfragen für verschiedene Benutzergruppen und Workloads zu priorisieren.

**Glue Data Catalog**  
In Amazon Athena enthalten Tabellen und Datenbanken die Metadaten, die ein Schema für die zugrunde liegenden Quelldaten detailliert beschreiben. Für jeden Datensatz muss eine Tabelle in Athena existieren. Die Metadaten in der Tabelle teilen Athena den Standort Ihres Amazon S3 S3-Buckets mit. Es spezifiziert auch die Datenstruktur, wie Spaltennamen, Datentypen und den Namen der Tabelle. Datenbanken enthalten nur die Metadaten und Schemainformationen für einen Datensatz.

## Mehrere Data Lakes erstellen
<a name="creating-multiple-data-lakes"></a>

Es können mehrere Data Lakes erstellt werden, indem ein eindeutiger Glue-Datenbankname angegeben wird, um anzugeben, wo Anrufinformationen gespeichert werden sollen. Für ein bestimmtes AWS Konto kann es mehrere Konfigurationen für Anrufanalysen mit jeweils einem entsprechenden Data Lake geben. Das bedeutet, dass die Datentrennung für bestimmte Anwendungsfälle angewendet werden kann, z. B. für die Anpassung der Aufbewahrungsrichtlinien und die Zugriffsrichtlinien für die Speicherung der Daten. Für den Zugriff auf Erkenntnisse, Aufzeichnungen und Metadaten können unterschiedliche Sicherheitsrichtlinien angewendet werden.

## Regionale Verfügbarkeit von Data Lakes
<a name="data-lake-regions"></a>

Der Amazon Chime SDK Data Lake ist in den folgenden Regionen verfügbar.


| Region | Klebetabellen | Schnell | 
| --- | --- | --- | 
| us-east-1 | Available (Verfügbar) | Available (Verfügbar) | 
| us-west-2 | Available (Verfügbar) | Available (Verfügbar) | 
| eu-central-1 | Available (Verfügbar) | Available (Verfügbar) | 

## Data-Lake-Architektur
<a name="data-lake-architecture"></a>

Das folgende Diagramm zeigt die Data-Lake-Architektur. Die Zahlen in der Zeichnung entsprechen dem unten stehenden nummerierten Text.

![\[Der Programmfluss durchläuft einen Data Lake.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/call-analytics-data-lake-architecture.png)


Sobald Sie im Diagramm die AWS Konsole zum Bereitstellen der CloudFormation Vorlage aus dem Workflow zur Einrichtung der Media Insights-Pipeline-Konfiguration verwenden, fließen die folgenden Daten in den Amazon S3 S3-Bucket:

1. Die Amazon Chime SDK-Anrufanalysen beginnen mit dem Streaming von Echtzeitdaten in den Kinesis Data Stream des Kunden. 

1. Amazon Kinesis Firehose speichert diese Echtzeitdaten, bis sie 128 MB oder 60 Sekunden angesammelt haben, je nachdem, was zuerst eintritt. Firehose verwendet dann den `amazon_chime_sdk_call_analytics_firehose_schema` im Glue-Datenkatalog enthaltenen, um die Daten zu komprimieren, und wandelt die JSON-Datensätze in eine Parquet-Datei um.

1. Die Parkettdatei befindet sich in Ihrem Amazon S3 S3-Bucket in einem partitionierten Format.

1. Neben Echtzeitdaten werden auch Zusammenfassungen von Amazon Transcribe Call Analytics in Form von WAV-Dateien (geschwärzt und nicht geschwärzt, sofern in der Konfiguration angegeben) und WAV-Dateien für die Anrufaufzeichnung an Ihren Amazon S3 S3-Bucket gesendet. 

1. Sie können Amazon Athena und Standard-SQL verwenden, um die Daten im Amazon S3 S3-Bucket abzufragen.

1. Die CloudFormation Vorlage erstellt auch einen Glue-Datenkatalog, um diese zusammenfassenden Daten nach dem Anruf über Athena abzufragen.

1. Alle Daten im Amazon S3 S3-Bucket können auch mit Quick visualisiert werden. QuickSight baut mithilfe von Amazon Athena eine Verbindung mit einem Amazon S3 S3-Bucket auf.

Die Amazon Athena Athena-Tabelle verwendet die folgenden Funktionen, um die Abfrageleistung zu optimieren:

**Datenpartitionierung**  
Durch die Partitionierung wird Ihre Tabelle in Teile aufgeteilt und die zugehörigen Daten werden anhand von Spaltenwerten wie Datum, Land und Region zusammengefasst. Partitionen verhalten sich wie virtuelle Spalten. In diesem Fall definiert die CloudFormation Vorlage Partitionen bei der Tabellenerstellung, wodurch die pro Abfrage gescannte Datenmenge reduziert und die Leistung verbessert wird. Sie können auch nach Partitionen filtern, um die Menge der von einer Abfrage gescannten Daten einzuschränken. Weitere Informationen finden Sie unter [Partitionierung von Daten in Athena im Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) *Athena-Benutzerhandbuch*.  
Dieses Beispiel zeigt die Partitionierungsstruktur mit dem Datum 1. Januar 2023:  

1. 

   ```
   s3://example-bucket/amazon_chime_sdk_data_lake
                               /serviceType=CallAnalytics/detailType={DETAIL_TYPE}/year=2023
                               /month=01/day=01/example-file.parquet
   ```

1. wo `DETAIL_TYPE` ist einer der folgenden:

   1. `CallAnalyticsMetadata`

   1. `TranscribeCallAnalytics`

   1. `TranscribeCallAnalyticsCategoryEvents`

   1. `Transcribe`

   1. `Recording`

   1. `VoiceAnalyticsStatus`

   1. `SpeakerSearchStatus`

   1. `VoiceToneAnalysisStatus`

**Optimieren Sie die Generierung von spaltenbasierten Datenspeichern**  
Apache Parquet verwendet spaltenweise Komprimierung, Komprimierung basierend auf dem Datentyp und Prädikat-Pushdown zum Speichern von Daten. Bessere Komprimierungsraten oder das Überspringen von Datenblöcken bedeuten, dass weniger Byte aus Ihrem Amazon S3 S3-Bucket gelesen werden. Das führt zu einer besseren Abfrageleistung und geringeren Kosten. Für diese Optimierung ist die Datenkonvertierung von JSON zu Parquet in Amazon Kinesis Data Firehose aktiviert.

**Partitionsprojektion**  
Diese Athena-Funktion erstellt automatisch Partitionen für jeden Tag, um die Leistung datumsbasierter Abfragen zu verbessern.

## Einrichtung eines Data Lakes
<a name="data-lake-setup"></a>

Verwenden Sie die Amazon Chime SDK-Konsole, um die folgenden Schritte auszuführen.

1. Starten Sie die Amazon Chime SDK-Konsole ([ https://console.aws.amazon.com/chime-sdk/Home](https://console.aws.amazon.com/chime-sdk/home)) und wählen Sie im Navigationsbereich unter **Call Analytics** die Option **Configurations** aus.

1. Schließen Sie Schritt 1 ab, wählen Sie **Weiter** und aktivieren Sie auf der Seite Schritt 2 das Kontrollkästchen **Voice Analytics**.

1. Aktivieren Sie unter **Ausgabedetails** das Kontrollkästchen **Data Warehouse für die Durchführung historischer Analysen** und wählen Sie dann den Link ** CloudFormation Stack bereitstellen** aus.

   Das System leitet Sie zur Seite **Quick Create Stack** in der CloudFormation Konsole weiter.

1. Geben Sie einen Namen für den Stack ein und geben Sie dann die folgenden Parameter ein:

   1. `DataLakeType`— Wählen Sie **Create Call Analytics DataLake**.

   1. `KinesisDataStreamName`— Wähle deinen Stream. Es sollte der Stream sein, der für das Streaming von Anrufanalysen verwendet wird.

   1. `S3BucketURI`— Wählen Sie Ihren Amazon S3 S3-Bucket. Die URI muss das Präfix haben `s3://bucket-name`

   1. `GlueDatabaseName`— Wählen Sie einen eindeutigen Namen für die AWS Glue-Datenbank. Sie können eine bestehende Datenbank im AWS Konto nicht wiederverwenden.

1. Aktivieren Sie das Bestätigungskästchen und wählen Sie dann **Data Lake erstellen** aus. Warten Sie 10 Minuten, bis das System den Lake erstellt hat.

### Einrichtung des Data Lake mit AWS CLI
<a name="data-lake-setup-using-cli"></a>

Wird verwendet AWS CLI , um eine Rolle mit Berechtigungen zum Aufrufen CloudFormation von Create Stack zu erstellen. Gehen Sie wie folgt vor, um die IAM-Rollen zu erstellen und einzurichten. Weitere Informationen finden Sie unter [Erstellen eines Stacks](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-cfn-cli-creating-stack.html) im *AWS CloudFormation Benutzerhandbuch*.

1. Erstellen Sie eine Rolle namens *AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role und fügen Sie der Rolle* eine Vertrauensrichtlinie hinzu, die es ermöglicht, die Rolle zu übernehmen. CloudFormation 

   1. Erstellen Sie mithilfe der folgenden Vorlage eine IAM-Vertrauensrichtlinie und speichern Sie die Datei im.json-Format.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "cloudformation.amazonaws.com"
                  },
                  "Action": "sts:AssumeRole",
                  "Condition": {}
              }
          ]
      }
      ```

------

   1. Führen Sie den **aws iam create-role** Befehl aus und übergeben Sie die Vertrauensrichtlinie als Parameter.

      ```
                                          aws iam create-role \
          --role-name AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role
          --assume-role-policy-document file://role-trust-policy.json
      ```

   1. Notieren Sie sich den *Rollen-ARN*, der von der Antwort zurückgegeben wird. Die *Rolle arn* ist im nächsten Schritt erforderlich.

1. Erstellen Sie eine Richtlinie mit der Erlaubnis, einen CloudFormation Stack zu erstellen.

   1. Erstellen Sie eine IAM-Richtlinie mithilfe der folgenden Vorlage und speichern Sie die Datei im JSON-Format. Diese Datei ist erforderlich, wenn Sie create-policy aufrufen.

------
#### [ JSON ]

****  

      ```
      {  
          "Version":"2012-10-17",		 	 	   
          "Statement": [  
              {  
                  "Sid": "DeployCloudFormationStack",  
                  "Effect": "Allow",  
                  "Action": [  
                      "cloudformation:CreateStack"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------

   1. Führen Sie die Create-Stack-Richtlinie aus **aws iam create-policy** und übergeben Sie sie als Parameter.

      ```
                                      aws iam create-policy --policy-name testCreateStackPolicy 
      --policy-document file://create-cloudformation-stack-policy.json
      ```

   1. Notieren Sie sich den *Rollen-ARN*, der von der Antwort zurückgegeben wird. Die *Rolle arn* ist im nächsten Schritt erforderlich.

1. Fügen Sie der Rolle die **aws iam attach-role-policy**-Richtlinie an.

   ```
                               aws iam attach-role-policy --role-name {Role name created above}
   --policy-arn {Policy ARN created above}
   ```

1. Erstellen Sie einen CloudFormation Stack und geben Sie die erforderlichen Parameter ein:**aws cloudformation create-stack**.

   Geben Sie Parameterwerte für jede ParameterKey Verwendung an ParameterValue.

   ```
                               aws cloudformation create-stack  --capabilities CAPABILITY_NAMED_IAM 
   --stack-name testDeploymentStack 
   --template-url https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKDataLake.yaml 
   --parameters  ParameterKey=S3BucketURI,ParameterValue={S3 URI}
   ParameterKey=DataLakeType,ParameterValue="Create call analytics datalake" 
   ParameterKey=KinesisDataStreamName,ParameterValue={Name of Kinesis Data Stream}
   --role-arn {Role ARN created above}
   ```

#### Ressourcen, die durch das Data Lake-Setup erstellt wurden
<a name="cf-resources"></a>

In der folgenden Tabelle sind die Ressourcen aufgeführt, die beim Erstellen eines Data Lakes erstellt wurden.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/ca-data-lake.html)

# Konfiguration eines Schnell-Dashboards für das Amazon Chime SDK
<a name="quicksight-setup-setup"></a>

Sobald Sie den Data Lake eingerichtet haben, können Sie ein Schnell-Dashboard mit vordefinierten Metriken konfigurieren, die Ihre Daten visualisieren. Sie können die folgenden Dashboards verwenden:
+ **Transcribe Sie Call Analytics \$1 Voice** Analytics. Zu den Metriken gehören zusammenfassende und detaillierte Grafiken für turn-by-turn Transkripte, erkannte Probleme, Ergebnisse, die Erkennung von Entitäten und die Übereinstimmung mit der Stimmprofil-ID.
+ **Transcribe \$1 Sprachanalyse**. Zu den Metriken gehören Zusammenfassungen und detaillierte Grafiken für turn-by-turn Transkripte, Wortschatzübereinstimmungen, Stimmton und Stimmprofil-ID-Übereinstimmungen.

In den folgenden Themen wird erklärt, wie Sie ein Quick-Konto einrichten, falls Sie noch keines haben, und wie Sie ein Dashboard konfigurieren.

**Topics**
+ [Ein QuickSight Konto erstellen](#create-quicksight-account)
+ [Konfiguration Ihres QuickSight Kontos](#configure-qs-acct)
+ [Ein Dashboard erstellen QuickSight](#create-qs-dashboard)

## Ein QuickSight Konto erstellen
<a name="create-quicksight-account"></a>

In den Schritten in diesem Abschnitt wird erklärt, wie Sie ein Quick-Konto erstellen. Wenn Sie bereits ein Konto haben, können Sie zu wechseln[Ein Dashboard erstellen QuickSight](#create-qs-dashboard).

Sie können ein QuickSight Konto erstellen, indem Sie:
+ Verwenden von CloudFormation Amazon-Vorlagen.
+ Verwenden der Amazon Chime SDK-Konsole.

### Voraussetzungen
<a name="qs-account-prereqs"></a>

Sammeln Sie die folgenden Informationen, bevor Sie beginnen:
+ Der Name Ihres Amazon S3-Buckets für Anrufanalysen.
+ Eine E-Mail-Adresse für Benachrichtigungen. Das System sendet QuickSight Benachrichtigungen an diese Adresse.

### Verwenden von CloudFormation Vorlagen zum Erstellen eines Kontos
<a name="account-by-cft"></a>

In den folgenden Schritten wird erklärt, wie Sie ein Quick-Konto erstellen, indem Sie eine CloudFormation Amazon-Vorlage bereitstellen. Bei diesem Vorgang abonnieren Sie nur ein Enterprise-Konto. Informationen zur Preisgestaltung finden Sie unter [Quick Pricing](https://aws.amazon.com/quicksight/pricing/).

**Um die Vorlage bereitzustellen**

1. Starten Sie die AWS Konsole und melden Sie sich bei Ihrem AWS-Konto an.

1. Fügen Sie die folgende URL in die Adressleiste Ihres Browsers ein. Stellen Sie sicher, dass Sie Ihre Region wie angegeben eingeben.

   `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightSubscription.yaml`.

1. Geben Sie auf der Seite **Quick Create Stack** Folgendes ein:

   1. Geben Sie unter **Stack-Name** einen Namen für Ihr Konto ein.

   1. Unter **QuickSightNotificationEmail**der E-Mail-Adresse, die Sie zuvor gesammelt haben.

   1. Wählen Sie **QuickSightSubscriptionForDataVisualization**unter **Neues AWS QuickSight Konto erstellen** aus.

   1. Geben Sie unter **S3 BucketName** den Namen Ihres Amazon S3 S3-Buckets ein.

   1. Wählen Sie die Option **Ich erkenne an, dass AWS CloudFormation möglicherweise IAM-Ressourcen erstellt**. Kontrollkästchen.

1. Wählen Sie **Stack erstellen** aus.

   Das System benötigt ungefähr 10 Minuten, um den Stack zu erstellen.

1. Wenn der Build abgeschlossen ist, wählen Sie **Go to Quick** und geben Sie Ihre E-Mail-Adresse ein, um sich bei Ihrem Konto anzumelden.

### Verwenden Sie die Konsole, um ein Konto zu erstellen
<a name="account-by-console"></a>

In den folgenden Schritten wird erklärt, wie Sie mit der Amazon Chime SDK-Konsole ein Quick-Konto erstellen. Sie müssen ein Enterprise- oder Enterprise \$1 Q-Konto verwenden.

**So verwenden Sie die -Konsole:**

1. Starten Sie die Amazon Chime SDK-Konsole zu [ https://console.aws.amazon.com/chime-sdk/Hause](https://console.aws.amazon.com/chime-sdk/home)**QuickSight**, suchen Sie nach und wählen Sie **QuickSight**in den Suchergebnissen.  
![\[Ein Suchergebnis, das auf Quick verweist.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1.png)

1. Wählen **Sie Anmelden für QuickSight**. 

1. Wählen Sie **Enterprise** oder **Enterprise \$1 Q** und dann **Weiter**.

1. Geben Sie Ihren Vornamen, Nachnamen, Telefonnummer und die E-Mail-Adresse ein, die Sie zuvor gesammelt haben, und wählen Sie dann **Weiter**.

1. Gehen Sie wie folgt vor:

   1. Wählen Sie unter **Authentifizierungsmethode** eine Option aus. 
**Anmerkung**  
Wenn Sie die Option mit Verbundbenutzern wählen, benötigen Sie die richtigen IAM-Berechtigungen. Weitere Informationen finden Sie unter [Registrierung für ein Schnellabonnement](https://docs.aws.amazon.com/quicksight/latest/user/signing-up.html) in der *Kurzanleitung für Benutzer*.

   1. Wählen Sie unter **QuickSight Region** eine Region aus.

   1. Geben Sie unter **Kontoinformationen** einen Namen für das Konto und die E-Mail-Adresse ein, die Sie zuvor gesammelt haben.

   1. Verwenden Sie unter **QuickSight Zugriff auf AWS-Services** die Standardrolle oder wählen Sie **Vorhandene Rolle verwenden** und wählen Sie eine Rolle aus der Liste aus.

   1. (Optional) Wählen Sie nach Bedarf unter **Zugriff und automatische Erkennung für diese Ressourcen zulassen** weitere Ressourcen aus.

   1. Wenn Sie fertig sind, wählen Sie **Fertig stellen.**

   1. Wenn der Build abgeschlossen ist, wähle **Gehe zu Quick** und gib deine E-Mail-Adresse ein, um dich bei deinem Konto anzumelden.

## Konfiguration Ihres QuickSight Kontos
<a name="configure-qs-acct"></a>

Nachdem Sie sich bei Ihrem QuickSight Konto angemeldet haben, müssen Sie die Sicherheit konfigurieren und sich selbst zu einer Gruppe hinzufügen, die während des Einrichtungsvorgangs erstellt wurde.

**Um die Sicherheit zu konfigurieren**

1. Wählen Sie das Profilsymbol in der oberen rechten Ecke und dann im daraufhin angezeigten Menü die Option **Verwalten QuickSight** aus.  
![\[Ein Menü mit dem Befehl „Verwalten QuickSight “.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Wählen Sie im Navigationsbereich die Option **Sicherheit und Berechtigungen** aus.

1. Wählen Sie unter **QuickSight Zugriff auf AWS Dienste** die Option **Verwalten** aus, und stellen Sie sicher, dass die folgenden Dienste ausgewählt sind.
   + Amazon Redshift
   + Amazon RDS
   + Amazon S3
   + Amazon Athena
   +  IAM

1. Wählen Sie den Link **Amazon S3 S3-Buckets auswählen**.

1. Aktivieren Sie das Kontrollkästchen neben Ihrem Amazon S3 S3-Bucket und anschließend das Kontrollkästchen rechts in der Spalte **Schreibberechtigung für Athena Workgroup**.

1. Wählen Sie **Finish** (Abschließen).

1. Wählen Sie **Speichern**.

**Um sich selbst zur Gruppe hinzuzufügen**

1. Wählen Sie im Navigationsbereich **Gruppen verwalten** und dann die Gruppe mit **Admins** im Namen aus. Zum Beispiel *S3 BucketName* — **Admins**.

1. Wählen Sie **Benutzer hinzufügen** und geben Sie dann Ihren E-Mail-Alias in das angezeigte Feld ein.

   Ihr Name erscheint als **Admin —** *Ihr Alias*.

1. Wählen Sie **Hinzufügen** aus.

## Ein Dashboard erstellen QuickSight
<a name="create-qs-dashboard"></a>

Nachdem Sie einen Data Lake erstellt haben, können Sie ein QuickSight Dashboard erstellen, das Ihre Daten visualisiert. Sie können eine CloudFormation Amazon-Vorlage oder die Amazon Chime SDK-Konsole verwenden, um das Dashboard zu erstellen. In den folgenden Schritten werden beide Methoden erklärt.

**Um eine Vorlage zu verwenden**

1. Starten Sie die CloudFormation Amazon-Konsole.

1. Fügen Sie den folgenden Link in die Adressleiste Ihres Browsers ein: `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightDashboards.yaml`

1. Geben Sie auf der Seite **Quick Create** **Stack unter Stackname** einen Namen für das Konto ein.

1. Wählen Sie **ActiveQuickSightAccount**unter **True** aus.

1. Wählen Sie unter **QuicksightDashboardSelection****Call Analytics — Transcribe Call Analytics and Voice Analytics-Dashboard oder Call Analytics** **— Transcribe and Voice Analytics-Dashboard** aus.

1. Geben Sie unter **Amazon S3 BucketName** die URI Ihres Amazon S3 S3-Buckets ein.

1. Geben Sie **GlueDatabaseName**unter die Glue-Datenbank ein, in der das QuickSight Dashboard bereitgestellt werden soll.

1. Aktivieren Sie das Kontrollkästchen **Ich bestätige, dass AWS CloudFormation möglicherweise IAM-Ressourcen erstellt**, und wählen Sie dann **Stack erstellen** aus.

**Um ein QuickSight Dashboard manuell zu konfigurieren**

1. Navigieren Sie zu Ihrem QuickSight Konto.

1. Wählen Sie in der oberen rechten Ecke das Profilsymbol und dann **Verwalten QuickSight** aus.  
![\[Das QuickSight Kontodialogfeld und der QuickSight Befehl „Verwalten“.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Wählen Sie im Navigationsbereich **Gruppen verwalten** und dann die Gruppe aus, die durch den Einrichtungsprozess erstellt wurde.

1. Wählen Sie „**Benutzer hinzufügen**“, geben Sie Ihre E-Mail-Adresse ein und wählen Sie dann „**Hinzufügen**“.

   Das System benötigt 10 Minuten, um die Seite bereitzustellen.

1. Verwenden Sie die Amazon Chime SDK-Konsole, um sich bei Ihrem QuickSight Konto anzumelden und das Dashboard zu verwenden.

# Rufen Sie das Analytics-Datenmodell für das Amazon Chime SDK auf
<a name="ca-data-model"></a>

In diesem Abschnitt werden das Amazon Chime SDK Call Analytics-Datenmodell, eine Reihe von Tabellen in einem AWS Glue-Datenkatalog, aufgeführt und beschrieben.

**Topics**
+ [Grundlegendes zur Struktur der AWS Glue Datenkatalogtabellen für das Amazon Chime SDK](ca-data-model-diagram.md)
+ [Grundlegendes zu den AWS Glue Datenkatalogtabellen für das Amazon Chime SDK](glue-tables.md)
+ [Extrahieren von Daten aus Ihrem AWS Glue Datenkatalog für Amazon Chime SDK-Anrufanalysen](ca-data-model-queries.md)

# Grundlegendes zur Struktur der AWS Glue Datenkatalogtabellen für das Amazon Chime SDK
<a name="ca-data-model-diagram"></a>

Das folgende Diagramm zeigt die Tabellenstruktur des AWS Glue-Datenkatalogs, der für Anrufanalysen und Sprachanalysesitzungen im Amazon Chime SDK erstellt wurde.

![\[Die Tabellen im Call Analytics Glue-Datenkatalog.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/glue-cat-diag-12-03.jpg)


Im nächsten Abschnitt werden die Tabellen und Felder im Katalog aufgeführt und beschrieben. 

# Grundlegendes zu den AWS Glue Datenkatalogtabellen für das Amazon Chime SDK
<a name="glue-tables"></a>

In den folgenden Tabellen werden die Spalten, Datentypen und Elemente in einem Amazon Chime SDK Call Analytics Glue-Datenkatalog aufgeführt und beschrieben.

**Topics**
+ [call\$1analytics\$1metadata](#ca-glue-metadata)
+ [call\$1analytics\$1recording\$1metadata](#ca-glue-analytics-recording)
+ [transcribe\$1call\$1analytics](#ca-glue-transcribe-ca)
+ [transcribe\$1call\$1analytics\$1category\$1events](#ca-glue-transcribe-ca-events)
+ [transcribe\$1call\$1analytics\$1post\$1call](#ca-glue-transcribe)
+ [transcribe](#ca-glue-transcribe)
+ [voice\$1analytics\$1status](#ca-glue-va-status)
+ [speaker\$1search\$1status](#ca-glue-speaker-status)
+ [voice\$1tone\$1analysis\$1status](#ca-glue-tone-status)

## call\$1analytics\$1metadata
<a name="ca-glue-metadata"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## call\$1analytics\$1recording\$1metadata
<a name="ca-glue-analytics-recording"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics
<a name="ca-glue-transcribe-ca"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1category\$1events
<a name="ca-glue-transcribe-ca-events"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1post\$1call
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## transcribe
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## voice\$1analytics\$1status
<a name="ca-glue-va-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## speaker\$1search\$1status
<a name="ca-glue-speaker-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

## voice\$1tone\$1analysis\$1status
<a name="ca-glue-tone-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/glue-tables.html)

# Extrahieren von Daten aus Ihrem AWS Glue Datenkatalog für Amazon Chime SDK-Anrufanalysen
<a name="ca-data-model-queries"></a>

Verwenden Sie diese Beispielabfragen, um die Daten in Ihrem Glue-Datenkatalog für Amazon Chime SDK Call Analytics zu extrahieren und zu organisieren. 

**Anmerkung**  
Informationen zum Herstellen einer Verbindung mit Amazon Athena und zum Abfragen Ihres Glue-Datenkatalogs finden Sie unter Herstellen einer [Verbindung zu Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/connect-with-odbc.html) mit ODBC.

Erweitern Sie jeden Abschnitt nach Bedarf.

## Extrahieren von Werten aus Metadaten (STRING-Datentyp) in der Tabelle call\$1analytics\$1metadata
<a name="qry-insights-metadata"></a>

`call_analytics_metadata`hat das Feld in einem JSON-Zeichenkettenformat. `metadata` Verwenden Sie die [Funktion json\$1extract\$1scalar in Athena, um die Elemente](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) in dieser Zeichenfolge abzufragen.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
```

## Abfragen von Aktualisierungen in der Tabelle call\$1analytics\$1metadata SIPRECMetadata
<a name="qry-insights-siprec-metadata"></a>

Das `call_analytics_metadata` Feld enthält das Metadatenfeld in einem JSON-Zeichenfolgenformat. `metadata`hat ein anderes verschachteltes Objekt namens`oneTimeMetadata`. Dieses Objekt enthält SIPRec Metadaten im ursprünglichen XML- und transformierten JSON-Format. Verwenden Sie die `json_extract_scalar` Funktion in Athena, um die Elemente in dieser Zeichenfolge abzufragen.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadata') AS "siprec Metadata XML",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadataJson') AS "Siprec Metadata JSON",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.inviteHeaders') AS "Invite Headers"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
WHERE 
    callevent-type = "update";
```

## Extrahieren von Werten aus Metadaten (STRING-Datentyp) in der Tabelle call\$1analytics\$1recording\$1metadata
<a name="qry-recording-metadata"></a>

`call_analytics_recording_metadata`hat das Metadatenfeld in einem JSON-String-Format. Verwenden Sie die [Funktion json\$1extract\$1scalar in Athena, um die Elemente](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) in dieser Zeichenfolge abzufragen.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_recording_metadata"
WHERE 
    detail-subtype = "Recording"
```

## Extrahieren von Werten aus Details (STRUCT-Datentyp) in der Tabelle voice\$1analytics\$1status
<a name="qry-va-status"></a>

`voice_analytics_status`hat ein Detailfeld im Datentyp. `struct` Das folgende Beispiel zeigt, wie ein `struct` Datentypfeld abgefragt wird:

```
SELECT
    detail.transactionId AS "Transaction ID",
    detail.voiceConnectorId AS "VoiceConnector ID",
    detail.siprecmetadata AS "Siprec Metadata",
    detail.inviteheaders AS "Invite Headers",
    detail.streamStartTime AS "Stream Start Time"
FROM 
    "GlueDatabaseName"."voice_analytics_status"
```

## Zusammenführen der Tabellen voice\$1analytics\$1status und call\$1analytics\$1metadata
<a name="qry-join-va-meta"></a>

Die folgende Beispielabfrage verknüpft und: `call_analytics_metadata` `voice_analytics_status`

```
SELECT
    a.detail.transactionId AS "Transaction ID",
    a.detail.voiceConnectorId AS "VoiceConnector ID",
    a.detail.siprecmetadata AS "Siprec Metadata",
    a.detail.inviteheaders AS "Invite Headers",
    a.detail.streamStartTime AS "Stream Start Time"
    json_extract_scalar(b.metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(b.metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(b.metadata,'$.callId') AS "Call ID",
    json_extract_scalar(b.metadata,'$.direction') AS Direction
FROM 
    "GlueDatabaseName"."voice_analytics_status" a
INNER JOIN 
    "GlueDatabaseName"."call_analytics_metadata" b
ON a.detail.transactionId = json_extract_scalar(b.metadata,'$.transactionId')
```

## Extrahieren von Transkripten aus der Tabelle transcribe\$1call\$1analytics\$1post\$1call
<a name="qry-transcribe-ca-post-call"></a>

transcribe\$1call\$1analytics\$1post\$1call hat ein Transkriptfeld im Strukturformat mit verschachtelten Arrays. Verwenden Sie die folgende Abfrage, um die Verschachtelung der Arrays aufzuheben:

```
SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
```

## Verknüpfen der Tabellen transcribe\$1call\$1analytics\$1post\$1call und call\$1analytics\$1metadata
<a name="qry-va-status"></a>

Die folgende Abfrage verbindet transcribe\$1call\$1analytics\$1post\$1call und call\$1analytics\$1metadata:

```
WITH metadata AS(
  SELECT 
    from_iso8601_timestamp(time) AS "Timestamp",
    date_parse(date_format(from_iso8601_timestamp(time), '%m/%d/%Y %H:%i:%s') , '%m/%d/%Y %H:%i:%s') AS "DateTime",
    date_parse(date_format(from_iso8601_timestamp(time) , '%m/%d/%Y') , '%m/%d/%Y') AS "Date",
    date_format(from_iso8601_timestamp(time) , '%H:%i:%s')  AS "Time",
    mediainsightspipelineid,
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    REGEXP_REPLACE(REGEXP_EXTRACT(json_extract_scalar(metadata,'$.oneTimeMetadata.s3RecordingUrl'), '[^/]+(?=\.[^.]+$)'), '\.wav$', '') AS "SessionID"
  FROM 
    "GlueDatabaseName"."call_analytics_metadata"
),
transcript_events AS(
  SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
  FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
  CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
)
SELECT 
    jobstatus,
    languagecode,
    a.utteranceId,
    transcript,
    accountid,
    channel,
    a.sessionid,
    "Redaction"
    "Timestamp",
    "DateTime",
    "Date",
    "Time",
    mediainsightspipelineid,
    "To Number",
    "VoiceConnector ID",
    "From Number",
    "Call ID",
    Direction,
    "Transaction ID"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" a
LEFT JOIN 
    metadata b
ON 
    a.sessionid = b.SessionID
```

## Medienobjekt für URLs die Aufzeichnung von Anrufen mit Sprachverbesserung wird abgefragt
<a name="qry-voice-enhancement-call-recording"></a>

Die folgende Beispielabfrage verknüpft die `Voice enhancement call recording` URL:

```
SELECT 
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    s3MediaObjectConsoleUrl
FROM
    {GlueDatabaseName}."call_analytics_recording_metadata"
WHERE
    detail-subtype = "VoiceEnhancement"
```

# Verwenden von Sprachanalysen im Amazon Chime SDK
<a name="voice-analytics"></a>

Mit der Sprachanalysefunktion des Amazon Chime SDK können Sie die Lautsprechersuche und die Stimmenanalyse implementieren. Sie verwenden die Sprechersuche, um neue Anrufer zu identifizieren und zu registrieren sowie um wiederkehrende Anrufer zu identifizieren und diesen Identifizierungen eine Vertrauensbewertung zuzuweisen. Sie verwenden die Stimmenanalyse, um die Stimmung eines Anrufers als, oder vorherzusagen. `negative` `neutral` `positive`

Sie führen Sprachanalysen als optionale Komponente einer Amazon Chime SDK-Anrufanalysesitzung aus.

Voice Analytics funktioniert mit Media Insights-Pipelines oder Amazon Chime SDK Voice Connectors-Anrufen. Wir empfehlen, das [Media Pipelines SDK](media-pipelines.md) zu verwenden und Aufgaben in einer Media Insights-Pipeline aufzurufen, um eine genauere Kontrolle über die Aufgaben und Informationen über sie zu erhalten.

Sie können Voice Connectors verwenden, um die Abwärtskompatibilität sicherzustellen. Wir aktualisieren die Media Insights-Pipeline jedoch nur mit neuen Funktionen. APIs 

Weitere Informationen zum Erstellen und Verwenden von Voice Connectors finden Sie unter [Amazon Chime SDK Voice Connectors verwalten](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) im *Amazon Chime SDK-Administratorhandbuch*.

Voice Analytics bietet außerdem:
+ Asynchrone Aufgabenverarbeitung. Aufgaben werden unabhängig voneinander ausgeführt.
+ Sie haben die Kontrolle darüber, wann Sie Erkenntnisse verarbeiten.

Sie können die Sprachanalyse starten, indem Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)und aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

In den folgenden Themen wird die Verwendung von Sprachanalysen erläutert.

**Topics**
+ [Grundlegendes zur Sprachanalyse-Architektur für das Amazon Chime SDK](va-architecture.md)
+ [Grundlegendes zum Sprechersuche-Workflow für das Amazon Chime SDK](va-data-flow.md)
+ [Beispiel für einen Workflow zur Sprachtonanalyse für das Amazon Chime SDK](va-tone-flow.md)
+ [Abfrage von Aufgabenergebnissen für das Amazon Chime SDK](va-task-result-poll.md)
+ [Grundlegendes zu Benachrichtigungen für das Amazon Chime SDK](va-notification-targets.md)
+ [Grundlegendes zu Datenspeicher-, Abmelde- und Datenaufbewahrungsrichtlinien für das Amazon Chime SDK](va-opt-out.md)
+ [APIs Sprachanalysen für das Amazon Chime SDK mithilfe von Sprache ausführen](va-in-voice-namespace.md)

# Grundlegendes zur Sprachanalyse-Architektur für das Amazon Chime SDK
<a name="va-architecture"></a>

Die Themen in diesem Abschnitt bieten einen Überblick über die Sprachanalyse-Architektur des Amazon Chime SDK, einschließlich der Datenflüsse für jede Funktion.

Dieses Diagramm bietet einen allgemeinen Überblick darüber, wie Daten durch Sprachanalysen fließen.

![\[Ein Diagramm, das den Datenfluss auf hoher Ebene durch Sprachanalysen zeigt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/va-architecture-kvs.png)


Im Diagramm:

1. Audio wird für einen Anrufer und einen Agenten in einen Kinesis Video Stream gestreamt. Sie können dazu einen Kinesis Video Streams Streams-Producer oder Amazon Chime SDK Voice Connector-Streaming verwenden. Weitere Informationen finden Sie [Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK](ml-based-analytics.md) in diesem Handbuch und [Streaming von Amazon Chime SDK Voice Connector-Medien nach Kinesis](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) im *Amazon Chime SDK-Administratorhandbuch*.

1. Eine Anwendung oder ein Builder löst die Lautsprechersuche, die Stimmenanalyse oder beides für den Audiostream aus, nachdem der Anrufer dem zugestimmt hat.

1. Während des Anrufs sendet die Sprachanalyse Benachrichtigungen an ein Ziel, entweder Amazon Simple Queue Service (SQS), Amazon Simple Notification Service (SNS), AWS Lambda oder Amazon Kinesis Data Streams.

Darüber hinaus bietet Voice Analytics diese Tools zur Verwaltung der generierten Daten.

**Sprachprofile**  
Die Kombination aus einer Spracheinbettung, der eindeutigen ID der Einbettung und ihrem Ablaufdatum. Sprachprofile laufen aus Sicherheitsgründen und weil sich Stimmen im Laufe der Zeit ändern, nach drei Jahren ab. Rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API auf, um zu vermeiden, dass Sprachprofile erneut erstellt werden. Weitere Informationen zu Ablaufdaten finden Sie unter[Grundlegendes zur Datenspeicherung für Amazon Chime SDK Voice Analytics](va-data-retention.md).  
Um eine Spracheinbettung zu registrieren oder eine registrierte Spracheinbettung zu aktualisieren, müssen Sie den [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)oder [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs innerhalb von 24 Stunden nach Ende des Anrufs anrufen. 

**Domänen mit Sprachprofilen**  
Eine Sammlung von Sprachprofilen.

# Grundlegendes zum Sprechersuche-Workflow für das Amazon Chime SDK
<a name="va-data-flow"></a>

In diesem Abschnitt zeigen wir Ihnen ein Beispiel für einen Daten- und Programmablauf für eine Amazon Chime SDK-Lautsprechersuche.

Die Lautsprechersuchfunktion beinhaltet die Erstellung einer Spracheinbettung, mit der die Stimme eines Anrufers mit zuvor gespeicherten Sprachdaten verglichen werden kann. Die Erfassung, Verwendung, Speicherung und Aufbewahrung biometrischer Identifikatoren und biometrischer Informationen in Form eines digitalen Sprachabdrucks kann die informierte Zustimmung des Anrufers in Form einer schriftlichen Mitteilung erfordern. Eine solche Zustimmung ist nach verschiedenen staatlichen Gesetzen erforderlich, einschließlich biometrischer Gesetze in Illinois, Texas, Washington und anderen Datenschutzgesetzen der Bundesstaaten. Bevor Sie die Lautsprecher-Suchfunktion verwenden, müssen Sie alle Hinweise bereitstellen und alle Einwilligungen einholen, die nach geltendem Recht und gemäß den [AWS-Servicebedingungen](https://aws.amazon.com/service-terms/) für Ihre Nutzung der Funktion erforderlich sind. 

Das folgende Diagramm zeigt ein Beispiel für den Datenfluss durch eine Analyseaufgabe zur Lautsprechersuche. Die nummerierten Beschreibungen unter dem Diagramm beschreiben jeden Schritt des Prozesses. Das Diagramm geht davon aus, dass Sie bereits einen Amazon Chime SDK Voice Connector mit einer Anrufanalysekonfiguration konfiguriert haben, die über eine `VoiceAnalyticsProcessor` verfügt. Weitere Informationen finden Sie unter [Aufzeichnen von Voice Connector-Anrufen](record-vc-calls.md).

![\[Ein Diagramm, das den Datenfluss durch eine Analyse der Lautsprechersuche zeigt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/speaker-search-workflow-2.png)


1. Sie oder ein Systemadministrator erstellen eine Sprachprofildomäne zum Speichern von Spracheinbettungen und Sprachprofilen. Weitere Informationen zum Erstellen von Sprachprofil-Domains finden Sie unter [Sprachprofil-Domains erstellen](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-vp-domain.html) im *Amazon Chime SDK-Administratorhandbuch*. Sie können auch die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html)API verwenden.

1. Ein Anrufer wählt sich mit einer Telefonnummer ein, die einem Amazon Chime SDK Voice Connector zugewiesen ist. Oder ein Agent verwendet eine Voice Connector-Nummer, um einen ausgehenden Anruf zu tätigen.

1. Der Amazon Chime SDK Voice Connector-Service erstellt eine Transaktions-ID und ordnet sie dem Anruf zu.

1. Angenommen, Ihre Anwendung abonniert EventBridge Ereignisse, ruft Ihre Anwendung die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API mit der Media Insights-Pipeline-Konfiguration und dem Kinesis Video Stream ARNs for the Voice Connector-Aufruf auf.

   Weitere Informationen zur Verwendung finden Sie EventBridge unter. [Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK](ml-based-analytics.md)

1. Ihre Anwendung — z. B. ein Interactive Voice Response-System — oder Ihr Agent informiert den Anrufer über die Anrufaufzeichnung und die Verwendung von Spracheinbettungen für Sprachanalysen und bittet ihn um seine Zustimmung zur Teilnahme.

1. Sobald der Anrufer seine Zustimmung erteilt hat, kann Ihre Anwendung oder Ihr Agent die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API über das [Voice SDK aufrufen, sofern Sie über einen Voice](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) Connector und eine Transaktions-ID verfügen. Oder, wenn Sie statt einer Transaktions-ID eine Media Insights-Pipeline-ID haben, rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API im [Media Pipelines SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) auf.

   Sobald der Anrufer seine Zustimmung erteilt hat, ruft Ihre Anwendung oder Ihr Agent die API auf`StartSpeakerSearchTask`. Sie müssen die Voice Connector-ID, die Transaktions-ID und die Domain-ID des Sprachprofils an die API übergeben. Es wird eine Aufgaben-ID für die Lautsprechersuche zurückgegeben, um die asynchrone Aufgabe zu identifizieren.
**Anmerkung**  
Bevor Sie die `StartSpeakerSearchTask` API in einem der beiden aufrufen SDKs, müssen Sie alle erforderlichen Hinweise bereitstellen und alle erforderlichen Zustimmungen einholen, wie dies gesetzlich und gemäß den [AWS-Servicebedingungen](https://aws.amazon.com/service-terms/) vorgeschrieben ist.

1. Das System sammelt 10 Sekunden der Stimme des Anrufers. Der Anrufer muss mindestens so lange sprechen. Das System erfasst oder analysiert keine Stille.

1. Die Media Insights-Pipeline vergleicht die Sprache mit den Stimmprofilen in der Domain und listet die 10 Treffer mit der höchsten Vertrauenswürdigkeit auf. Wenn keine Übereinstimmung gefunden wird, erstellt der Voice Connector ein Stimmprofil.

1. Der Media Insights-Pipeline-Dienst sendet ein Benachrichtigungsereignis an die konfigurierten Benachrichtigungsziele.

1. Der Anrufer spricht weiter und spricht weitere 10 Sekunden ohne Stummschaltung.

1. Die Media Insights-Pipeline generiert eine Spracheinbettung für die Registrierung, mit der Sie ein Stimmprofil erstellen oder ein vorhandenes Sprachprofil aktualisieren können.

1. Die Media Insights-Pipeline sendet eine `VoiceprintGenerationSuccessful` Benachrichtigung an die konfigurierten Benachrichtigungsziele.

1. Ihre Anwendung ruft das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)oder [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs auf, um das Profil zu erstellen oder zu aktualisieren.

1. Ihre Anwendung ruft bei Bedarf die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)API auf, um den aktuellen Status der Aufgabe zur Sprechersuche abzurufen.

# Beispiel für einen Workflow zur Sprachtonanalyse für das Amazon Chime SDK
<a name="va-tone-flow"></a>

**Wichtig**  
Bei der Stimmenanalyse werden auf der Grundlage sprachlicher und tonaler Informationen Vorhersagen über die Stimmung eines Sprechers getroffen. Sie dürfen Stimmungsanalysen nicht in gesetzlich verbotener Weise einsetzen, auch nicht im Zusammenhang mit Entscheidungen über eine Person, die rechtliche oder ähnlich erhebliche Auswirkungen auf diese Personen haben würden (z. B. in Bezug auf Beschäftigung, Wohnen, Kreditwürdigkeit oder finanzielle Angebote usw.). 

Die Stimmenanalyse analysiert die Stimmen der Teilnehmer eines Anrufs und prognostiziert deren Stimmungslage, entweder, oder`positive`. `negative` `neutral`

Das folgende Diagramm zeigt einen Beispiel-Workflow für eine Stimmenanalyse. Die nummerierten Elemente unter dem Bild beschreiben jeden Schritt des Prozesses.

**Anmerkung**  
Das Diagramm geht davon aus, dass Sie bereits einen Amazon Chime SDK Voice Connector mit einer Anrufanalysekonfiguration konfiguriert haben, die über eine `VoiceAnalyticsProcessor` verfügt. Weitere Informationen finden Sie unter [Aufzeichnen von Voice Connector-Anrufen](record-vc-calls.md).

![\[Ein Diagramm, das den Datenfluss durch eine Stimmenanalyse zeigt.\]](http://docs.aws.amazon.com/de_de/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


Im Diagramm:

1. Ein Anrufer wählt sich mit einer Telefonnummer ein, die einem Amazon Chime SDK Voice Connector zugewiesen ist. Oder ein Agent verwendet eine Voice Connector-Nummer, um einen ausgehenden Anruf zu tätigen.

1. Der Voice Connector-Dienst erstellt eine Transaktions-ID und ordnet sie dem Anruf zu.

1. Ihre Anwendung — z. B. ein Interactive Voice Response-System — oder Ihr Agent informiert den Anrufer über die Anrufaufzeichnung und die Verwendung von Spracheinbettungen für Sprachanalysen und bittet ihn um seine Zustimmung zur Teilnahme.

1. Angenommen, Ihre Anwendung abonniert EventBridge Ereignisse, ruft Ihre Anwendung die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API mit der Media Insights-Pipeline-Konfiguration und dem Kinesis Video Stream ARNs for the Voice Connector-Aufruf auf.

   Weitere Informationen zur Verwendung finden Sie EventBridge unter. [Grundlegendes zu Workflows für auf maschinellem Lernen basierende Analysen für das Amazon Chime SDK](ml-based-analytics.md)

1. Sobald der Anrufer seine Zustimmung erteilt hat, kann Ihre Anwendung oder Ihr Agent die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API über das [Voice SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) aufrufen, sofern Sie über einen Voice Connector und eine Transaktions-ID verfügen. Oder, wenn Sie statt einer Transaktions-ID eine Media Insights-Pipeline-ID haben, rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API im [Media Pipelines SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) auf.

   Sobald der Anrufer seine Zustimmung erteilt hat, ruft Ihre Anwendung oder Ihr Agent die API auf`StartSpeakerSearchTask`. Sie müssen die Voice Connector-ID, die Transaktions-ID und die Domain-ID des Sprachprofils an die API übergeben. Es wird eine Aufgaben-ID für die Lautsprechersuche zurückgegeben, um die asynchrone Aufgabe zu identifizieren.

1. Der Benutzer spricht während des gesamten Anrufs.

1. Der Agent spricht während des gesamten Anrufs.

1. Alle 5 Sekunden analysiert die Media Insights-Pipeline mithilfe eines Modells für maschinelles Lernen die letzten 30 Sekunden der Sprache und prognostiziert den Ton des Anrufers für dieses Intervall und für den gesamten Anruf ab dem `StartVoiceToneAnalysisTask` Zeitpunkt des ersten Anrufs.

1. Die Media Insights-Pipeline sendet eine Benachrichtigung mit diesen Informationen an die konfigurierten Benachrichtigungsziele. Sie können die Benachrichtigung anhand ihres Stream-ARN und ihrer Kanal-ID identifizieren. Weitere Informationen finden Sie weiter [Grundlegendes zu Benachrichtigungen für das Amazon Chime SDK](va-notification-targets.md) unten in diesem Abschnitt.

1. Wiederholen Sie die Schritte 9 und 10, bis der Anruf beendet ist.

1. Am Ende des Anrufs sendet die Media Insights-Pipeline eine letzte Benachrichtigung mit der aktuellen durchschnittlichen Tonvorhersage für die letzten 30 Sekunden sowie dem durchschnittlichen Ton des gesamten Anrufs.

1. Ihre Anwendung ruft die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API nach Bedarf auf, um den aktuellen Status der Aufgabe zur Stimmton-Analyse abzurufen. 
**Anmerkung**  
Die `GetVoiceToneAnalysisTask` API streamt die Tondaten nicht.

**Anmerkung**  
Die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API gibt keine Sprachtondaten zurück.

# Abfrage von Aufgabenergebnissen für das Amazon Chime SDK
<a name="va-task-result-poll"></a>

**Wichtig**  
Standardmäßig stellt Voice Analytics die Ergebnisse 7 Tage lang zur Verfügung und löscht die Daten dann automatisch. Sie müssen Ihre Aufgabendaten speichern, wenn Sie sie für einen längeren Zeitraum verwenden möchten oder um Gesetze zur Datenspeicherung einzuhalten. Weitere Informationen finden Sie weiter [Grundlegendes zur Datenspeicherung für Amazon Chime SDK Voice Analytics](va-data-retention.md) unten in diesem Handbuch.

Die Sprachanalyse versucht sicherzustellen, dass jedes Aufgabenergebnis mindestens einmal übermittelt wird. Netzwerkprobleme können jedoch die Latenz erhöhen. Um potenzielle Probleme zu umgehen oder wenn Sie synchrone Prozesse bevorzugen, können Sie entweder APIs im [Media Pipelines SDK oder im [Voice](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) Folgendes verwenden:
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html) 
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html)
**Wichtig**  
Die `GetVoiceToneAnalysisTask` API gibt nur den Status einer Aufgabe zurück. Sie gibt keine Aufgabenergebnisse zurück. Verwenden Sie ein Amazon SQS-, Amazon SNS- oder AWS Lambda-Benachrichtigungsziel, um Ergebnisse zu sehen.

Die `GetSpeakerSearchTask` API ruft synchron die neuesten Ergebnisse für eine Task-ID, verzögerte Nachrichten oder Nachrichten ab, die nicht in der richtigen Reihenfolge ankommen. Wir empfehlen jedoch, Benachrichtigungsziele und asynchrone Verarbeitung zu verwenden. Dadurch werden weniger Rechenressourcen verbraucht.

# Grundlegendes zu Benachrichtigungen für das Amazon Chime SDK
<a name="va-notification-targets"></a>

Die Sprachanalyse sendet Ereignisse automatisch an ein Ziel, wenn Aufgaben zur Lautsprechersuche oder Stimmenanalyse beginnen, während sie ausgeführt werden und wenn sie beendet sind. Sie verwenden Benachrichtigungsziele, um diese Ereignisse zu empfangen. Wir empfehlen, mehrere Benachrichtigungsziele zu verwenden, wenn Ihr Workflow oder Ihre Anwendung eine hohe Verfügbarkeit benötigt.

Außerdem müssen Sie eine IAM-Rolle mit den Richtlinien verwenden, die für den Zugriff auf Ihre Benachrichtigungsziele erforderlich sind. Weitere Informationen finden Sie unter [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md).

**Anmerkung**  
Für Amazon SQS und Amazon SNS unterstützen first-in-first-out wir keine Warteschlangen. Dies kann dazu führen, dass Nachrichten nicht in der richtigen Reihenfolge ankommen. Wir empfehlen, die Zeitstempel zu überprüfen, um Nachrichten nach Bedarf zu sortieren und Nachrichten in einem Datenspeicher wie Amazon DynamoDB zu speichern. Sie können auch das APIs unter beschriebene Get verwenden, um die neuesten Ergebnisse [Abfrage von Aufgabenergebnissen für das Amazon Chime SDK](va-task-result-poll.md) zu erhalten.

In der folgenden Tabelle sind die Ereignisse und ihre entsprechenden Detailtypen aufgeführt.


| Benachrichtigungsereignis | Art des Details | 
| --- | --- | 
| Metadaten zur Sprachanalyse | `VoiceAnalyticsStatus` | 
| Suche nach Lautsprechern | `SpeakerSearchStatus` | 
| Analyse des Stimmtons | `VoiceToneAnalysisStatus` | 

# Grundlegendes zu den IAM-Richtlinien für Benachrichtigungsziele für das Amazon Chime SDK
<a name="va-iam-target-policies"></a>

Sie müssen Richtlinien in der IAM-Rolle in einer Call Analytics-Konfiguration verwenden, die den Zugriff auf Ihre Amazon SQS-, Amazon SNS-, AWS Lambda- oder Amazon KDS-Benachrichtigungsziele ermöglichen. Weitere Informationen finden Sie unter [Verwenden der Ressourcenzugriffsrolle Call Analytics für das Amazon Chime SDK](call-analytics-resource-access-role.md) in diesem Handbuch.

## Veranstaltungen zur Suche nach Rednern
<a name="va-speaker-search-events"></a>

Ereignisse zur Suche nach Rednern haben den Typ „`SpeakerSearchStatus`Detail“.

Amazon Chime SDK Voice Connectors senden die folgenden Lautsprecher-Suchereignisse:
+ Die Identifizierung stimmt überein
+ Generierung von Spracheinbettung

Die Ereignisse können den folgenden Status haben:
+ `IdentificationSuccessful`— Es wurde erfolgreich mindestens eine passende Sprachprofil-ID mit einem hohen Konfidenzwert in der angegebenen Sprachprofildomäne identifiziert.
+ `IdentificationFailure`— Identifizierung konnte nicht durchgeführt werden. Ursachen: Der Anrufer spricht mindestens 10 Sekunden lang nicht, schlechte Audioqualität.
+ `IdentificationNoMatchesFound`— In der angegebenen Sprachprofildomäne konnte keine Übereinstimmung mit hoher Zuverlässigkeit gefunden werden. Der Anrufer ist möglicherweise neu, oder seine Stimme hat sich geändert.
+ `VoiceprintGenerationSuccessful`— Das System generierte eine Spracheinbettung mithilfe von 20 Sekunden ohne Geräuschlosigkeit.
+ `VoiceprintGenerationFailure`— Das System konnte keine Spracheinbettung generieren. Ursachen: Der Anrufer spricht mindestens 20 Sekunden lang nicht, schlechte Audioqualität.

### Die Identifizierung stimmt überein
<a name="va-id-matches"></a>

Nachdem die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API für einen bestimmten Vorgang aufgerufen wurde`transactionId`, sendet der Voice Connector-Dienst nach 10 Sekunden Spracheingabe eine Benachrichtigung über den Identifizierungsabgleich zurück. Der Dienst gibt die 10 besten Treffer zusammen mit einer Stimmprofil-ID und einem Konfidenzwert zwischen [0, 1] zurück. Je höher der Konfidenzwert, desto wahrscheinlicher ist es, dass der Sprecher des Anrufs mit der Stimmprofil-ID übereinstimmt. Wenn das Modell für maschinelles Lernen keine Treffer findet, enthält das `detailStatus` Feld der Benachrichtigung Folgendes`IdentificationNoMatchesFound`.

Das folgende Beispiel zeigt eine Benachrichtigung über einen erfolgreichen Treffer.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

### Generierung von Spracheinbettung
<a name="va-voice-print-generation"></a>

Nach weiteren 10 Sekunden Spracheingabe ohne Ton sendet der Voice Connector eine Benachrichtigung über die Generierung der Spracheinbettung an die Benachrichtigungsziele. Sie können neue Spracheinbettungen in ein Stimmprofil aufnehmen oder einen Ausdruck aktualisieren, der sich bereits in einem Sprachprofil befindet.

Das folgende Beispiel zeigt die Benachrichtigung für einen erfolgreichen Abgleich, was bedeutet, dass Sie das zugehörige Stimmprofil aktualisieren können.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

## Ereignisse zur Stimmentonanalyse
<a name="va-tone-status"></a>

Ereignisse zur Stimmenanalyse haben den Typ „`VoiceToneAnalysisStatus`Detail“. Die Analysen können folgende Status zurückgeben:
+ `VoiceToneAnalysisSuccessful`— Die Stimmen des Anrufers und des Agenten wurden erfolgreich nach Stimmungswahrscheinlichkeiten — positiv, negativ oder neutral — analysiert.
+ `VoiceToneAnalysisFailure`— Die Tonanalyse konnte nicht durchgeführt werden. Dies kann passieren, wenn der Anrufer 10 Sekunden lang hängen bleibt, ohne zu sprechen, oder wenn die Audioqualität zu schlecht wird.
+ `VoiceToneAnalysisCompleted`— Die Stimmen von Benutzern und Agenten wurden erfolgreich auf Stimmungswahrscheinlichkeiten für den gesamten Anruf hin analysiert. Dies ist das letzte Ereignis, das gesendet wird, wenn die Stimmenanalyse abgeschlossen ist.

Das folgende Beispiel zeigt ein typisches Ereignis zur Stimmentonanalyse.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
        "startFragmentNumber": "01234567890123456789",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

## Zusammenfassung der Ereignisse nach dem Anruf
<a name="va-post-call-summary-events"></a>

Eine Zusammenfassung der Ereignisse nach dem Anruf wird 5 Minuten nach Ende des Anrufs gesendet. Diese Zusammenfassungen bieten einen Überblick über die Aufgaben zur Sprechersuche, die während des Anrufs durchgeführt wurden.

Das folgende Beispiel zeigt eine Zusammenfassung nach dem Anruf mit der besten Übereinstimmung mit dem Stimmprofil, der bestätigten Sprecheridentität und einer Liste der Sprachprofile, die über die während des Anrufs `CreateVoiceProfile` getätigten `UpdateVoiceProfile` API-Aufrufe erstellt oder aktualisiert wurden.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "VoiceAnalyticsStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",    
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "PostCallVoiceAnalytics",
        "callId": "22e8dee8-bbd7-4f94-927b-2d0ebaeddc1c",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "isCaller": true | false,
        "speakerSearchResults": {
            "bestMatchedVoiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "customerValidatedCallerIdentity": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "createVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z"
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ],
            "updateVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ]
        }
    }
}
```

# Beispiel für Sprachanalyse-Lambda-Funktion für das Amazon Chime SDK
<a name="va-sample-lambda"></a>

Der Python-Code im folgenden Beispiel verarbeitet Benachrichtigungen, die von einem Voice Connector empfangen wurden. Sie können den Code zu einer AWS Lambda-Funktion hinzufügen. Sie können es auch verwenden, um Ihre Amazon SQS SQS-Warteschlange, Ihr Amazon SNS SNS-Thema oder Ihren Amazon Kinesis Data Stream auszulösen. Sie können die Benachrichtigungen dann `EventTable` für eine future Verarbeitung speichern. Die genauen Benachrichtigungsformate finden Sie unter[Grundlegendes zu Benachrichtigungen für das Amazon Chime SDK](va-notification-targets.md).

```
import base64
import boto3
import json
import logging
import time

from datetime import datetime
from enum import Enum

log = logging.getLogger()
log.setLevel(logging.INFO)

dynamo = boto3.client("dynamodb")

EVENT_TABLE_NAME = "EventTable"

class EventType(Enum):
    """
    This example code uses a single Lambda processor to handle either
    triggers from SQS, SNS, Lambda, or Kinesis. You can adapt it to fit your
    desired infrastructure depending on what you prefer. To distinguish
    where we get events from, we use an EventType enum as an
    example to show the different ways of parsing the notifications.
    """
    SQS = "SQS"
    SNS = "SNS"
    LAMBDA = "LAMBDA"
    KINESIS = "KINESIS"


class AnalyticsType(Enum):
    """
    Define the various analytics event types that this Lambda will
    handle.
    """
    SPEAKER_SEARCH = "SpeakerSearch"
    VOICE_TONE_ANALYSIS = "VoiceToneAnalysis"
    ANALYTICS_READY = "AnalyticsReady"
    UNKNOWN = "UNKNOWN"
 
   
class DetailType(Enum):
    """
    Define the  various detail types that Voice Connector's voice
    analytics feature can return.
    """
    SPEAKER_SEARCH_TYPE = "SpeakerSearchStatus"
    VOICE_TONE_ANALYSIS_TYPE = "VoiceToneAnalysisStatus"
    ANALYTICS_READY = "VoiceAnalyticsStatus"
 

def handle(event, context):
    """
    Example of how to handle incoming Voice Analytics notification messages
    from Voice Connector.
    """
    logging.info(f"Received event of type {type(event)} with payload {event}")
    is_lambda = True
    
    # Handle triggers from SQS, SNS, and KDS. Use the below code if you would like
    # to use this Lambda as a trigger for an existing SQS queue, SNS topic or Kinesis
    # stream.
    if "Records" in event:
        logging.info("Handling event from SQS or SNS since Records exists")
        is_lambda = False
        for record in event.get("Records", []):
            _process_record(record)
    
    # If you would prefer to have your Lambda invoked directly, use the
    # below code to have the Voice Connector directly invoke your Lambda.
    # In this scenario, there are no "Records" passed.
    if is_lambda:
        logging.info(f"Handling event from Lambda")
        event_type = EventType.LAMBDA
        _process_notification_event(event_type, event)


def _process_record(record):
    # SQS and Kinesis use eventSource.
    event_source = record.get("eventSource")
    
    # SNS uses EventSource.
    if not event_source:
        event_source = record.get("EventSource")

    # Assign the event type explicitly based on the event source value.
    event_type = None
    if event_source == "aws:sqs":
        event = record["body"]
        event_type = EventType.SQS
    elif event_source == "aws:sns":
        event = record["Sns"]["Message"]
        event_type = EventType.SNS
    elif event_source == "aws:kinesis":
        raw_data = record["kinesis"]["data"]
        raw_message = base64.b64decode(raw_data).decode('utf-8')
        event = json.loads(raw_message)
        event_type = EventType.KINESIS
    else:
        raise Exception(f"Event source {event_source} is not supported")

    _process_notification_event(event_type, event)


def _process_notification_event(
    event_type: EventType,
    event: dict
):
    """
    Extract the attributes from the Voice Analytics notification message
    and store it as a DynamoDB item to process later.
    """
    message_id = event.get("id")
    analytics_type = _get_analytics_type(event.get("detail-type"))
    pk = None
    if analytics_type == AnalyticsType.ANALYTICS_READY.value or analytics_type == AnalyticsType.UNKNOWN.value:
        transaction_id = event.get("detail").get("transactionId")
        pk = f"transactionId#{transaction_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    else:
        task_id = event.get("detail").get("taskId")
        pk = f"taskId#{task_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    logging.info(f"Generated PK {pk}")
    _create_request_record(pk, message_id, json.dumps(event))


def _create_request_record(pk: str, sk: str, body: str):
    """
    Record this notification message into the Dynamo db table
    """
    try:
        # Use consistent ISO8601 date format.
        # 2019-08-01T23:09:35.369156 -> 2019-08-01T23:09:35.369Z
        time_now = (
            datetime.utcnow().isoformat()[:-3] + "Z"
        )
        response = dynamo.put_item(
            Item={
                "PK": {"S": pk},
                "SK": {"S": sk},
                "body": {"S": body},
                "createdOn": {"S": time_now},
            },
            TableName=EVENT_TABLE_NAME,
        )
        logging.info(f"Added record in table {EVENT_TABLE_NAME}, response : {response}")
    except Exception as e:
        logging.error(f"Error in adding record: {e}")


def _get_analytics_type(detail_type: str):
    """
    Get analytics type based on message detail type value.
    """
    if detail_type == DetailType.SPEAKER_SEARCH_TYPE.value:
        return AnalyticsType.SPEAKER_SEARCH.value
    elif detail_type == DetailType.VOICE_TONE_ANALYSIS_TYPE.value:
        return AnalyticsType.VOICE_TONE_ANALYSIS.value
    elif detail_type == DetailType.ANALYTICS_READY.value:
        return AnalyticsType.ANALYTICS_READY.value
    else:
        return AnalyticsType.UNKNOWN.value
```

**Wichtig**  
Sie müssen Ihre Zustimmung einholen, bevor Sie den [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)oder anrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html) APIs. Wir empfehlen, dass Sie die Ereignisse in einem Wartebereich wie Amazon DynamoDB so lange fortführen, bis Sie die Zustimmung erhalten.

# Grundlegendes zu Datenspeicher-, Abmelde- und Datenaufbewahrungsrichtlinien für das Amazon Chime SDK
<a name="va-opt-out"></a>

Das Amazon Chime SDK verwendet Sprachdaten, um den Lautsprecher-Suchdienst bereitzustellen und zu verbessern. In diesem Zusammenhang verwenden wir Audio für die Registrierung, d. h. die aufgezeichneten Ausschnitte, die zur Erstellung von Spracheinbettungen verwendet werden, um unsere Modelle für maschinelles Lernen und künstliche Intelligenz zu trainieren. Sie können sich gegen die Verwendung Ihrer Daten zum Trainieren der Modelle entscheiden. In den Themen in diesem Abschnitt wird erklärt, wie das geht.

**Topics**
+ [Grundlegendes zum Datenspeicher für die Lautsprechersuche für das Amazon Chime SDK](speaker-search-data-storage.md)
+ [Umgang mit Opt-Outs für die Lautsprechersuche für das Amazon Chime SDK](va-handle-opt-outs.md)
+ [Grundlegendes zur Datenspeicherung für Amazon Chime SDK Voice Analytics](va-data-retention.md)

# Grundlegendes zum Datenspeicher für die Lautsprechersuche für das Amazon Chime SDK
<a name="speaker-search-data-storage"></a>

Das Amazon Chime SDK speichert die folgenden Daten für die Lautsprechersuche:
+ Die an die Sprachprofile angehängten Spracheinbettungen, die wir für die Lautsprechersuche verwenden.
+ Aufnahme-Audio, die aufgezeichneten Sprachausschnitte, die zur Erstellung der Spracheinbettungen für jedes Sprachprofil verwendet wurden. Wir verwenden die Audioaufnahmen bei der Registrierung, um:
  + Halten Sie die Modelle für die Lautsprechersuche auf dem neuesten Stand. Dies ist ein wichtiger Bestandteil der Bereitstellung der Lautsprecher-Suchfunktion.
  + Trainieren Sie das Modell des maschinellen Lernens, um den Service weiterzuentwickeln und zu verbessern. Die Verwendung von Anmeldeaudio für Schulungen ist optional. Sie können sich von dieser Nutzung abmelden, indem Sie eine Abmeldeoption auswählen, wie im folgenden Abschnitt beschrieben.

# Umgang mit Opt-Outs für die Lautsprechersuche für das Amazon Chime SDK
<a name="va-handle-opt-outs"></a>

Sie können Opt-Outs für Endbenutzer und ganze Organisationen verwalten. Opt-Out hat folgende Auswirkungen:
+ Nachdem Sie sich abmelden, verwendet Voice Analytics kein neues Anmeldeaudio für Modelltraining und es werden auch keine Anmeldedaten verwendet, die vor Ihrer Abmeldung gesammelt und gespeichert wurden.
+ Nach Ihrer Abmeldung speichert und verwendet Voice Analytics die Audiodaten der Anmeldung, um den Sprechersuchdienst bereitzustellen.

**Warnung**  
Die folgenden Opt-Out-Aktionen sind irreversibel. Sie können gelöschte Daten nicht wiederherstellen.

**Umgang mit Abmeldungen von Endbenutzern**  
Wenn Endbenutzer die Lautsprechersuche deaktivieren möchten, rufen Sie die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html)API auf. Durch diese Aktion werden das Sprachprofil sowie die Spracheinbettungen und die Audiodaten für die Registrierung entfernt.

Um eine Gruppe von Spracheinbettungen zu löschen, rufen Sie die API auf, um die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html)Domain zu entfernen. Diese Aktion löscht *alle* Sprachprofile in einer Domain.

**Umgang mit der Abmeldung auf organisatorischer Ebene**  
Verwenden Sie eine Opt-Out-Richtlinie für AWS Organizations, um Abmeldungen für eine gesamte Organisation zu verwalten. Verwenden Sie den `chimesdkvoiceanalytics` Dienstnamen. Informationen zu den Richtlinien finden Sie unter [Opt-Out-Richtlinien für KI-Dienste](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html) im *AWS Organizations User Guide*.

**Anmerkung**  
Um eine Opt-Out-Richtlinie nutzen zu können, müssen Ihre AWS Konten zentral von AWS Organizations verwaltet werden. Wenn Sie noch keine Organisation für Ihre AWS Konten erstellt haben, finden Sie weitere Informationen unter [Organisation erstellen und verwalten](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_org.html) im *Benutzerhandbuch für AWS Organizations*.

# Grundlegendes zur Datenspeicherung für Amazon Chime SDK Voice Analytics
<a name="va-data-retention"></a>

Standardmäßig löscht Amazon Chime SDK Voice Analytics Spracheinbettungen nach 3 Jahren. Wir tun dies, weil sich die Stimmen der Menschen im Laufe der Zeit ändern, und auch aus Sicherheitsgründen. Sie können die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API verwenden, um abgelaufene Spracheinbettungen zu aktualisieren.

Die Ergebnisse von [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)und [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html)werden auch von den jeweiligen Anbietern [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)und [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) APIs für maximal 7 Tage verfügbar sein.

Spracheinbettungen, die aus einem generiert wurden, können über das [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)und [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs für 24 Stunden dauerhaft gespeichert [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)werden. Danach werden sie gelöscht und sind nicht mehr verfügbar.

Informationen zum Entfernen von Ergebnissen und zum Umgang mit Widerrufen von Einwilligungen Ihrer Kunden finden Sie im vorherigen Abschnitt.

# APIs Sprachanalysen für das Amazon Chime SDK mithilfe von Sprache ausführen
<a name="va-in-voice-namespace"></a>

Aus Gründen der Abwärtskompatibilität können Sie Amazon Chime SDK Voice verwenden, APIs um Sprachanalysen zu starten und zu verwalten. Allerdings bietet nur die Media Insights-Pipeline APIs für Sprachanalysen neue Funktionen, weshalb wir dringend empfehlen, sie stattdessen zu verwenden.

In den folgenden Abschnitten werden die Unterschiede zwischen den Sprach- und Medienerkenntnis-Pipelines APIs erläutert.

## Aufgaben beenden
<a name="va-stopping-tasks"></a>

Wenn Sie einen Voice Connector verwenden, um Sprachanalyseaufgaben zu starten, und dann die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API verwenden, um die Pipeline anzuhalten, werden die Aufgaben weiterhin ausgeführt. Um die Aufgaben zu beenden, müssen Sie [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html)und aufrufen [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopVoiceToneAnalysisTask.html) APIs.

## Die Unterschiede zwischen Benachrichtigungen verstehen
<a name="va-notification-differences"></a>

Wenn Sie Sprachanalysen per APIs Spracheingabe ausführen, unterscheiden sich die Benachrichtigungen von denen, die von Media Insights-Pipelines generiert werden.
+ Ereignisse, die für Sprachanalysen bereit sind, sind nur für Aufgaben verfügbar, die mit APIs Spracheingabe gestartet wurden.
+ Sie müssen die `callId` Felder `voiceConnectorId``transactionId`, oder in Ihren Benachrichtigungen verwenden, um einem Anruf eine Sprachanalyse-Aufgabe zuzuordnen. Wenn Sie Media Insights-Pipelines verwenden, um Sprachanalysen durchzuführen, verwenden Sie die `channelId` Felder `mediaInsightsPipelineId` und `streamArn` oder, um eine Aufgabe einem Anruf zuzuordnen.

In den folgenden Themen wird erklärt, wie Sie Benachrichtigungen mit APIs Spracheingabe verwenden.

**Topics**
+ [Ereignisse, die auf Sprachanalyse vorbereitet sind](#va-ready-events)
+ [Veranstaltungen zur Suche nach Sprechern](#va-speaker-search-events)
+ [Ereignisse zur Stimmentonanalyse](#va-tone-status)

### Ereignisse, die auf Sprachanalyse vorbereitet sind
<a name="va-ready-events"></a>

Ereignisse, die für Sprachanalysen geeignet sind, haben den Typ „`VoiceAnalyticsStatus`Detail“. 

Sie verwenden Amazon Chime SDK Voice Connectors, um Analyseaufgaben zu starten. Wenn Sie ein Ereignis erhalten, das für die Sprachanalyse bereit ist, können Sie eine Aufgabe zur Sprechersuche oder zur Stimmenanalyse für den Anruf auslösen, die anhand der folgenden Eigenschaften identifiziert wird:
+ `voiceConnectorId`
+ `transactionId`

**Anmerkung**  
Diese Benachrichtigung wird nur angezeigt, wenn Sie über eine Media Insights-Pipeline-Konfiguration mit aktivierter Sprachanalyse verfügen, die mit einem Voice Connector verknüpft ist. Diese Benachrichtigung wird NICHT bereitgestellt, wenn Kunden die `CreateMediaInsightsPipeline` API aufrufen und über das Media Pipelines SDK eine Aufgabe zur Suche nach Lautsprechern oder eine Aufgabe zur Stimmenanalyse starten.

Die von einem Voice Connector zurückgegebenen SIP-Header enthalten die. `transactionId` Wenn Sie keinen Zugriff auf die SIP-Header haben, enthält das `AnalyticsReady` Benachrichtigungsereignis auch das `voiceConnectorId` und. `transactionId` Auf diese Weise können Sie die Informationen programmgesteuert empfangen und das, oder aufrufen. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask) APIs

Wenn die Sprachanalyse zur Verarbeitung bereit ist, sendet der Voice Connector ein Ereignis als `"detailStatus": "AnalyticsReady"` JSON-Text an das Benachrichtigungsziel. Wenn Sie Amazon SNS oder Amazon SQS verwenden, erscheint dieser Text im Feld „Records“ in der Amazon SNS- oder Amazon SQS SQS-Nutzlast.

Das folgende Beispiel zeigt einen typischen JSON-Hauptteil.

```
{
    "detail-type": "VoiceAnalyticsStatus",
    "version": "0",
    "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59",
    "source": "aws.chime",
    "account": "123456789012",
    "time": "2022-08-26T17:55:15.563441Z",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "AnalyticsReady",
        "callDetails": {
            "isCaller": false,
            "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
            "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
        }
    }
}
```

Diese Benachrichtigung ermöglicht es Ihnen, zusätzliche Rückrufe für Ihre Anwendung auszulösen und alle rechtlichen Anforderungen wie Benachrichtigung und Zustimmung zu erfüllen, bevor Sie die Sprachanalyseaufgabe APIs aufrufen.

### Veranstaltungen zur Suche nach Sprechern
<a name="va-speaker-search-events"></a>

Ereignisse zur Suche nach Rednern haben den Typ „`SpeakerSearchStatus`Detail“.

Amazon Chime SDK Voice Connectors senden die folgenden Lautsprecher-Suchereignisse:
+ Die Identifizierung stimmt überein
+ Generierung von Spracheinbettung

Die Ereignisse können den folgenden Status haben:
+ `IdentificationSuccessful`— Es wurde erfolgreich mindestens eine passende Sprachprofil-ID mit einem hohen Konfidenzwert in der angegebenen Sprachprofildomäne identifiziert.
+ `IdentificationFailure`— Identifizierung konnte nicht durchgeführt werden. Ursachen: Der Anrufer spricht mindestens 10 Sekunden lang nicht, schlechte Audioqualität.
+ `IdentificationNoMatchesFound`— In der angegebenen Sprachprofildomäne konnte keine Übereinstimmung mit hoher Zuverlässigkeit gefunden werden. Der Anrufer ist möglicherweise neu, oder seine Stimme hat sich geändert.
+ `VoiceprintGenerationSuccessful`— Das System generierte eine Spracheinbettung mithilfe von 20 Sekunden ohne Geräuschlosigkeit.
+ `VoiceprintGenerationFailure`— Das System konnte keine Spracheinbettung generieren. Ursachen: Der Anrufer spricht mindestens 20 Sekunden lang nicht, schlechte Audioqualität.

#### Die Identifizierung stimmt überein
<a name="va-id-matches"></a>

Nachdem die [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API für einen bestimmten Vorgang aufgerufen wurde`transactionId`, sendet der Voice Connector-Dienst nach 10 Sekunden Spracheingabe eine Benachrichtigung über den Identifizierungsabgleich zurück. Der Dienst gibt die 10 besten Treffer zusammen mit einer Stimmprofil-ID und einem Konfidenzwert zwischen [0, 1] zurück. Je höher der Konfidenzwert, desto wahrscheinlicher ist es, dass der Sprecher des Anrufs mit der Stimmprofil-ID übereinstimmt. Wenn das Modell für maschinelles Lernen keine Treffer findet, enthält das `detailStatus` Feld der Benachrichtigung Folgendes`IdentificationNoMatchesFound`.

Das folgende Beispiel zeigt eine Benachrichtigung über einen erfolgreichen Treffer.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "isCaller": false,
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436"
    }
}
```

#### Generierung von Spracheinbettung
<a name="va-voice-print-generation"></a>

Nach weiteren 10 Sekunden Spracheingabe ohne Ton sendet der Voice Connector eine Benachrichtigung über die Generierung der Spracheinbettung an die Benachrichtigungsziele. Sie können neue Spracheinbettungen in ein Stimmprofil aufnehmen oder einen Ausdruck aktualisieren, der sich bereits in einem Sprachprofil befindet.

Das folgende Beispiel zeigt die Benachrichtigung für einen erfolgreichen Abgleich, was bedeutet, dass Sie das zugehörige Stimmprofil aktualisieren können.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "isCaller": false,
        "transactionId": "12345678-1234-1234",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr"
    }
}
```

### Ereignisse zur Stimmentonanalyse
<a name="va-tone-status"></a>

Ereignisse zur Stimmenanalyse haben den Typ „`VoiceToneAnalysisStatus`Detail“. Die Analysen können folgende Status zurückgeben:
+ `VoiceToneAnalysisSuccessful`— Die Stimmen des Anrufers und des Agenten wurden erfolgreich nach Stimmungswahrscheinlichkeiten — positiv, negativ oder neutral — analysiert.
+ `VoiceToneAnalysisFailure`— Die Tonanalyse konnte nicht durchgeführt werden. Dies kann passieren, wenn der Anrufer 10 Sekunden lang hängen bleibt, ohne zu sprechen, oder wenn die Audioqualität zu schlecht wird.
+ `VoiceToneAnalysisCompleted`— Die Stimmen von Benutzern und Agenten wurden erfolgreich auf Stimmungswahrscheinlichkeiten für den gesamten Anruf hin analysiert. Dies ist das letzte Ereignis, das gesendet wird, wenn die Stimmenanalyse abgeschlossen ist.

Das folgende Beispiel zeigt ein typisches Ereignis zur Stimmentonanalyse.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
    "isCaller": true,
    "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
    "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

# Kontingente für den Call Analytics Service für das Amazon Chime SDK
<a name="ca-regions"></a>

In den Tabellen in diesem Abschnitt sind die Service-Kontingente für Amazon Chime SDK-Anrufanalysen aufgeführt.

Weitere Informationen zu den Regionen für Anrufanalysen finden Sie weiter [Verfügbare AWS-Regionen für das Amazon Chime SDK](sdk-available-regions.md) oben in diesem Handbuch.

Für Anrufanalysen und Sprachanalysen im Amazon Chime SDK gelten die folgenden Servicekontingente.


| Ressource | Standardlimit | Einstellbar | 
| --- | --- | --- | 
| Media Insights-Pipeline-Konfigurationen pro Region | 100 | Ja | 
| Aktive Media Insights-Pipelines pro Region | 20 | Ja | 
| Domains mit Sprachprofilen pro Region | 3 | Ja | 
| Sprachprofile pro Sprachprofil-Domain | 20 | Ja | 
| Aktive Aufgaben zur Lautsprechersuche pro Region | 25 | Ja | 
| Aufgaben zur aktiven Stimmentonanalyse pro Region | 25 | Ja | 
| Active Voice Connector-Anrufe mit Sprachanalyse pro Region | 25 | Ja | 
| Aufgaben zur Suche nach aktiven Lautsprechern pro Voice Connector-Anruf pro Transaktions-ID | 1 | Nein | 
| Aktive Aufgabe zur Stimmenanalyse pro Voice Connector-Aufruf pro Transaktions-ID | 1 | Nein | 
| Maximale Anzahl gleichzeitiger API-Aufrufe pro Sprachprofildomäne | 1 | Ja | 
| Maximale Anzahl gleichzeitiger API-Aufrufe pro Sprachprofil | 1 | Ja | 
| Maximale Anzahl gleichzeitiger API-Aufrufe pro Lautsprecher-Suchaufgabe | 1 | Ja | 
| Maximale Anzahl gleichzeitiger API-Aufrufe pro Aufgabe zur Sprachtonanalyse | 1 | Ja | 

Weitere Informationen zu API-Tarifen und -Kontingenten finden Sie unter [Amazon Chime SDK-Endpunkte und Kontingente](https://docs.aws.amazon.com/general/latest/gr/chime-sdk.html) in der *AWS Allgemeinen* Referenz.

**Anmerkung**  
Wenn Sie das Kontingent für eine Region überschreiten, erhalten Sie die Ausnahme „**Ressourcenlimit überschritten**“. Sie können auf der Seite „**Servicekontingente**“ in der AWS Konsole eine Erhöhung beantragen, oder Sie können sich an Ihren [Kundendienstmitarbeiter](https://docs.aws.amazon.com/awssupport/latest/user/getting-started.html) wenden.  
Einige der APIs Anrufanalysen erstellen Ressourcen und API-Anfragen für andere AWS Dienste. Diese zusätzlichen Gebühren werden auf die Kontingente Ihres Kontos angerechnet. Wenn Sie über Call Analytics ein Kontingent oder eine transactions-per-second Erhöhung beantragen, müssen Sie auch Erhöhungen für diese anderen AWS Dienste beantragen. Andernfalls werden Ihre Anfragen möglicherweise gedrosselt und schlagen fehl.