

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Génération d'informations à partir des appels à l'aide de l'analyse des appels pour le SDK Amazon Chime
<a name="call-analytics"></a>

Les rubriques de cette section expliquent comment utiliser l'analyse des appels du SDK Amazon Chime pour générer des informations à partir de vos données d'appels. 

L'analyse des appels du SDK Amazon Chime fournit aux développeurs des solutions low-code pour générer des informations rentables à partir de données audio en temps réel, notamment l'ingestion audio, l'analyse, les alertes et l'intégration de lacs de données. L'analyse des appels vous permet de générer des informations grâce à l'intégration avec Amazon Transcribe et Transcribe Call Analytics (TCA), et de manière native via les analyses vocales du SDK Amazon Chime. L'analyse des appels peut également enregistrer les appels vers votre compartiment Amazon S3.

Vous pouvez utiliser les méthodes suivantes pour configurer et exécuter l'analyse des appels.
+ Utilisez la console Amazon Chime SDK pour créer une configuration d'analyse des appels et l'associer à un connecteur vocal Amazon Chime SDK. Au cours de ce processus, vous pouvez activer l'enregistrement et l'analyse des appels. Il n'est pas nécessaire d'écrire du code pour terminer le processus.
+ Utilisez un ensemble de SDK Amazon Chime (SDK APIs [Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/welcome.html)) APIs pour créer et exécuter une configuration par programmation.

Pour plus d'informations, reportez-vous à [Création de configurations d'analyse des appels pour le SDK Amazon Chime](creating-ca-configuration.md) et[Utilisation des configurations d'analyse des appels pour le SDK Amazon Chime](using-call-analytics-configurations.md), plus loin dans cette section.

**Topics**
+ [Qu'est-ce que l'analyse des appels du SDK Amazon Chime](what-is-amazon-chime-sdk-call-analytics.md)
+ [Comprendre la terminologie de l'analyse des appels pour le SDK Amazon Chime](ca-terms-concepts.md)
+ [Création de configurations d'analyse des appels pour le SDK Amazon Chime](creating-ca-configuration.md)
+ [Utilisation des configurations d'analyse des appels pour le SDK Amazon Chime](using-call-analytics-configurations.md)
+ [Gestion des pipelines d'analyse des appels pour le SDK Amazon Chime](managing-call-analytics-pipelines.md)
+ [Suspension et reprise des pipelines d'analyse des appels pour le SDK Amazon Chime](pausing-and-resuming-call-analytics-pipelines.md)
+ [Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime](call-analytics-resource-access-role.md)
+ [Comprendre les statuts d'analyse des appels pour le SDK Amazon Chime](call-analytics-statuses.md)
+ [Surveillance des pipelines d'analyse des appels pour le SDK Amazon Chime avec Amazon CloudWatch](monitoring-with-cloudwatch.md)
+ [Processeur d'analyse des appels et destinations de sortie pour le SDK Amazon Chime](call-analytics-processor-and-output-destinations.md)
+ [Modèle de données d'analyse des appels pour le SDK Amazon Chime](ca-data-model.md)
+ [Utilisation de l'analyse vocale du SDK Amazon Chime](voice-analytics.md)
+ [Quotas de service d'analyse des appels pour le SDK Amazon Chime](ca-regions.md)

# Qu'est-ce que l'analyse des appels du SDK Amazon Chime
<a name="what-is-amazon-chime-sdk-call-analytics"></a>

L'analyse des appels du SDK Amazon Chime est une solution low-code permettant de générer des informations rentables à partir de données audio en temps réel, notamment des fonctionnalités d'ingestion audio, d'enregistrement, d'analyse vocale, d'alerte et de lac de données. Vous pouvez générer des informations basées sur le machine learning à l'aide de l'analyse des appels en créant une configuration d'analyse des appels réutilisable qui détermine les intégrations d'apprentissage AWS automatique et les fonctionnalités de traitement audio à activer pour un flux de travail. Vous utilisez ensuite la configuration d'analyse des appels avec diverses sources multimédias telles que Voice Connectors ou Amazon Kinesis Video Streams. L'analyse des appels génère des informations grâce à des intégrations avec Amazon Transcribe et Transcribe Call Analytics (TCA), et de manière native via l'analyse [vocale du SDK Amazon Chime, un service qui s'exécute](voice-analytics.md) dans le cadre de l'analyse des appels.

Pour utiliser l'analyse des appels, procédez comme suit :

![\[Image illustrant le processus de configuration de l'analyse des appels du SDK Amazon Chime.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/CallAnalyticsOverview.png)


Dans le schéma :

1. Vous commencez par créer une configuration d'analyse des appels.

1. Vous définissez vos destinations de sortie et un lac de données facultatif.

1. Vous créez des flux de travail qui associent votre configuration à un connecteur vocal et à Amazon Kinesis Video Streams.

1. Vous analysez et visualisez éventuellement vos informations.

Vous pouvez utiliser la console Amazon Chime SDK pour créer une configuration d'analyse des appels et permettre à l'analyse des appels de démarrer automatiquement. Si vous devez contrôler les configurations qui s'appliquent à un type d'appel donné, vous pouvez APIs créer une configuration. Quoi qu'il en soit, la configuration contient des détails sur les services d'apprentissage AWS automatique à invoquer pour l'audio des appels, activer l'enregistrement des appels et les destinations des informations, des métadonnées et des enregistrements. L'analyse des appels fournit les destinations suivantes :
+ Un flux de données Amazon Kinesis (KDS). Vous pouvez utiliser KDS pour recevoir des informations sur les appels en direct que vous pouvez ensuite intégrer à votre application. Par exemple, vous pouvez intégrer les informations en direct pour aider un agent des ventes ou du support client lors d'un appel client, ou utiliser ces informations pour améliorer les instructions et les résumés générés par l'IA.
+ Un compartiment Amazon S3 configuré comme entrepôt de données. Le bucket stocke les données au format Parquet. Parquet est un format de fichier open source conçu pour compresser et stocker de gros volumes de données. Vous pouvez ensuite utiliser Amazon Athena pour interroger ces données à l'aide d'un langage de requête simple (SQL) ou déplacer les données vers votre entrepôt de données existant afin de les associer à vos données commerciales. Par exemple, vous pouvez effectuer des analyses agrégées après les appels pour comprendre l'efficacité des appels clients, les problèmes liés à un produit ou les opportunités de formation des employés afin d'obtenir de meilleurs résultats pour les clients.

Outre ces destinations, l'analyse des appels prend également en charge les alertes en temps réel que vous pouvez préconfigurer en fonction des informations. Les alertes sont envoyées à Amazon EventBridge. 

**Note**  
Lorsque vous créez une configuration d'analyse des appels, vous ne sélectionnez aucune source audio spécifique. Cela vous permet de réutiliser des configurations sur plusieurs sources audio. Par exemple, une configuration peut activer l'enregistrement des appels et fournir une transcription des appels. Vous pouvez ensuite utiliser la configuration avec un connecteur vocal du SDK Chime et un flux audio via un flux vidéo Kinesis. Vous pouvez également partager la configuration entre plusieurs connecteurs vocaux. Chaque configuration d'analyse des appels est unique et identifiée par un ARN. 

# Comprendre la terminologie de l'analyse des appels pour le SDK Amazon Chime
<a name="ca-terms-concepts"></a>

La terminologie et les concepts suivants sont essentiels pour comprendre comment utiliser l'analyse des appels du SDK Amazon Chime.

**Amazon Athena**  
Un service de requête interactif qui vous permet d'analyser les données dans Amazon S3 à l'aide du SQL standard. Athena fonctionne sans serveur, vous n'avez donc aucune infrastructure à gérer et vous ne payez que pour les requêtes que vous exécutez. Pour utiliser Athena, pointez sur vos données dans Amazon S3, définissez le schéma et utilisez des requêtes SQL standard. Vous pouvez également utiliser des groupes de travail pour regrouper les utilisateurs et contrôler les ressources auxquelles ils ont accès lorsqu'ils exécutent des requêtes. Les groupes de travail vous permettent de gérer la simultanéité des requêtes et de hiérarchiser l'exécution des requêtes entre différents groupes d'utilisateurs et différentes charges de travail. Pour plus d'informations, reportez-vous à la section [Qu'est-ce qu'Amazon Athena ?](https://docs.aws.amazon.com/athena/latest/ug/what-is.html)

**Amazon Kinesis Data Firehose**  
Un service d'extraction, de transformation et de chargement (ETL) qui capture, transforme et diffuse de manière fiable des données en streaming vers des lacs de données, des magasins de données et des services d'analyse. Pour plus d'informations, reportez-vous à la section [Qu'est-ce qu'Amazon Kinesis Data Firehose ?](https://aws.amazon.com/kinesis/data-firehose/)

**Entrepôt de données d'analyse des appels**  
Stockage optionnel pour les données d'analyse des appels. L'entrepôt stocke les données dans un format de fichier de données basé sur du parquet dans un compartiment Amazon S3. Vous pouvez utiliser le langage SQL standard pour interroger les données. Vous activez l'entrepôt dans une configuration d'analyse des appels.

**Catalogue de données Glue**  
Un référentiel de métadonnées centralisé pour les actifs de données provenant de différentes sources de données. Le catalogue comprend des bases de données et des tables. Pour l'analyse des appels, les métadonnées du tableau indiquent à Athena l'emplacement de votre compartiment Amazon S3. Il spécifie également la structure des données, telle que les noms des colonnes, les types de données et le nom de la table. Les bases de données contiennent uniquement les métadonnées et les informations de schéma d'un ensemble de données. Pour plus d'informations, reportez-vous à[Comprendre la structure des tables du catalogue de AWS Glue données pour le SDK Amazon Chime](ca-data-model-diagram.md), plus loin dans cette section.

**Pipeline d'informations médiatiques**  
 Ressource temporaire identifiée par un identifiant unique`MediaPipelineId`. Créé à l'aide de la configuration et des paramètres d'exécution d'un pipeline d'analyse des appels. Les paramètres d'exécution spécifient la source de données du pipeline.

**Configuration du pipeline Media Insights**  
Configuration statique utilisée pour créer des pipelines d'informations sur les médias. Vous pouvez utiliser une configuration pour instancier un ou plusieurs pipelines.

**Élément de configuration du pipeline Media Insights**  
L'élément de configuration du pipeline d'informations multimédias inclut des instructions pour traiter les médias à l'aide d'un élément processeur ou pour fournir des informations générées à l'aide d'un élément récepteur.

**Tâche relative au pipeline Media Insights**  
Sous-ressource temporaire d'un pipeline d'informations sur les médias. Les tâches contiennent des métadonnées sur l'état d'un processus pour un ARN de flux et un ID de canal spécifiques. Identifié par un identifiant unique. Créé en lançant l'analyse vocale sur un pipeline d'informations sur les médias. 

**Recherche de haut-parleurs**  
Une fonction d'analyse vocale qui vous aide à reconnaître les participants à un appel.

**Analyses vocales**  
Une fonctionnalité du SDK Amazon Chime qui inclut la recherche de haut-parleurs et l'analyse de la tonalité vocale.

**Intégration vocale**  
Une représentation vectorielle de la voix de l'appelant, plus un identifiant unique.

**Amélioration de la voix**  
Un système qui améliore la qualité audio des appels téléphoniques.

**Profil vocal**  
Combinaison d'une intégration vocale, de son identifiant et de sa date d'expiration.

**Domaine du profil vocal**  
Une collection de profils vocaux.

**Analyse du ton des voix**  
Une fonctionnalité d'analyse vocale qui vous permet d'analyser les voix des appelants pour détecter un `positive``negative`, ou un `neutral` sentiment.

Pour plus d'informations sur les outils APIs utilisés pour créer des configurations d'informations sur les appels, lancer des pipelines et exécuter des analyses vocales, consultez [Amazon Chime SDK Media Pipelines](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html), dans le manuel *Amazon Chime* SDK API Reference.

**Note**  
Nous vous recommandons vivement d'utiliser le pipeline Media Insights APIs pour effectuer des analyses d'appels, car seuls ceux-ci APIs fournissent de nouvelles fonctionnalités. Pour plus d'informations sur les différences entre le pipeline multimédia et les espaces de noms vocaux[Utilisation APIs de la voix pour exécuter des analyses vocales pour le SDK Amazon Chime](va-in-voice-namespace.md), reportez-vous à la section suivante.

# Création de configurations d'analyse des appels pour le SDK Amazon Chime
<a name="creating-ca-configuration"></a>

Pour utiliser l'analyse des appels, vous devez commencer par créer une *configuration*, une structure statique contenant les informations nécessaires à la création d'un pipeline d'analyse des appels. Vous pouvez utiliser la console Amazon Chime SDK pour créer une configuration ou appeler l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)

Une configuration d'analyse des appels inclut des informations sur les processeurs audio, telles que l'enregistrement, l'analyse vocale ou Amazon Transcribe. Il inclut également des destinations d'aperçu et des configurations d'événements d'alerte. Vous pouvez éventuellement enregistrer les données de vos appels dans un compartiment Amazon S3 pour une analyse plus approfondie.

Toutefois, *les configurations n'incluent pas de sources audio spécifiques*. Cela vous permet de réutiliser la configuration dans plusieurs flux de travail d'analyse des appels. Par exemple, vous pouvez utiliser la même configuration d'analyse des appels avec différents connecteurs vocaux ou entre différentes sources Amazon Kinesis Video Stream (KVS).

Vous utilisez les configurations pour créer des pipelines lorsque des appels SIP sont effectués via un connecteur vocal ou lorsque de nouveaux médias sont envoyés vers un Amazon Kinesis Video Stream (KVS). Les pipelines, à leur tour, traitent le support conformément aux spécifications de la configuration.

Vous pouvez arrêter un pipeline par programmation à tout moment. Les pipelines arrêtent également de traiter le contenu multimédia lorsqu'un appel du Voice Connector prend fin. Vous pouvez également suspendre un pipeline. Cela désactive les appels aux services d'apprentissage automatique Amazon sous-jacents et les reprend lorsque vous le souhaitez. Toutefois, l'enregistrement des appels s'exécute lorsque vous interrompez un pipeline.

Les sections suivantes expliquent les conditions préalables à la création d'une configuration d'analyse des appels et expliquent comment en créer une.

**Topics**
+ [Comprendre les prérequis relatifs à l'analyse des appels du SDK Amazon Chime](ca-prerequisites.md)
+ [Utilisation de la console Amazon Chime SDK pour créer des configurations d'analyse des appels](create-config-console.md)
+ [Utilisation APIs pour créer des configurations d'analyse des appels pour le SDK Amazon Chime](create-config-apis.md)
+ [Associer une configuration à un connecteur vocal pour le SDK Amazon Chime](ca-associate-vc-steps.md)

# Comprendre les prérequis relatifs à l'analyse des appels du SDK Amazon Chime
<a name="ca-prerequisites"></a>

Avant de créer une configuration d'analyse des appels, vous devez disposer des éléments suivants. Vous pouvez utiliser la AWS console pour les créer :
+ Un connecteur vocal Amazon Chime SDK. Si ce n'est pas le cas, reportez-vous à [la section Création de connecteurs vocaux du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/ca-prerequisites.html). Vous devez également :
  + Activez le streaming pour le connecteur vocal. Pour plus d'informations, reportez-vous à la section [Automatisation du SDK Amazon Chime EventBridge avec, dans le guide de l'administrateur du SDK](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) Amazon *Chime* 
  + Configurez le connecteur vocal pour utiliser l'analyse des appels. Pour plus d'informations, reportez-vous à la [section Configuration des connecteurs vocaux pour utiliser l'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html), dans le guide de l'administrateur du *SDK Amazon Chime*.
+ Les EventBridge cibles d'Amazon. Si ce n'est pas le cas, consultez [la section Surveillance du SDK Amazon Chime avec le Guide](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) de l'administrateur du SDK *Amazon EventBridge Chime*.
+ Rôle lié à un service qui permet au connecteur vocal d'accéder aux actions sur les EventBridge cibles. Pour plus d'informations, reportez-vous à la section [Utilisation de la politique des rôles liés au service Amazon Chime SDK Voice Connector](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html), dans le guide de l'administrateur du SDK *Amazon Chime*.
+ Un flux de données Amazon Kinesis. Si ce n'est pas le cas, reportez-vous à la section [Création et gestion de flux](https://docs.aws.amazon.com/streams/latest/dev/working-with-streams.html) dans le manuel *Amazon Kinesis Streams Developer Guide*. L'analyse et la transcription vocales nécessitent un flux de données Kinesis.
+ Pour analyser les appels hors ligne, vous devez créer un lac de données du SDK Amazon Chime. Pour ce faire, reportez-vous à la [Création d'un lac de données du SDK Amazon Chime](ca-data-lake.md) section suivante de ce guide.

# Utilisation de la console Amazon Chime SDK pour créer des configurations d'analyse des appels
<a name="create-config-console"></a>

Après avoir créé les conditions requises répertoriées dans la section précédente, vous pouvez utiliser la console Amazon Chime SDK pour créer une ou plusieurs configurations d'analyse des appels. Vous pouvez également utiliser la console pour associer un ou plusieurs connecteurs vocaux à vos configurations. Lorsque vous avez terminé ce processus, l'analyse des appels commence à s'exécuter avec les fonctionnalités que vous activez lors de la création de la configuration.

Pour créer une configuration d'analyse des appels, procédez comme suit :

1. Spécifiez les détails de configuration, y compris un nom et des balises facultatives.

1. Configurez vos paramètres d'enregistrement. Créez une configuration d'analyse des appels qui inclut des informations basées sur l'enregistrement et l'apprentissage automatique.

1. Configurez vos services d'analyse.

1. Sélectionnez les destinations de sortie pour obtenir des informations en temps réel. Créez un lac de données facultatif pour effectuer des analyses après les appels.

1. Créez un nouveau rôle de service ou utilisez un rôle existant. 

1. Configurez des alertes en temps réel qui envoient des notifications via Amazon EventBridge lorsque certaines conditions sont remplies.

1. Vérifiez vos paramètres et créez la configuration

Après avoir créé la configuration, vous activez l'analyse des appels en associant un connecteur vocal à la configuration. Une fois cela fait, l'analyse des appels démarre automatiquement lorsqu'un appel parvient à ce connecteur vocal. Pour plus d'informations, reportez-vous à[Associer une configuration à un connecteur vocal pour le SDK Amazon Chime](ca-associate-vc-steps.md), plus loin dans cette section.

Les sections suivantes expliquent comment effectuer chaque étape du processus. Développez-les dans l'ordre indiqué.

## Spécifier les détails de configuration
<a name="ca-config-details"></a>

**Pour spécifier les détails de configuration**

1. [Ouvrez la console Amazon Chime à https://console.aws.amazon.com/chime-sdk/ la maison.](https://console.aws.amazon.com/chime-sdk/home)

1. Dans le volet de navigation, sous **Analyse des appels**, choisissez **Configurations**, puis sélectionnez **Créer une configuration**.

1. Sous **Basic information** (Informations de base), procédez comme suit :

   1. Entrez un nom pour la configuration. Le nom doit refléter votre cas d'utilisation et les éventuelles balises.

   1. (Facultatif) Sous **Balises**, choisissez **Ajouter une nouvelle balise**, puis entrez vos clés de balise et des valeurs facultatives. Vous définissez les clés et les valeurs. Les balises peuvent vous aider à interroger la configuration.

   1. Choisissez **Suivant**.

## Configuration de l'enregistrement
<a name="recording-details"></a>

**Pour configurer l'enregistrement**
+ Sur la page **Configurer l'enregistrement**, procédez comme suit : 

  1. Cochez la case **Activer l'enregistrement des appels**. Cela permet d'enregistrer des appels Voice Connector ou des flux KVS et d'envoyer les données vers votre compartiment Amazon S3.

  1. Sous **Format de fichier**, choisissez **WAV avec PCM** pour obtenir la meilleure qualité audio.

     —ou—

     Choisissez **OGG avec OPUS** pour compresser le son et optimiser le stockage.

  1. (Facultatif) Le cas échéant, choisissez le lien **Créer un compartiment Amazon S3** et suivez ces étapes pour créer un compartiment Amazon S3.

  1. Entrez l'URI de votre compartiment Amazon S3 ou choisissez **Browse** pour localiser un compartiment.

  1. (Facultatif) Choisissez **Activer l'amélioration vocale** pour améliorer la qualité audio de vos enregistrements.

  1. Choisissez **Suivant**.

## Comprendre l'amélioration vocale
<a name="understand-voice-enhancement"></a>

Lorsque vous créez une configuration d'analyse des appels, vous pouvez activer l'enregistrement des appels et stocker les appels enregistrés dans un compartiment Amazon S3. Dans ce cadre, vous pouvez également activer l'amélioration vocale et améliorer la qualité audio de vos appels enregistrés. L'amélioration vocale ne s'applique qu'aux enregistrements générés après l'activation de la fonctionnalité. Lorsque la fonctionnalité d'amélioration vocale est active, un enregistrement amélioré est créé en plus de l'enregistrement d'origine et est stocké dans le même compartiment et le même format Amazon S3. L'amélioration vocale générera des enregistrements améliorés pour les appels d'une durée maximale de 30 minutes. Les enregistrements améliorés ne seront pas générés pour les appels de plus de 30 minutes. 

Les appels téléphoniques sont filtrés à bande étroite et échantillonnés à 8. KHz L'amélioration vocale augmente le taux d'échantillonnage de 8 kHz à 16 kHz et utilise un modèle d'apprentissage automatique pour étendre le contenu des fréquences de la bande étroite à la bande large afin de rendre le discours plus naturel. L'amélioration vocale utilise également un modèle de réduction du bruit appelé Amazon Voice Focus pour aider à réduire le bruit de fond dans le son amélioré.

L'amélioration vocale utilise également un modèle de réduction du bruit appelé Voice Focus. Le modèle permet de réduire le bruit de fond dans le son amélioré. L'amélioration vocale applique le modèle à l' KHz audio 16 amélioré.

**Note**  
La fonction d'amélioration vocale n'est prise en charge que dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon).

Les métadonnées des enregistrements d'amélioration vocale sont publiées via votre KDS configuré dans la table de catalogue de données AWS Glue existante *call\$1analytics\$1recording\$1metadata*. *Pour identifier l'enregistrement d'appel d'origine à partir de l'enregistrement d'appel amélioré par la voix, un nouveau champ appelé *detail-subtype* avec valeur *VoiceEnhancement*est ajouté à la notification KDS et à la table de colle call\$1analytics\$1recording\$1metadata.* Pour plus d'informations sur le schéma de l'entrepôt de données, consultez[Modèle de données d'analyse des appels pour le SDK Amazon Chime](ca-data-model.md).

### Format de fichier d'amélioration vocale
<a name="enhancement-file-format"></a>

Notez ce qui suit à propos des fichiers d'enregistrement améliorés.
+ Les enregistrements améliorés sont écrits dans le même compartiment Amazon S3 que les enregistrements classiques. Vous configurez la destination en appelant le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html)APIsen utilisant la console Amazon Chime SDK. 
+ **\$1enhanced** est ajouté au nom du fichier de base. name pour les enregistrements améliorés.
+ Les enregistrements améliorés conservent le même format de fichier que l'enregistrement original. Vous configurez le format de fichier en appelant [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html) APIsle [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)ou en utilisant la console Amazon Chime SDK.

L'exemple suivant montre un format de nom de fichier typique.

```
s3://original_file_name_enhanced.wav
```

or

```
s3://original_file_name_enhanced.ogg
```

## Configuration des services d'analyse
<a name="configure-analytics"></a>

Amazon Transcribe fournit des transcriptions textuelles des appels. Vous pouvez ensuite utiliser les transcriptions pour compléter d'autres services d'apprentissage automatique tels qu'Amazon Comprehend ou vos propres modèles d'apprentissage automatique.

**Note**  
Amazon Transcribe propose également une reconnaissance automatique de la langue. Cependant, vous ne pouvez pas utiliser cette fonctionnalité avec des modèles linguistiques personnalisés ou une rédaction de contenu. En outre, si vous utilisez l'identification linguistique avec d'autres fonctionnalités, vous ne pouvez utiliser que les langues prises en charge par ces fonctionnalités. Pour plus d'informations, reportez-vous à la section [Identification de la langue lors des transcriptions en streaming](https://docs.aws.amazon.com/transcribe/latest/dg/lang-id-stream.html), dans le manuel *Amazon Transcribe* Developer Guide.

Amazon Transcribe Call Analytics est une API basée sur l'apprentissage automatique qui fournit des transcriptions d'appels, des sentiments et des informations sur les conversations en temps réel. Le service élimine le besoin de prendre des notes et permet de prendre des mesures immédiates en cas de problèmes détectés. Le service fournit également des analyses post-appel, telles que le sentiment de l'appelant, les facteurs d'appel, le temps passé hors conversation, les interruptions, la vitesse de conversation et les caractéristiques de la conversation.

**Note**  
Par défaut, l'analyse post-appel diffuse les enregistrements d'appels vers votre compartiment Amazon S3. Pour éviter de créer des doublons d'enregistrements, n'activez pas l'enregistrement des appels et l'analyse post-appel en même temps.

Enfin, Transcribe Call Analytics peut étiqueter automatiquement les conversations en fonction de phrases spécifiques et aider à supprimer les informations sensibles du son et du texte. Pour plus d'informations sur les processeurs multimédia d'analyse des appels, les informations générées par ces processeurs et les destinations de sortie[Processeur d'analyse des appels et destinations de sortie pour le SDK Amazon Chime](call-analytics-processor-and-output-destinations.md), voir plus loin dans cette section.

**Pour configurer les services d'analyse**

1. Sur la page **Configurer les services d'analyse**, cochez les cases à côté des **services **d'analyse vocale** ou de transcription**. Vous pouvez sélectionner les deux éléments.

   Cochez la case **Analyse vocale** pour activer n'importe quelle combinaison de **recherche de locuteurs** et d'**analyse de tonalité vocale**. 

   Cochez la case **Services de transcription** pour activer Amazon Transcribe ou Transcribe Call Analytics.

   1. **Pour activer la recherche de haut-parleurs**
      + **Cochez la case **Oui, j'accepte la confirmation de consentement pour les analyses vocales du SDK Amazon Chime**, puis choisissez Accepter.**

   1. Pour activer l'analyse de la tonalité vocale
      + Cochez la case **Analyse de la tonalité vocale**.

   1. Pour activer Amazon Transcribe

      1. Cliquez sur le **bouton Amazon Transcribe.**

      1. Sous **Paramètres de langue**, effectuez l'une des opérations suivantes :

         1. Si vos appelants parlent une seule langue, choisissez **Langue spécifique**, puis ouvrez la liste des **langues** et sélectionnez la langue.

         1. Si vos appelants parlent plusieurs langues, vous pouvez les identifier automatiquement. Choisissez **Détection automatique de la langue**. 

         1. Ouvrez la liste **des options linguistiques pour l'identification automatique** des langues et sélectionnez au moins deux langues.

         1. (Facultatif) Ouvrez la liste des **langues préférées** et spécifiez une langue préférée. Lorsque les langues que vous avez sélectionnées à l'étape précédente ont des scores de confiance correspondants, le service transcrit la langue préférée.

         1. (Facultatif) Développez **les paramètres de suppression de contenu**, sélectionnez une ou plusieurs options, puis choisissez une ou plusieurs des options supplémentaires qui apparaissent. Le texte d'aide explique chaque option.

         1. (Facultatif) Développez **les paramètres supplémentaires**, sélectionnez une ou plusieurs options, puis choisissez une ou plusieurs des options supplémentaires qui apparaissent. Le texte d'aide explique chaque option.

   1. Pour activer Amazon Transcribe Call Analytics

      1. Cliquez **sur le bouton Amazon Transcribe Call Analytics**.

      1. Ouvrez la liste des **langues** et sélectionnez une langue.

      1. (Facultatif) Développez **les paramètres de suppression de contenu**, sélectionnez une ou plusieurs options, puis choisissez une ou plusieurs des options supplémentaires qui apparaissent. Le texte d'aide explique chaque option.

      1. (Facultatif) Développez **les paramètres supplémentaires**, sélectionnez une ou plusieurs options, puis choisissez une ou plusieurs des options supplémentaires qui apparaissent. Le texte d'aide explique chaque option.

      1. (Facultatif) Développez **les paramètres d'analyse post-appel** et procédez comme suit :

         1. Cochez la case **Analyse post-appel**.

         1. Entrez l'URI de votre compartiment Amazon S3.

         1. Sélectionnez un type de rédaction de contenu.

1. Lorsque vous avez terminé de faire vos sélections, choisissez **Next**. 

## Configurer les détails de sortie
<a name="configure-output"></a>

Une fois les étapes de traitement multimédia terminées, vous sélectionnez une destination pour la sortie d'analyse. L'analyse des appels fournit des informations en temps réel via Amazon Kinesis Data Streams, et éventuellement via un entrepôt de données dans un compartiment Amazon S3 de votre choix. Pour créer l'entrepôt de données, vous utilisez un CloudFormation modèle. Le modèle vous aide à créer l'infrastructure qui fournit les métadonnées et les informations relatives aux appels à votre compartiment Amazon S3. Pour plus d'informations sur la création d'un entrepôt de données[Création d'un lac de données du SDK Amazon Chime](ca-data-lake.md), reportez-vous à la section suivante. Pour plus d'informations sur le schéma de l'entrepôt de données[Modèle de données d'analyse des appels pour le SDK Amazon Chime](ca-data-model.md), reportez-vous également à la section suivante.

Si vous avez activé l'analyse vocale dans la section précédente, vous pouvez également ajouter des destinations de notification d'analyse vocale telles que AWS Lambda, Amazon Simple Queue Service ou Amazon Simple Notification Service. Les étapes suivantes expliquent comment procéder.

**Pour configurer les détails de sortie**

1. Ouvrez la liste des flux de **données Kinesis et sélectionnez votre flux** de données.
**Note**  
Si vous souhaitez visualiser vos données, vous devez sélectionner le flux de données Kinesis utilisé par le bucket Amazon S3 et Amazon Kinesis Data Firehose.

1. (Facultatif) Développez **des destinations de notification d'analyse vocale supplémentaires** et sélectionnez n'importe quelle combinaison de destinations AWS Lambda, Amazon SNS et Amazon SQS.

1. (Facultatif) Sous **Analyser et visualiser les informations**, cochez la case **Effectuer une analyse historique avec un lac de données**. Pour plus d'informations sur les lacs de données[Création d'un lac de données du SDK Amazon Chime](ca-data-lake.md), reportez-vous à la section suivante.

1. Lorsque vous avez terminé, choisissez **Suivant**.

## Configurer des autorisations
<a name="configure-perms"></a>

Pour permettre l'analyse des appels, le service d'apprentissage automatique et les autres ressources doivent être autorisés à accéder aux supports de données et à fournir des informations. Vous pouvez utiliser un rôle de service existant ou utiliser la console pour créer un nouveau rôle. Pour plus d'informations sur les rôles, reportez-vous à[Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime](call-analytics-resource-access-role.md), plus loin dans cette section.

**Pour configurer les autorisations d'accès**

1. Sur la page **Configurer les autorisations d'accès**, effectuez l'une des opérations suivantes :

   1. Sélectionnez **Créer et utiliser un nouveau rôle de service**.

   1. Dans le champ **Suffixe du nom du rôle de service**, entrez un suffixe descriptif pour le rôle.

   —ou—

   1. Sélectionnez **Utiliser un rôle de service existant**.

   1. Ouvrez la liste des **rôles de service** et sélectionnez un rôle.

1. Choisissez **Suivant**.

## (Facultatif) Configurer des alertes en temps réel
<a name="configure-alerts"></a>

**Important**  
Pour utiliser les alertes en temps réel, vous devez d'abord activer Amazon Transcribe ou Amazon Transcribe Analytics.

Vous pouvez créer un ensemble de règles qui envoient des alertes en temps réel à Amazon EventBridge. Lorsqu'un aperçu généré par Amazon Transcribe ou Amazon Transcribe Call Analytics correspond à la règle que vous avez spécifiée au cours d'une session d'analyse, une alerte est envoyée. Les alertes sont de type détaillé`Media Insights Rules Matched`. EventBridge prend en charge l'intégration avec des services en aval tels qu'Amazon Lambda, Amazon SQS et Amazon SNS afin de déclencher des notifications pour l'utilisateur final ou de lancer une autre logique métier personnalisée. Pour plus d'informations, reportez-vous à[Utilisation EventBridge des notifications Amazon pour le SDK Amazon Chime](using-eventbridge-notifications.md), plus loin dans cette section.

**Pour configurer les alertes**

1. Sous **Alertes en temps réel**, choisissez **Alertes actives en temps réel**.

1. Sous **Règles**, sélectionnez **Créer une règle**.

1. Dans le champ **Nom de la règle**, entrez le nom de la règle.

1. Ouvrez la liste des **types de règles** et sélectionnez le type de règle que vous souhaitez utiliser.

1. Utilisez les commandes qui apparaissent pour ajouter des mots clés à la règle et appliquer une logique, telle que **mentionné** ou **non mentionné**.

1. Choisissez **Suivant**.

## Vérification et création
<a name="review-create"></a>

**Pour créer la configuration**

1. Passez en revue les paramètres de chaque section. Au besoin, choisissez **Modifier** pour modifier un paramètre.

1. Choisissez **Créer une configuration**.

Votre configuration apparaît sur la page **Configurations** de la console Amazon Chime SDK.

# Utilisation APIs pour créer des configurations d'analyse des appels pour le SDK Amazon Chime
<a name="create-config-apis"></a>

Vous pouvez créer par programmation des connecteurs vocaux et des configurations d'analyse des appels, puis les associer afin de démarrer un flux de travail d'analyse des appels. Ce guide part du principe que vous savez comment écrire le code.

Les APIs méthodes que vous utilisez varient en fonction du type de flux de travail. Par exemple, pour enregistrer du son, vous devez d'abord appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration d'analyse des appels. Vous appelez ensuite le [CreateVoiceConnector](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html)pour créer un connecteur vocal. Enfin, vous associez la configuration à un connecteur vocal à l'aide de l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html)API.

En revanche, pour enregistrer du son avec un producteur de flux vidéo Kinesis, vous devez appeler [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)puis appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API.

Pour plus d'informations sur l'utilisation des configurations d'analyse des appels pour activer différents flux de travail, reportez-vous aux flux de travail [Utilisation des configurations d'analyse des appels pour le SDK Amazon Chime](using-call-analytics-configurations.md) présentés plus loin dans cette section.

# Associer une configuration à un connecteur vocal pour le SDK Amazon Chime
<a name="ca-associate-vc-steps"></a>

Après avoir utilisé la console pour créer une configuration d'analyse des appels, vous utilisez la configuration en y associant un connecteur vocal. Le connecteur vocal appelle ensuite automatiquement les services d'analyse spécifiés dans votre configuration. Le connecteur vocal invoque l'analyse des appels pour chaque appel.

**Pour associer un connecteur vocal**

1. [Ouvrez la console Amazon Chime à https://console.aws.amazon.com/chime-sdk/ la maison.](https://console.aws.amazon.com/chime-sdk/home)

1. Dans le volet de navigation, sous **SIP Trunking**, choisissez **Voice Connectors**.

1. Choisissez le nom du connecteur vocal que vous souhaitez associer à une configuration, puis choisissez l'onglet **Streaming**.

1. Si ce n'est pas déjà fait, choisissez **Start** pour commencer à diffuser sur Kinesis Video Streams.

1. Sous **Analyse des appels**, sélectionnez **Activer**, puis dans le menu qui apparaît, choisissez l'ARN de votre configuration d'analyse des appels.

1. Choisissez **Enregistrer**.

**Note**  
Après avoir activé, désactivé ou modifié une configuration associée à un connecteur vocal, attendez 5 minutes pour que les nouveaux paramètres se propagent dans le service et prennent effet.

Pour plus d'informations sur les configurations d'analyse des appels, reportez-vous à [la section Gestion de l'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/ag-call-analytics.html) dans le guide de l'administrateur du *SDK Amazon Chime*.

Pour plus d'informations sur l'utilisation des configurations d'analyse des appels pour activer différents flux de travail[Utilisation des configurations d'analyse des appels pour le SDK Amazon Chime](using-call-analytics-configurations.md), reportez-vous à la section suivante.

# Utilisation des configurations d'analyse des appels pour le SDK Amazon Chime
<a name="using-call-analytics-configurations"></a>

Pour traiter le son à l'aide d'une configuration d'analyse des appels, vous devez créer un pipeline d'analyse des appels, également appelé pipeline d'informations sur les médias. Le pipeline est créé lors d'un appel pour gérer l'audio et se termine à la fin de l'appel. Les pipelines d'analyse des appels nécessitent l'ARN d'une configuration d'analyse des appels et des informations sur la source audio. La configuration de l'analyse des appels inclut des détails sur les processeurs audio, les destinations d'aperçu et les configurations des événements d'alerte, *mais pas sur la source audio*. Cela vous permet de réutiliser la configuration dans différents flux de travail d'analyse des appels, tels qu'avec différents connecteurs vocaux ou sources KVS. Le pipeline d'analyse des appels invoque les services d'apprentissage automatique spécifiés dans la configuration et enregistre le son. Vous pouvez arrêter le pipeline manuellement ou automatiquement à la fin de l'appel.

Vous pouvez utiliser les pipelines d'analyse des appels dans de nombreux cas d'utilisation. Les flux de travail suivants montrent les différentes manières d'utiliser une configuration et un pipeline d'analyse des appels.

**Topics**
+ [Comprendre les flux de travail pour l'enregistrement des appels pour le SDK Amazon Chime](recording-workflows.md)
+ [Comprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime](ml-based-analytics.md)

# Comprendre les flux de travail pour l'enregistrement des appels pour le SDK Amazon Chime
<a name="recording-workflows"></a>

Les rubriques de cette section répertorient et décrivent les flux de travail pour l'enregistrement des appels et des Kinesis Video Streams.

# Enregistrement des appels via le connecteur vocal
<a name="record-vc-calls"></a>

Utilisez ce flux de travail lorsque :
+ Vous utilisez déjà, ou prévoyez d'utiliser, un connecteur vocal pour intégrer le contenu multimédia SIP dans l'analyse des appels.
**Note**  
Les connecteurs vocaux prennent en charge les protocoles SIP et SIPREC. Pour plus d'informations, reportez-vous à [la section Gestion des connecteurs vocaux du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html), dans le guide de l'administrateur du SDK *Amazon Chime*.
+ Vous souhaitez enregistrer automatiquement les appels SIP ou SIPREC avec une faible latence vers les destinations Amazon Simple Storage Service de votre choix.
+ Vous souhaitez utiliser la console Amazon Chime SDK pour créer la configuration et l'associer à un connecteur vocal.
+ Vous souhaitez appliquer la même configuration d'enregistrement à chaque appel du Voice Connector. Si vous souhaitez appliquer plusieurs configurations à un ou plusieurs connecteurs vocaux, reportez-vous à la section suivante.

Pour activer les appels par programmation, utilisez le SDK Amazon Chime suivant. APIs
+ Utiliser l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration d'analyse des appels
+ Utilisez le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html)pour créer un connecteur vocal.
+ Utilisez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API pour associer la configuration à un connecteur vocal. 

Pour plus d'informations, consultez [la section Configuration des connecteurs vocaux pour utiliser l'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) dans le guide de l'administrateur du *SDK Amazon Chime*. 

 Le schéma suivant montre le flux de données lorsqu'un connecteur vocal lance une session d'enregistrement d'appels. Les chiffres du schéma correspondent au texte numéroté ci-dessous. 

![\[Image montrant le flux de données lorsqu'un connecteur vocal commence à enregistrer un appel.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)


 Dans le schéma : 

1. Utilisez la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration d'analyse des appels. Au cours du processus de création de la configuration, il vous suffit d'activer l'enregistrement des appels, de choisir le format de fichier d'enregistrement souhaité et de spécifier la destination Amazon S3 pour le stockage des fichiers d'enregistrement. Pour plus d'informations, reportez-vous à la section [Création de configurations d'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-ca-config.html) dans le guide de l'administrateur du *SDK Amazon Chime*.

1. Vous utilisez la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API pour associer la configuration à un connecteur vocal. Pour utiliser la console, reportez-vous à la section [Configuration des connecteurs vocaux pour utiliser l'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html).

1. Pendant un appel sortant, le connecteur vocal reçoit le son de chaque participant à l'appel.

1. Si une configuration d'enregistrement d'analyse des appels est attachée au connecteur vocal, le service Voice Connector utilise le service de pipeline multimédia pour lancer une session d'enregistrement d'analyse des appels.

1. Le service Media Pipeline lance le processeur d'enregistrement des appels qui surveille l'appel en cours.

1. À la fin de l'appel, le service Media Pipeline envoie le fichier d'enregistrement des appels au compartiment Amazon S3 désigné et fournit les métadonnées d'enregistrement via le flux de données Amazon Kinesis. Si un entrepôt de données est activé, les métadonnées des appels sont également transmises à l'entrepôt de données Amazon Simple Storage Service. Dans les cas où le SIPREC est utilisé pour intégrer l'audio SIP dans l'analyse des appels, les métadonnées des appels incluent les métadonnées SIPREC sous forme de tableau. Pour plus d'informations sur les tables d'enregistrement[Comprendre les tables du catalogue de AWS Glue données pour le SDK Amazon Chime](glue-tables.md), reportez-vous à la section suivante.

1. Le service Media Pipeline envoie les événements relatifs à l'état du pipeline à Amazon par défaut EventBridge. Pour plus d'informations, voir [Utilisation EventBridge des notifications](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) dans ce guide. 

**Note**  
 Veuillez noter que vous devez activer le streaming par connecteur vocal pour permettre l'enregistrement avec un connecteur vocal. Cette fonctionnalité permet de diffuser les données d'appel vers Kinesis Video Streams géré par le Voice Connector sur votre compte. Pour plus d'informations, reportez-vous à la section [Diffusion du contenu multimédia du SDK Amazon Chime Voice Connector vers Kinesis Video Streams dans le guide de l'administrateur](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) du SDK Amazon *Chime*.

 Vous pouvez également stocker les données d'appel créées par Voice Connector dans Kinesis Video Streams pendant des durées variables, allant de quelques heures à plusieurs jours, voire plusieurs années. Le fait de ne pas conserver de données limite l'utilisabilité des données d'appel pour une consommation immédiate. Le coût de Kinesis Video Streams est déterminé en fonction de la bande passante et du stockage total utilisés. Vous pouvez ajuster la période de conservation des données à tout moment dans la configuration de streaming du Voice Connector. Pour activer l'enregistrement des analyses d'appels, vous devez vous assurer que le flux vidéo Kinesis conserve les données suffisamment longtemps pour effectuer l'analyse des appels. Pour ce faire, spécifiez une période de conservation des données appropriée. 

 Vous pouvez associer une configuration de pipeline Call Insights à autant de connecteurs vocaux que vous le souhaitez. Vous pouvez également créer une configuration différente pour chaque connecteur vocal. Les connecteurs vocaux utilisent le AWSService RoleForAmazonChimeVoiceConnector pour appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API en votre nom une fois par numéro de transaction. *Pour plus d'informations sur ce rôle, consultez la section [Utilisation du rôle lié au service Amazon Chime SDK pour les connecteurs vocaux du SDK Amazon Chime dans le guide de l'administrateur du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream).*

# Enregistrement avec les producteurs de flux vidéo Amazon Kinesis
<a name="record-kvs-streams"></a>

Vous enregistrez des flux vidéo Amazon Kinesis lorsque : 
+ Vous devez appliquer des configurations différentes à un appel au lieu d'utiliser la même configuration pour chaque appel du Voice Connector.
+ Vous souhaitez enregistrer du son SIP ou non SIP qui n'est pas traité par un connecteur vocal.

 Pour utiliser cette option d'enregistrement des appels, vous devez publier du contenu audio sur Kinesis Video Streams (KVS), puis appeler l'API avec les informations du canal [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)du flux KVS et un ARN de configuration d'analyse des appels (ARN).

**Note**  
L'analyse des appels APIs prend en charge un maximum de deux canaux audio. Vous pouvez également activer le streaming du Voice Connector, puis utiliser les informations KVS publiées dans les EventBridge notifications du Voice Connector pour lancer un enregistrement d'appel. 

 Lorsque vous appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API, vous pouvez choisir de spécifier ou non des numéros de fragments pour chaque définition de canal de flux KVS. Si vous fournissez un numéro de fragment, l'analyse des appels commencera à traiter le flux à partir de ce fragment. Si vous ne spécifiez pas d'ID de fragment, Call Analytics commence à traiter le flux à partir du dernier fragment disponible. 

 Le schéma suivant montre le flux de données lorsqu'un connecteur vocal lance une session d'enregistrement d'appels. Les chiffres du schéma correspondent au texte numéroté ci-dessous. 

![\[Image montrant le flux de données lorsqu'un connecteur vocal commence à enregistrer un appel.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/call-analytics-workflow-2.png)


Dans le schéma :

1. Vous pouvez utiliser la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration d'enregistrement des appels.

1. Utilisez le AWS SDK pour créer une application qui transfère le son externe vers le KVS, ou activez le streaming Voice Connector pour publier automatiquement le son des appels sur un KVS. Pour plus d'informations, consultez la section [Diffusion du contenu multimédia Amazon Chime SDK Voice Connector vers Kinesis Video Streams dans le guide de l'administrateur](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) du SDK Amazon *Chime*.

1. Si le streaming Voice Connector est activé, le service Voice Connector envoie les notifications par défaut EventBridge.

1. Dans le cas du streaming du Voice Connector, votre application peut utiliser les `STARTED` événements de diffusion en continu d'Amazon Chime Voice Connector EventBridge pour recueillir des informations sur le flux KVS concernant les étapes d'un appel.

1. Une fois que votre application dispose des informations audio provenant des événements de streaming du Voice Connector ou d'une source externe, elle invoque l'API du SDK Amazon Chime [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html).

1. Le service Media Pipeline lance le processeur d'enregistrement des appels qui surveille l'appel en cours.

1. Le service Media Pipeline envoie les événements relatifs à l'état du pipeline à Amazon par défaut EventBridge. Pour plus d'informations, reportez-vous à la section [Utilisation EventBridge des notifications](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).

1. Une fois l'appel terminé, le service Media Pipeline transmet le fichier d'enregistrement des appels au compartiment Amazon S3 désigné et fournit les métadonnées d'enregistrement via Amazon Kinesis Data Stream. Si un entrepôt de données est activé, les métadonnées des appels seront également envoyées à l'entrepôt de données Amazon S3. Dans les cas où le SIPREC est utilisé pour intégrer l'audio SIP dans l'analyse des appels, les métadonnées des appels incluront les métadonnées SIPREC dans un format de tableau pratique. Pour plus d'informations sur les tables d'enregistrement[Comprendre les tables du catalogue de AWS Glue données pour le SDK Amazon Chime](glue-tables.md), reportez-vous à la section suivante.

1. Votre application peut surveiller le pipeline et, dans le cas d'un connecteur vocal, le statut des appels à l'aide d'événements publiés sur Amazon EventBridge. Pour plus d'informations, voir [Utilisation EventBridge des notifications](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) dans ce guide.

1. Pour terminer l'enregistrement, appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)API pour mettre fin à l'enregistrement des appels. 

Pour un enregistrement basé sur une API et des exemples, consultez le [récepteur d'enregistrement Amazon S3](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-s3-recording-sink) dans ce guide.

# Utiliser la CLI pour démarrer l'enregistrement
<a name="using-the-cli-to-start-recording"></a>

Les exemples de cette section expliquent comment effectuer les opérations suivantes :
+ Utilisez la CLI pour exécuter une configuration d'analyse des appels et invoquer le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html).
+ Utilisez la CLI pour spécifier les destinations d'enregistrement, les formats de fichiers audio et les noms de fichiers audio.

**Topics**
+ [Exécution d'une configuration et démarrage d'un pipeline](#cli-run-config)
+ [Définition des destinations, des noms et des formats](#cli-set-buckets-formats)

## Exécution d'une configuration et démarrage d'un pipeline
<a name="cli-run-config"></a>

Utilisez la commande suivante pour exécuter une configuration et démarrer un pipeline Media Insights. Le fichier pipeline.json contient les paramètres de configuration.

```
aws chime-sdk-media-pipeline create-media-insights-pipeline --cli-input-json file://pipeline.json
```

L'exemple suivant montre un `pipeline.json` fichier typique.

```
{
    "MediaInsightsPipelineConfigurationArn": arn:aws:chime:region;account_id:media-insights-pipeline-configuration/MyConfiguration,
    "KinesisVideoStreamRecordingSourceRuntimeConfiguration": {
        "Streams": [
            {
                "StreamArn": kinesis_video_stream_arn_1
            },
            {
                "StreamArn": kinesis_video_stream_arn_2
            }
        ],
        "FragmentSelector": {
            "FragmentSelectorType": "selector_type", // Specify "server_timestamp" or "producer_timestamp" as the fragment selector type
            "TimestampRange": {
                "StartTimestamp": epoch_time_seconds,
                "EndTimestamp": epoch_time_seconds
            }
        }
    },
    "S3RecordingSinkRuntimeConfiguration": {
        "Destination": arn:aws:s3:::bucket_name/prefix/optional_file_name,
        "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format, if you want to override the configuration
    }
}
```

`MediaInsightsPipelineConfigurationArn`Il s'agit de l'ARN de configuration que vous recevez après avoir créé une configuration d'analyse des appels.

## Définition des destinations, des noms et des formats
<a name="cli-set-buckets-formats"></a>

 L'exemple suivant utilise un dossier nommé `MyRecordingBucket` comme `S3SinkConfiguration.Destination` valeur et `Opus` comme `RecordingFileFormat` valeur.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.ogg
```

L'exemple suivant utilise `MyRecordingBucket` comme `S3SinkConfiguration.Destination` valeur et `Wav` comme `RecordingFileFormat` valeur.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.wav
```

# Comprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime
<a name="ml-based-analytics"></a>

Les sections suivantes décrivent comment utiliser les fonctionnalités d'analyse d'apprentissage automatique fournies par l'analyse des appels du SDK Amazon Chime.

**Note**  
Si vous envisagez d'exécuter plusieurs analyses d'apprentissage automatique sur le même flux vidéo Kinesis, vous devrez peut-être augmenter la limite de niveau de connexion `GetMedia` pour `GetMediaForFragmentList` et pour le flux vidéo. Pour plus d'informations, reportez-vous aux limites de [Kinesis Video Streams](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/limits.html) dans *le Guide du développeur de Kinesis Video* Streams.

# Utilisation de connecteurs vocaux pour lancer automatiquement l'analyse des appels
<a name="automatic-vc-analytics"></a>

Utilisez ce flux de travail lorsque :
+ Vous souhaitez une configuration pilotée par console.
+ Vous utilisez déjà ou prévoyez d'utiliser un connecteur vocal pour intégrer le contenu multimédia SIP dans l'analyse des appels. Les connecteurs vocaux prennent en charge les protocoles SIP et SIPREC. Pour plus d'informations sur la configuration des connecteurs vocaux, consultez la section [Gestion du connecteur vocal du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html).
+ Vous souhaitez appliquer la même configuration Media Insights à chaque appel du Voice Connector.
+ Vous devez utiliser l'analyse vocale du SDK Amazon Chime, qui nécessite un connecteur vocal ou un pipeline d'informations multimédias.

Pour activer ce flux de travail dans la console Amazon Chime SDK, suivez les étapes de création d'une configuration d'enregistrement dans [Configuration des connecteurs vocaux pour utiliser](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) l'analyse des appels.

Pour activer ce flux de travail par programmation, utilisez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API suivante APIs : pour créer une configuration d'analyse des appels, puis associez la configuration à un connecteur vocal à l'aide de l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API. Pour plus d'informations, consultez [la section Configuration des connecteurs vocaux pour utiliser l'analyse vocale](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) dans le guide de l'administrateur du *SDK Amazon Chime*. 

 Le schéma suivant montre le flux de données lorsqu'un connecteur vocal lance une session d'analyse des appels. Les chiffres du schéma correspondent au texte numéroté ci-dessous. 

 ![\[Image showing the flow of data when a Voice Connector initiates a call.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)

 Dans le schéma : 

1. Vous utilisez la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration de pipeline Media Insights.

1. Vous utilisez la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API pour associer la configuration à un connecteur vocal. Pour associer une configuration existante à un connecteur vocal, reportez-vous à la section [Configuration des connecteurs vocaux pour utiliser l'analyse des appels](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html), dans le guide de l'administrateur du *SDK Amazon Chime*.

1. Pendant un appel sortant, le connecteur vocal reçoit le son de chaque participant à l'appel.

1. En raison de l'intégration intégrée à l'analyse des appels, si une configuration d'analyse des appels est associée à un connecteur vocal, le service Voice Connector lance une session d'analyse des appels à l'aide du service Media Pipeline.

1. Le service de pipeline multimédia invoque un ou plusieurs processeurs multimédias, comme indiqué dans la configuration.

1. Le service de pipeline multimédia envoie les données de sortie vers une ou plusieurs destinations en fonction de la configuration. Par exemple, vous pouvez envoyer des analyses en temps réel via un flux de données Amazon Kinesis et, si cela est configuré, vous pouvez envoyer les métadonnées et les analyses des appels à un entrepôt de données Amazon S3.

1. Le service Media Pipeline envoie les événements relatifs à l'état du pipeline à Amazon par défaut EventBridge. Si vous avez configuré des règles, les notifications correspondantes seront également envoyées EventBridge à Amazon. Pour plus d'informations, voir [Utilisation EventBridge des notifications](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).

**Note**  
Un processeur d'analyse vocale ne démarre automatiquement que lorsque vous appelez le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html) APIs. 
Vous devez activer le streaming Voice Connector pour utiliser l'analyse des appels avec Voice Connector. Cette fonctionnalité permet de diffuser les données d'appel vers des Kinesis Video Streams gérés par Voice Connector sur votre compte. Pour plus d'informations, reportez-vous à la section [Diffusion du contenu multimédia du SDK Amazon Chime Voice Connector vers Kinesis Video Streams dans le guide de l'administrateur](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) du SDK Amazon *Chime*. 

 Vous pouvez stocker les données d'appel du Voice Connector dans Kinesis Video Streams pendant des durées variables, allant de quelques heures à plusieurs années. Le fait de ne pas conserver de données limite l'utilisabilité des données d'appel pour une consommation immédiate. Le coût de Kinesis Video Streams est déterminé en fonction de la bande passante et du stockage total utilisés. Il est possible d'ajuster la durée de conservation des données à tout moment en modifiant la configuration de diffusion de votre Voice Connector. Pour activer l'enregistrement des analyses d'appels, vous devez vous assurer que le flux vidéo Kinesis conserve les données jusqu'à la fin de l'analyse des appels. Pour ce faire, spécifiez une période de conservation des données appropriée. 

 Vous pouvez associer une configuration de pipeline Media Insights à autant de connecteurs vocaux que vous le souhaitez. Vous pouvez également créer une configuration différente pour chaque connecteur vocal. Les connecteurs vocaux utilisent le AWSService RoleForAmazonChimeVoiceConnector pour appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API en votre nom une fois par numéro de transaction. *Pour plus d'informations sur ce rôle, consultez la section [Utilisation du rôle lié au service Amazon Chime SDK pour les connecteurs vocaux du SDK Amazon Chime dans le guide de l'administrateur du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream).* 

# Utilisation de l'analyse des appels APIs avec les connecteurs vocaux
<a name="ca-apis-with-vc"></a>

Utilisez ce flux de travail si vous utilisez un connecteur vocal mais que vous devez contrôler à quel moment appliquer une configuration d'analyse des appels et à quel appel appliquer la configuration.

 Pour utiliser cette méthode, vous devez créer une EventBridge cible pour les événements publiés par le connecteur vocal, puis utiliser ces événements pour déclencher le pipeline d'analyse des appels APIs. Pour plus d'informations, consultez [Automatiser le SDK Amazon Chime dans le Guide de l' EventBridgeadministrateur du SDK](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) Amazon *Chime*. 

 Le schéma suivant montre comment implémenter un contrôle plus granulaire lors de l'utilisation de l'analyse des appels avec Voice Connector. Les chiffres du diagramme correspondent aux chiffres du texte ci-dessous. 

![\[Image illustrant le flux de données lors de l'utilisation d'appels d'API avec des connecteurs vocaux.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/analytics-vc-with-apis.png)


 Dans le schéma : 

1. Vous utilisez la console Amazon Chime SDK ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration de pipeline Media Insights.

1. Pendant un appel sortant, le connecteur vocal reçoit le son du participant.

1. Le connecteur vocal envoie le son des appels à Kinesis Video Stream et les événements correspondants au. EventBridge Ces événements ont des métadonnées de flux et d'appel.

1. Votre application est souscrite EventBridge via un EventBridge Target.

1. Votre application invoque l'API du SDK Amazon Chime. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)

1. Le service de pipeline multimédia invoque un ou plusieurs processeurs multimédias en fonction des éléments du processeur dans la configuration du pipeline d'informations multimédias.

1. Le service de pipeline multimédia envoie les données de sortie vers une ou plusieurs destinations en fonction de la configuration. L'analyse des appels du SDK Amazon Chime fournira des analyses en temps réel via Amazon Kinesis Data Stream et, si elle est configurée, des analyses des métadonnées des appels vers un entrepôt de données Amazon S3.

1. Le service Media Pipeline envoie les événements à Amazon EventBridge. Si vous avez configuré des règles, les notifications correspondantes seront également envoyées EventBridge à Amazon.

1. Vous pouvez suspendre ou reprendre la session d'analyse des appels en appelant l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API.
**Note**  
L'enregistrement des appels ne permet pas de suspendre et de reprendre les appels. De plus, les tâches d'analyse vocale lancées pour l'appel s'arrêtent également lorsque vous interrompez une session. Pour les redémarrer, vous devez appeler le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

1. Si vous sélectionnez l'analyse des tonalités vocales lors de la configuration, vous pouvez démarrer l'analyse vocale en appelant le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Utilisation de l'analyse des appels avec les producteurs de Kinesis Video Streams
<a name="ca-apis-kvs"></a>

 Pour utiliser cette option, vous devez publier des données audio sur Kinesis Video Streams (KVS), puis appeler l'API avec les informations [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)du canal de diffusion KVS.

**Note**  
L'analyse des appels APIs prend en charge un maximum de deux canaux audio.

Lorsque vous appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API, vous pouvez spécifier des numéros de fragment pour chaque définition de canal de flux KVS. Si vous fournissez un numéro de fragment, Call Analytics commence à traiter le flux au niveau de ce fragment. Sinon, Call Analytics commence à traiter le flux à partir du dernier fragment disponible.

L'analyse des appels prend en charge le son PCM (uniquement les formats audio Little-Endian 16 bits signés, qui n'incluent pas le WAV) avec une fréquence d'échantillonnage audio comprise entre 8 kHz et 48 kHz. Le son de faible qualité, tel que le son de téléphonie, se situe généralement autour de 8 000 Hz. Le son de haute qualité est généralement compris entre 16 000 Hz et 48 000 Hz. La fréquence d'échantillonnage que vous spécifiez doit correspondre à celle de votre audio. Pour plus d'informations, consultez [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html)le manuel *Amazon Chime SDK API Reference.*

Le SDK Kinesis Video Streams Producer fournit un ensemble de bibliothèques que vous pouvez utiliser pour diffuser des données audio vers un Kinesis Video Stream. Pour plus d'informations, consultez les bibliothèques [Kinesis Video Streams Producer](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk.html) dans *le guide du développeur Amazon Kinesis Video* Streams.

Le schéma suivant montre le flux de données lors de l'utilisation de l'analyse des appels avec un producteur Kinesis Video Stream personnalisé. Les chiffres du schéma correspondent au texte numéroté ci-dessous.

![\[Image illustrant le flux de données lors de l'utilisation de l'analyse des appels avec un producteur Kinesis Video Stream.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/analytics-kvs-with-apis.png)


1. Vous utilisez la AWS console ou l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API pour créer une configuration de pipeline Media Insights.

1. Vous utilisez un Kinesis Video Stream Producer pour écrire du son dans Kinesis Video Streams.

1. Votre application invoque l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API.

1. Le service Media Pipeline lit le son des Kinesis Video Streams du client.

1. Le service Media Pipeline envoie les événements à Amazon EventBridge. Si vous avez configuré des règles, les notifications correspondantes seront également envoyées EventBridge à Amazon.

1. Le service de pipeline multimédia invoque un ou plusieurs éléments du processeur.

1. Le service Media Pipeline envoie des données de sortie à un ou plusieurs éléments récepteurs.

1. Vous pouvez suspendre ou reprendre la session d'analyse des appels en appelant l'[ UpdateMediaInsightsPipelineStatus](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API.
**Note**  
L'enregistrement des appels ne prend pas en charge la pause et la reprise.

1. Votre application peut traiter les EventBridge événements Amazon pour déclencher des flux de travail commerciaux personnalisés.

1. Si vous sélectionnez l'analyse vocale lorsque vous créez une configuration, votre application peut démarrer l'analyse vocale en appelant le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Gestion des pipelines d'analyse des appels pour le SDK Amazon Chime
<a name="managing-call-analytics-pipelines"></a>

 Vous pouvez lire, répertorier et supprimer des pipelines d'informations sur les médias en appelant le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html), et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html) APIs. 

 Les pipelines d'informations sur les médias s'arrêtent si l'une des conditions suivantes est remplie : 
+ Aucun des flux Kinesis Video n'envoie de nouveaux fragments vers un `InProgress` pipeline pendant 15 secondes.
+ L'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)API est appelée.
+ Le pipeline d'informations sur les médias a été créé il y a plus de 8 heures. Le système arrête automatiquement le pipeline.
+ Le pipeline d'informations sur les médias est suspendu pendant plus de 2 heures. Le système arrête automatiquement le pipeline.

# Suspension et reprise des pipelines d'analyse des appels pour le SDK Amazon Chime
<a name="pausing-and-resuming-call-analytics-pipelines"></a>

Pour suspendre et reprendre un pipeline d'informations sur les médias, appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API avec une `Resume` action `Pause` ou. Pour ce faire, vous devez transmettre l'ID ou l'ARN du pipeline dans le `Identifier` champ.

**Avertissement**  
Avertissement : L'`UpdateMediaInsightsPipelineStatus`API *arrête* toutes les tâches d'analyse vocale lancées sur un pipeline d'informations multimédias lorsqu'un `Pause` statut est fourni. Lorsque le `Resume` statut est fourni, les tâches ne reprennent pas et doivent être redémarrées. Vous devez fournir toutes les notifications nécessaires et obtenir tous les consentements nécessaires de la part des intervenants avant de recommencer les tâches. Pour plus d'informations, reportez-vous à [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html)dans le manuel *Amazon Chime SDK* API Reference.

Lorsqu'il est suspendu, le pipeline arrête d'envoyer du contenu multimédia aux processeurs et d'écrire des données vers Kinesis Data Streams et les entrepôts de données. Lorsque vous `Resume` lancez le pipeline, le service envoie le dernier morceau disponible sur le stream. Les pipelines d'informations sur les médias s'arrêtent automatiquement lorsqu'ils sont interrompus pendant plus de 2 heures. **Veuillez noter que** l'enregistrement des appels ne prend pas en charge la pause et la reprise. 

 Pour en savoir plus, consultez les rubriques suivantes : 
+ [Utilisation EventBridge des notifications](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).
+ [https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType)dans le guide du *développeur Amazon Kinesis Video Streams*.
+ Processeur d'[analyse des appels Amazon Transcribe](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-transcribe-analytics-processor).

**Note**  
 L'utilisation de l'analyse des appels vous est facturée lorsqu'un pipeline est suspendu. Toutefois, les AWS services accessibles via le rôle d'accès aux ressources ne vous sont pas facturés, tels qu'Amazon Transcribe et Amazon Kinesis. 

 Vous pouvez lire, mettre à jour et supprimer des configurations d'analyse d'appels existantes à l'aide [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)de et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html) APIs en transmettant le nom de la configuration ou l'ARN dans le champ Identifiant. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html) 

 Vous pouvez répertorier les configurations en appelant l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html)API. 

# Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime
<a name="call-analytics-resource-access-role"></a>

Le compte appelant doit créer le rôle d'accès aux ressources utilisé par une configuration de pipeline Media Insights. Vous ne pouvez pas utiliser de rôles entre comptes. 

En fonction des fonctionnalités que vous activez lorsque vous créez une configuration d'analyse des appels, vous devez utiliser des politiques de ressources supplémentaires. Développez les sections suivantes pour en savoir plus.

## Politique minimale requise
<a name="minimum-policy"></a>

Le rôle nécessite au minimum la politique suivante :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "transcribe:StartCallAnalyticsStreamTranscription",
                "transcribe:StartStreamTranscription"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": ["kms:Decrypt"],
            "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

Vous devez également appliquer la politique de confiance suivante :

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "Service": "mediapipelines.chime.amazonaws.com"
      },
      "Action": "sts:AssumeRole",
      "Condition": {
        "StringEquals": {
            "aws:SourceAccount": "111122223333"
        },
        "ArnLike": {
            "aws:SourceARN": "arn:aws:chime:*:111122223333:*"
        }
        }
    }
  ]
}
```

------

## Stratégie KinesisDataStreamSink
<a name="kds-stream-sink-policy"></a>

Si vous utilisez le`KinesisDataStreamSink`, ajoutez la politique suivante :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "kinesis:PutRecord"
            ],
            "Resource": [
                "arn:aws:kinesis:us-east-1:111122223333:stream/output_stream_name"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## Stratégie S3RecordingSink
<a name="s3-recording-sink-policy"></a>

Si vous utilisez le`S3RecordingSink`, ajoutez la politique suivante :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:PutObject",
                "s3:PutObjectAcl",
                "s3:PutObjectTagging"
            ],
            "Resource": [
                "arn:aws:s3:::input_bucket_path/*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
                "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## Politique d'analyse après un appel
<a name="post-call-analytics-policy"></a>

Si vous utilisez la fonctionnalité Post Call Analytics du`AmazonTranscribeCallAnalyticsProcessor`, ajoutez la politique suivante :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "iam:PassRole"
            ],
            "Resource": [
                "arn:aws:iam::111122223333:role/transcribe_role_name"
            ],
            "Condition": {
                "StringEquals": {
                    "iam:PassedToService": "transcribe.streaming.amazonaws.com"
                }
            }
        }
    ]
}
```

------

## Stratégie VoiceEnhancementSinkConfiguration
<a name="enhancement-sink-config-policy"></a>

Si vous utilisez l'`VoiceEnhancementSinkConfiguration`élément, ajoutez la politique suivante :

------
#### [ JSON ]

****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObject",
            "s3:PutObject",
            "s3:PutObjectAcl",
            "s3:PutObjectTagging"
         ],
         "Resource":[
            "arn:aws:s3:::input_bucket_path/*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:GetDataEndpoint",
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
         "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kms:GenerateDataKey"
         ],
         "Resource":[
         "arn:aws:kms:us-east-1:111122223333:key/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      }
   ]
}
```

------

## Stratégie VoiceAnalyticsProcessor
<a name="voice-analytics-processor-policy"></a>

Si vous utilisez le`VoiceAnalyticsProcessor`, ajoutez les politiques pour `LambdaFunctionSink``SqsQueueSink`, et `SnsTopicSink` en fonction des cuvettes que vous avez définies.

Stratégie `LambdaFunctionSink` :    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "lambda:InvokeFunction",
        "lambda:GetPolicy"
       ],
      "Resource": [
          "arn:aws:lambda:us-east-1:111122223333:function:function_name"
       ],
      "Effect": "Allow"
    }
  ]
}
```

Stratégie `SqsQueueSink`    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sqs:SendMessage",
        "sqs:GetQueueAttributes"
       ],
      "Resource": [
      "arn:aws:sqs:us-east-1:111122223333:queue_name"
        ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

Stratégie `SnsTopicSink` :    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sns:Publish",
        "sns:GetTopicAttributes"
      ],
      "Resource": [
      "arn:aws:sns:us-east-1:111122223333:topic_name"
      ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

# Comprendre les statuts d'analyse des appels pour le SDK Amazon Chime
<a name="call-analytics-statuses"></a>

Les pipelines Media Insights suivent un ensemble de statuts lorsque vous effectuez l'une des opérations suivantes ou les deux : 
+ Utilisez plusieurs éléments de traitement d'apprentissage automatique, tels qu'Amazon Transcribe et l'analyse vocale.
+ Activez l'enregistrement des appels avec ou sans traitement d'apprentissage automatique.

Pour obtenir le statut du pipeline et des éléments, utilisez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html)API et [EventBridgeles notifications](using-eventbridge-notifications.md).

Pour obtenir les statuts des tâches d'analyse vocale, utilisez les [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html)[cibles de notification et et d'analyse vocale](va-notification-targets.md). [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html) APIs

Les pipelines Media Insights suivent les statuts suivants.
+ État du **pipeline : état** général d'un pipeline d'analyse des appels, également connu sous le nom de pipeline d'informations sur les médias. Ceci est déterminé par les statuts des éléments.
+ État de l'**élément : état** du traitement des différents éléments de configuration du pipeline Media Insights.
+ **État de la tâche** — État du traitement d'une tâche de pipeline d'informations multimédia lancée pour l'analyse vocale. L'état de l'`VoiceAnalyticsProcessor`élément est déterminé par les statuts des tâches. Aucun autre élément d'un pipeline d'analyse des appels n'a de statut de tâche.

  Pour plus d'informations sur les tâches du pipeline Media Insights, reportez-vous à [Comprendre la terminologie de l'analyse des appels pour le SDK Amazon Chime](ca-terms-concepts.md) la section précédente de ce guide.

Tous les types d'éléments de configuration de Media Insights n'ont pas de statut d'élément. En général, seuls les éléments de configuration de Media Insights de type « processeur » ont un statut d'élément. De plus, les récepteurs d'enregistrement et d'amélioration vocale Amazon S3 ont des statuts de processeur. Plus précisément, les statuts des éléments existent pour les types d'éléments de configuration Media Insights suivants :
+ `AmazonTranscribeProcessor`
+ `AmazonTranscribeCallAnalyticsProcessor`
+ `S3RecordingSink`
+ `VoiceAnalyticsProcessor`
+ `VoiceEnhancementSink`

L'état du pipeline est déterminé par les statuts des éléments comme suit :


| État du pipeline | Condition | 
| --- | --- | 
| NotStarted | Tous les statuts des éléments ne sont pas démarrés. | 
| Initialisation | Au moins un élément est en cours d'initialisation et les autres ne démarrent pas. | 
| InProgress | Au moins un élément est en cours de réalisation.  | 
| Échec | Au moins un élément est défaillant et les éléments restants sont arrêtés. | 
| Arrêt en cours | Reportez-vous à [Gestion des pipelines d'analyse des appels pour le SDK Amazon Chime](managing-call-analytics-pipelines.md) pour une liste complète des conditions d'arrêt. | 
| Arrêté(e) | Tous les éléments sont arrêtés. | 
| En pause | Tous les éléments sont suspendus. | 

Contrairement aux autres statuts d'éléments, l'`VoiceAnalyticsProcessor`élément comporte quelques nuances. Comme indiqué précédemment, le statut de l'`VoiceAnalyticsProcessor`élément, correspondant à la fonctionnalité d'analyse vocale du SDK Amazon Chime, est déterminé par les statuts des tâches créés à partir de et. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)
+ Le statut `VoiceAnalyticsProcessor` de l'élément commence par un `NotStarted` état, car `StartSpeakerSearchTask` et `StartVoiceToneAnalysisTask` doit être appelé avant que l'élément ne puisse changer de statut en`Initializing`, et ensuite`InProgress`.
+ Ils `VoiceAnalyticsProcessor` restent `InProgress` tant qu'une tâche est démarrée et qu'une [condition d'arrêt](managing-call-analytics-pipelines.md) n'est pas remplie pendant l'exécution de la tâche.
+ Même si c'est le `VoiceAnalyticsProcessor` cas`InProgress`, vous ne serez facturé que pour la durée du traitement des tâches.
+ Pour nettoyer les pipelines d'informations sur les médias dans lesquels au moins une tâche d'analyse vocale a été lancée et aucune autre tâche n'est en cours d'exécution, vous devez appeler. `DeleteMediaPipeline`
+ Tant qu'une tâche s'exécute ou se termine avec succès, le statut de l'`VoiceAnalyticsProcessor`élément reste à`InProgress`.

# Surveillance des pipelines d'analyse des appels pour le SDK Amazon Chime avec Amazon CloudWatch
<a name="monitoring-with-cloudwatch"></a>

Vous pouvez utiliser Amazon CloudWatch pour surveiller les pipelines d'analyse des appels du SDK Amazon Chime. Vous pouvez également définir des alarmes qui surveillent certains seuils et envoient des notifications ou prennent des mesures lorsque ces seuils sont atteints. Pour plus d'informations CloudWatch, consultez le [guide de CloudWatch l'utilisateur Amazon](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/).

**Topics**
+ [Conditions préalables](#monitoring-prereqs)
+ [Métriques d'analyse des appels](#monitoring-metrics)
+ [CloudWatch dimensions pour les métriques du pipeline](#monitoring-dimensions)

## Conditions préalables
<a name="monitoring-prereqs"></a>

Pour utiliser CloudWatch les métriques, vous devez d'abord créer un rôle lié au service Media Pipelines qui accorde l'autorisation de publier des métriques de service sur Amazon. CloudWatch Pour plus d'informations sur le rôle lié à un service[Création d'un rôle lié à un service pour les pipelines multimédias du SDK Amazon Chime](create-pipeline-role.md), consultez ce guide.

## Métriques d'analyse des appels
<a name="monitoring-metrics"></a>

L'analyse des appels du SDK Amazon Chime publie les métriques suivantes dans l'espace de `AWS/ChimeSDK` noms pour les pipelines d'informations multimédias que vous créez à l'aide d'une configuration d'informations multimédias.


| Métrique | Description | 
| --- | --- | 
|  `MediaInsightsPipelineCreated`  |  Le pipeline d'informations sur les médias a été créé avec succès. Unité : nombre  | 
|  `MediaInsightsPipelineStopped`  |  Le pipeline d'informations sur les médias a été arrêté avec succès. Unité : nombre  | 
|  `MediaInsightsPipelineFailed`  |  Le pipeline d'informations sur les médias a échoué. Unité : nombre  | 
|  `MediaInsightsPipelineDuration`  |  Le délai entre la création du pipeline et l'arrêt/échec. Unité : secondes  | 
|  `MediaInsightsPipelineBillingDuration`  |  Durée de facturation du pipeline d'informations sur les médias. Unité : nombre  | 
|  `RecordingFileSize`  |  Taille du fichier d'enregistrement. Unité : octets  | 
|  `RecordingDuration `  |  Durée de l'enregistrement. Unité : secondes  | 

## CloudWatch dimensions pour les métriques du pipeline
<a name="monitoring-dimensions"></a>

Le tableau suivant répertorie les CloudWatch dimensions que vous pouvez utiliser pour surveiller les pipelines d'analyse des appels.


| Dimension | Description | 
| --- | --- | 
| `MediaInsightsPipelineConfigurationId` | ID de la configuration du pipeline Media Insights. | 
| `MediaInsightsPipelineConfigurationName` | Nom de la configuration du pipeline Media Insights. | 

# Processeur d'analyse des appels et destinations de sortie pour le SDK Amazon Chime
<a name="call-analytics-processor-and-output-destinations"></a>

 Vous ne pouvez spécifier des éléments uniques qu'une seule fois par configuration de pipeline Media Insights. Tous les processeurs et récepteurs doivent résider dans le même AWS compte, et vous devez les créer dans la même AWS région que le point de terminaison que vous appelez. Par exemple, si vous utilisez le `us-east-1` point de terminaison pour Amazon Chime SDK Media Pipelines, vous ne pouvez pas transmettre un flux de données Kinesis depuis la région. `us-west-2` 

Développez chaque section pour obtenir des informations sur chaque destination.

## Destinations du processeur Amazon Transcribe Call Analytics
<a name="amazon-transcribe-call-analytics-processor"></a>

Éviers pris en charge :`KinesisDataStreamSink`.

Vous ne pouvez pas associer ce processeur à un processeur Amazon Transcribe. Pour plus d'informations sur Amazon Transcribe Call Analytics, reportez-vous à la section Analyse des [appels en temps réel du manuel](https://docs.aws.amazon.com/transcribe/latest/dg/call-analytics-streaming.html) *Amazon Transcribe Developer* Guide. Si vous activez l'[analyse post-appel](https://docs.aws.amazon.com/transcribe/latest/dg/tca-post-call.html) en les incluant `PostCallAnalyticsSettings` dans l'appel d'`AmazonTranscribeCallAnalyticsProcessorConfiguration`API, vous recevez des artefacts dans l'emplacement Amazon S3 spécifié lorsque le pipeline Media Insights s'arrête et que le traitement est terminé.

**Note**  
Si vous interrompez le pipeline pendant plus de 35 secondes, puis que vous le reprenez, les artefacts post-appel sont générés dans des fichiers séparés avec des sessions différentes IDs dans le compartiment Amazon S3.

Les artefacts post-appel incluent un fichier d'analyse JSON et un fichier d'enregistrement audio WAV ou Opus. L'URL du compartiment Amazon S3 pour les fichiers d'enregistrement expurgés (si vous activez la rédaction de contenu) et non expurgés est envoyée au Kinesis Data Stream une fois pour chaque session post-appel d'analyse des appels Amazon Transcribe, dans le cadre de la section des métadonnées. `onetimeMetadata`

L'analyse des appels avec Amazon Transcribe L'analyse des appels utilise les données audio saisies depuis le flux vidéo Kinesis.
+ Encodage multimédia pris en charge : audio Little-Endian 16 bits signé PCM.
+ Fréquences d'échantillonnage multimédia prises en charge : entre 8 000 Hz et 48 000 Hz.

`StreamConfiguration`entrée pour un processus Amazon Transcribe Analytics :
+ Vous devez spécifier le `KinesisVideoStreamArn` pour chaque flux.
+ (Facultatif) Le KVS `FragmentNumber` lance une tâche d'analyse des appels avec le segment situé après un fragment spécifié. S'il n'est pas fourni, il utilise le dernier extrait du flux vidéo Kinesis.
+ Cela `StreamChannelDefinition` définit qui parle. L'analyse des appels Amazon Transcribe nécessite un son à deux canaux. Vous devez spécifier quel haut-parleur se trouve sur quel canal lorsque vous appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API. Par exemple, si votre agent parle en premier, vous réglez le sur `ChannelId` `0` pour indiquer le premier canal et `AGENT` sur `ParticipantRole` pour indiquer que l'agent parle.

**Note**  
Lorsque vous utilisez un connecteur vocal pour créer un `MediaInsightsPipeline` avec un processeur d'analyse des appels Amazon Transcribe, le segment audio du compte Voice Connector est `AGENT` destiné au. `CUSTOMER` `ParticipantRole`  
Pour le Voice Connector SIPREC, nous nous appuyons sur les métadonnées SIPREC. Dans la plupart des cas, l'étiquette de flux présentant la valeur lexicographique la plus faible est considérée comme le. `AGENT`

L'exemple suivant montre l'entrée Kinesis Video Stream pour un flux audio double canal.

```
"StreamChannelDefinition" : {
    "NumberOfChannels" : 2
    "ChannelDefinitions": [
        {
            "ChannelId": 0,
            "ParticipantRole": "AGENT"
        },
        {
            "ChannelId": 1,
            "ParticipantRole": "CUSTOMER"
        }
    ]
}
```

 En revanche, l'exemple suivant montre deux entrées mono provenant de deux flux Kinesis Video différents. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0,
               "ParticipantRole": "AGENT"
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1,
               "ParticipantRole": "CUSTOMER"
            }
        ]
    }
```

## Sortie d'analyse des appels Amazon Transcribe
<a name="amazon-transcribe-call-analytics-output"></a>

 Chaque enregistrement Amazon Transcribe contient un `UtteranceEvent` ou un`CategoryEvent`, mais pas les deux. `CategoryEvents`J'ai un `detail-type` de`TranscribeCallAnalyticsCategoryEvent`. 

L'exemple suivant montre le format de sortie de métadonnées à usage unique pour Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string", // siprec metadata in JSON (converted from above XML) 
    
    // If PostcallSettings are enabled for Amazon Transcribe Call Analytics
    "s3RecordingUrl": "string", 
    "s3RecordingUrlRedacted": "string"
}
 
// inviteHeaders object
{
    "string": "string"
}
```

 L'exemple suivant montre le format de sortie Amazon Transcribe Call Analytics. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "TranscribeCallAnalytics",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceConnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    },
    "UtteranceEvent": {
        "UtteranceId": "string",
        "ParticipantRole": "string",
        "IsPartial": boolean,
        "BeginOffsetMillis": number,
        "EndOffsetMillis": number,
        "Transcript": "string",
        "Sentiment": "string",
        "Items": [{
            "Content": "string",
            "Confidence": number,
            "VocabularyFilterMatch": boolean,
            "Stable": boolean,
            "ItemType": "string",
            "BeginOffsetMillis": number,
            "EndOffsetMillis": number,
        }, ]
        "Entities": [{
            "Content": "string",
            "Confidence": number,
            "Category": "string", // Only PII is supported currently
            "Type": "string",
            "BeginOffset": number,
            "EndOffset": number,
        }, ],
        "IssuesDetected": [{
            "CharacterOffsets": {
                "Begin": number,
                "End": number
            }
        }]
    },
    "CategoryEvent": {
        "MatchedCategories": ["string"],
        "MatchedDetails": {
            "string": {
                "TimestampRanges": [{
                    "BeginOffsetMillis": number,
                    "EndOffsetMillis": number
                }]
            }
        }
    }
}
```

## Amazon Chime SDK Voice Connector met à jour les métadonnées en continu
<a name="cvc-stream-update-metadata"></a>

Si la configuration de l'analyse des appels est associée à un connecteur vocal du SDK Amazon Chime, la charge utile de mise à jour du connecteur vocal suivante sera envoyée lors d'une mise à jour en streaming du connecteur [vocal](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html).

L'exemple suivant montre un format de métadonnées de mise à jour pour le processeur Amazon Transcribe et le processeur Transcribe Call Analytics.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// sipHeaders object
{
    "string": "string"
}
```

L'exemple suivant montre un format de métadonnées de mise à jour pour Call Analytics Amazon S3 Recording.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Métadonnées d'enregistrement des appels SIP
<a name="sip-update-metadata"></a>

Les exemples suivants montrent les métadonnées permettant d'enregistrer un appel SIP entre deux personnes, Alice et Bob. Les deux participants envoient et reçoivent du son et de la vidéo. Pour des raisons de simplicité, l'exemple ne contient que des extraits de SIP et de SDP, et SRC enregistre les flux de chaque participant sur SRS sans les mélanger.

```
INVITE sip:recorder@example.com SIP/2.0
   Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
   From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
   To: <sip:recorder@example.com>
   Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
   Session-ID: ab30317f1a784dc48ff824d0d3715d86
    ;remote=00000000000000000000000000000000
   CSeq: 101 INVITE
   Max-Forwards: 70
   Require: siprec
   Accept: application/sdp, application/rs-metadata,
   application/rs-metadata-request
   Contact: <sip:2000@src.example.com>;+sip.src
   Content-Type: multipart/mixed;boundary=boundary
   Content-Length: [length]

   Content-Type: application/SDP
   ...
   m=audio 49170 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:96
   a=sendonly
   ...
   m=video 49174 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:97
   a=sendonly
   ...
   m=audio 51372 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:98
   a=sendonly
   ...
   m=video 49176 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:99
   a=sendonly
   ....

Content-Type: application/rs-metadata
Content-Disposition: recording-session

<?xml version="1.0" encoding="UTF-8"?>
<recording xmlns='urn:ietf:params:xml:ns:recording:1'>
  <datamode>complete</datamode>
        <group group_id="7+OTCyoxTmqmqyA/1weDAg==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
                <!-- Standardized extension -->
                <call-center xmlns='urn:ietf:params:xml:ns:callcenter'>
                        <supervisor>sip:alice@atlanta.com</supervisor>
                </call-center>
                <mydata xmlns='http://example.com/my'>
                        <structure>structure!</structure>
                        <whatever>structure</whatever>
                </mydata>
        </group>
        <session session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <sipSessionID>ab30317f1a784dc48ff824d0d3715d86;
                                      remote=47755a9de7794ba387653f2099600ef2</sipSessionID>
                <group-ref>7+OTCyoxTmqmqyA/1weDAg==
                </group-ref>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </session>
        <participant
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <nameID aor="sip:alice@atlanta.com">
                        <naSRCme xml:lang="it">Alice</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <participant
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <nameID aor="sip:bob@biloxy.com">
                        <name xml:lang="it">Bob</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <stream stream_id="UAAMm5GRQKSCMVvLyl4rFw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>96</label>
        </stream>
        <stream stream_id="i1Pz3to5hGk8fuXl+PbwCw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>97</label>
        </stream>
        <stream stream_id="8zc6e0lYTlWIINA6GR+3ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>98</label>
        </stream>
        <stream stream_id="EiXGlc+4TruqqoDaNE76ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>99</label>
        </stream>
        <sessionrecordingassoc session_id="hVpd7YQgRW2nD22h7q60JQ==">
            <associate-time>2010-12-16T23:41:07Z</associate-time>
        </sessionrecordingassoc>
        <participantsessionassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w=="
              session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantsessionassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantstreamassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
                <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
                <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
                <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
        </participantstreamassoc>
        <participantstreamassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <send>8zc6e0lYTlWIINA6GR+3ag==</send>
                <send>EiXGlc+4TruqqoDaNE76ag==</send>
                <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
                <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
        </participantstreamassoc>
</recording>
```

L'exemple suivant montre les métadonnées mises à jour lorsqu'un participant à un appel met l'autre en attente. Dans ce cas, il `participant_id srfBElmCRp2QB23b7Mpk0w==` ne reçoit que des flux multimédias et n'envoie aucun média. L'élément `send` XML est donc omis. En revanche, `participant_id zSfPoSvdSDCmU3A3TRDxAw==` envoie du contenu multimédia à l'autre participant, mais ne reçoit pas de contenu multimédia de sa part, de sorte que l'élément `recv` XML est omis.

```
INVITE sip:recorder@example.com SIP/2.0
            Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....

   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
             </participantstreamassoc>
           </recording>
```

L'exemple suivant montre la mise à jour des métadonnées lorsque l'appel reprend. La charge utile contient désormais les éléments `recv` XML `send` et.

```
INVITE sip:recorder@example.com SIP/2.0
      Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....
    
   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
             <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
              <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
             <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
             </participantstreamassoc>
           </recording>
```

## Destinations des processeurs Amazon Transcribe
<a name="amazon-transcribe-processors"></a>

Éviers pris en charge :`KinesisDataStreamSink`.

Vous ne pouvez pas associer ce processeur à l'analyse des appels Amazon Transcribe. *Pour plus d'informations sur l'entrée et la sortie d'Amazon Transcribe, consultez la section Transcribe le [streaming audio du manuel Amazon Transcribe](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html) Developer Guide.*

La session d'analyse des appels avec Amazon Transcribe utilise les données audio saisies par Kinesis Video Stream.
+ Compatible MediaEncoding : audio Little-Endian 16 bits signé PCM.
+  MediaSampleRate Fréquences d'échantillonnage prises en charge : entre 8 000 Hz et 48 000 Hz.

 `StreamConfiguration`entrée pour les processeurs Amazon Transcribe : 
+ Vous devez spécifier le `KinesisVideoStreamArn` pour chaque flux.
+ (Facultatif) KVS `FragmentNumber` - Démarre une tâche d'analyse des appels avec le fragment situé après un fragment spécifique. S'il n'est pas fourni, il utilisera le dernier extrait disponible sur le Kinesis Video Stream.
+ `StreamChannelDefinition`Amazon Transcribe prend actuellement en charge l'audio sur deux canaux. Vous devez le spécifier `NumberOfChannels` dans le runtime`StreamChannelDefinition`. De plus, vous devez transmettre le `ChannelId` si vous envoyez du son mono sur deux canaux distincts. Dans votre transcription, les canaux se voient attribuer les étiquettes `ch_0` et `ch_1`. L'exemple suivant montre l'entrée KVS pour un flux de canal audio mono.

```
"StreamChannelDefinition" : {"
    NumberOfChannels" : 1
}
```

 L'exemple suivant montre l'entrée KVS pour deux entrées audio mono dans deux flux différents. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1
            }
        ]
    }
```

**Note**  
Pour le connecteur vocal créé à l'`MediaInsightsPipeline`aide d'un processeur Amazon Transcribe, le segment audio du compte Voice Connector est attribué `channel-0` et le segment audio du compte PSTN est attribué à. `channel-1`  
Pour le Voice Connector SIPREC, nous nous appuyons sur les métadonnées SIPREC. Dans la plupart des cas, l'étiquette de flux présentant la valeur lexicographique la plus faible est attribuée à. `channel-0`  
Pour les processeurs d'analyse d'appels Amazon Transcribe et Amazon Transcribe, si vous transmettez deux flux Kinesis Video et que chaque flux contient un canal audio mono, nous entrelacons les deux canaux en un seul flux audio avant de traiter les données d'analyse des appels Transcribe ou Transcribe.

## Sortie Amazon Transcribe
<a name="amazon-transcribe-output"></a>

L'exemple suivant montre un format de sortie de métadonnées à usage unique pour Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// inviteHeaders object
{
    "string": "string"
}
```

L'exemple suivant montre le format de sortie Amazon Transcribe. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Transcribe",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceconnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    }
    "TranscriptEvent": {
        "Transcript": {
            "Results": [{
                "Alternatives": [{
                    "Entities": [{
                        "Category": "string",
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "StartTime": number,
                        "Type": "string"
                    }],
                    "Items": [{
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "Speaker": "string",
                        "Stable": boolean,
                        "StartTime": number,
                        "Type": "string",
                        "VocabularyFilterMatch": boolean
                    }],
                    "Transcript": "string"
                }],
                "ChannelId": "string",
                "EndTime": number,
                "IsPartial": boolean,
                "LanguageCode": "string",
                "LanguageIdentification": [{
                    "LanguageCode": "string",
                    "Score": number
                }],
                "ResultId": "string",
                "StartTime": number
            }]
        }
    }
}
```

## Destinations des processeurs d'analyse vocale
<a name="voice-analytics-processor"></a>

 Récepteurs pris en charge : `KinesisDataStreamSink` `SqsQueueSink``SnsTopicSink`,, et`LambdaFunctionSink`. 

 Vous pouvez associer ce processeur au processeur d'analyse des appels Amazon Transcribe, au processeur Amazon Transcribe ou à l'enregistrement des appels. Vous devez utiliser le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs pour appeler un processeur d'analyse vocale. Pour plus d'informations sur l'utilisation de l'analyse vocale, consultez la section [Utilisation de l'analyse vocale du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/dg/voice-analytics.html). 

## Utilisation de Kinesis Data Stream comme récepteur
<a name="kinesis-data-stream-destination"></a>

Les enregistrements Kinesis Data Stream (KDS) générés par l'analyse des appels incluent l'ID du pipeline multimédia, le type de détail, les métadonnées et les sections spécifiques au processeur. Pour plus d'informations sur la consommation de données provenant d'un flux de données Kinesis, reportez-vous à [la section Reading Data Streams d'Amazon Kinesis Data Streams](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html) dans le guide du développeur *Amazon Kinesis Streams*. Pour créer une configuration avec ce récepteur, vous devez disposer d'une `kinesis:DescribeStream` autorisation sur le flux spécifié. 

 **Metadonnées**

 La `metadata` section des enregistrements KDS générés contient toutes les paires clé-valeur spécifiées `CallAnalyticsRuntimeMetadata` lors de l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)appel d'API. Si une session d'analyse des appels a été initiée par un connecteur vocal, la section des métadonnées est automatiquement renseignée avec les paramètres suivants : 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Outre les paramètres indiqués ci-dessus, la section des métadonnées pour les sessions d'analyse des appels initiées par Voice Connector sera remplie avec un `oneTimeMetadata` champ contenant : 
+ `inviteHeaders`
+ `siprecMetadata`

Il est publié sur Kinesis Data Streams une seule fois au début de la session et comporte `detail-type` un `CallAnalyticsMetadata` de.

Vous pouvez transmettre des identifiants uniques `MediaInsightsRuntimeMetadata` pour chaque appel d'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API afin d'identifier de manière unique la source de chaque enregistrement transmis à votre Kinesis Data Stream.

## Enregistrement des appels Amazon S3
<a name="amazon-s3-call-recording"></a>

 L'enregistrement des analyses d'appels lit le son d'un flux KVS, l'enregistre sous forme de fichier audio et télécharge le fichier dans le compartiment Amazon S3 spécifié. Après l'enregistrement, l'analyse des appels envoie également les métadonnées des appels ainsi que l'emplacement du fichier à KDS. Si vous activez un entrepôt de données, les métadonnées d'appel (y compris les métadonnées SIPREC si SIPREC a été utilisé) sont transmises à l'entrepôt de données dans un ensemble de tables Parquet que vous pouvez interroger.

Comme tout autre processeur d'analyse des appels, vous devez d'abord créer une configuration pour le pipeline. Vous pouvez utiliser la console Amazon Chime SDK ou la CLI pour créer la configuration. Vous utilisez ensuite la CLI pour créer le pipeline. Pour plus d'informations sur l'utilisation de la console pour créer des configurations d'enregistrement, reportez-vous à [Création de configurations d'analyse des appels pour le SDK Amazon Chime](creating-ca-configuration.md) la section précédente de cette section. Pour plus d'informations sur l'utilisation des flux de travail d'enregistrement, reportez-vous à [Comprendre les flux de travail pour l'enregistrement des appels pour le SDK Amazon Chime](recording-workflows.md) la section précédente de cette section.

 **Pour utiliser la CLI pour créer une configuration**

 Exécutez la commande suivante : 

```
aws chime-sdk-media-pipeline create-media-insights-pipeline-configuration --cli-input-json file://configuration.json 
```

 L'exemple suivant montre un fichier de configuration JSON dans lequel seul l'enregistrement est activé : 

```
{
    "MediaInsightsPipelineConfigurationName": configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": "arn:aws:s3:::kvs-recording-testing",
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }         
    ]
}
```

Rappelez-vous ce qui suit :
+ Pour activer l'enregistrement des appels via Kinesis Video Streams, le son doit être signé Little-endian 16 bits avec signature PCM. La fréquence d'échantillonnage doit être de 8KHz. 
+ Les créateurs doivent définir une période de conservation des données suffisamment longue pour le Kinesis Video Stream afin de garantir que les fragments sont conservés et consommables par l'analyse des appels. 
+ Si vous activez l'enregistrement des appels, seul ou en combinaison avec d'autres processeurs, vous devez fournir deux Kinesis Video Stream ARNs pour l'enregistrement. L'enregistrement des appels ne prend pas en charge une seule entrée audio stéréo. 

## Sortie de métadonnées d'enregistrement des appels Amazon S3
<a name="s3-recording-metadata-output"></a>

L'exemple suivant montre le format de sortie des métadonnées pour l'enregistrement des analyses d'appels sur Amazon S3.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",   
    "mediaInsightsPipelineId": "string",
    "s3MediaObjectConsoleUrl": "string",
    "recordingDurationSeconds": "number",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "startTime": "string", // ISO8601 format
    "endTime": "string", // ISO8601 format
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Activer l'amélioration vocale
<a name="voice-enhancement-sink"></a>

Pour activer l'amélioration vocale, incluez un `VoiceEnhancementSinkConfiguration` élément dans un appel d'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API.

Cet exemple montre un élément typique.

```
{
  "Type":"VoiceEnhancementSink",
  "VoiceEnhancementSinkConfiguration": {
       "Disabled": Boolean (string) // FALSE ==> Voice Enhancement will be performed
}
```

Pour mettre à jour une configuration, ajoutez l'`VoiceEnhancementSinkConfiguration`élément à un appel d'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html)API. Lorsque vous le faites, l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)API inclut l'`VoiceEnhancementSinkConfiguration`élément dans les résultats.

Cet exemple de demande montre comment activer l'amélioration vocale et l'enregistrement Amazon S3.

```
POST /media-insights-pipeline-configurations HTTP/1.1
Content-type: application/json

{
   "MediaInsightsPipelineConfigurationName":"media_insights_configuration_name",
   "ResourceAccessRoleArn":"arn:aws:iam::account_id:role/resource_access_role",
   "Elements":[
      {
         "Type":"S3RecordingSink",
         "S3RecordingSinkConfiguration":{
            "Destination":"arn:aws:s3:::input_bucket_path",
            "RecordingFileFormat":"Wav"
         }
      },
      {
         "Type":"VoiceEnhancementSink",
         "VoiceEnhancementSinkConfiguration": {
            "disabled":"false"
         }
      }
   ],
   "ClientRequestToken":"client_request_token"
}
```

**Note**  
L'`VoiceEnhancementSink`élément nécessite toujours un `S3RecordingSink` élément dans une configuration d'analyse des appels.

# Combinaison de la transcription avec des récepteurs d'enregistrement pour le SDK Amazon Chime
<a name="combining-recording-transcription"></a>

Vous pouvez associer les processeurs Amazon Transcribe et Amazon Transcribe Call Analytics à un récepteur d'enregistrement Amazon S3. Les constructeurs peuvent transmettre un S3 RecordingSinkConfiguration en plus des processeurs Amazon Transcribe lors d'un appel d'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API ou en utilisant la console.

En association avec le récepteur d'enregistrement Amazon S3, vous pouvez utiliser un processeur Amazon Transcribe ou Amazon Transcribe Call Analytics, mais jamais les deux. Vous pouvez également ajouter des analyses vocales à la même configuration en plus d'un récepteur d'enregistrement, avec ou sans processeur de transcription.

**Note**  
Vous pouvez activer l'enregistrement avec l'un des processeurs répertoriés ci-dessus. Toutefois, si vous activez Amazon Transcribe Call Analytics en même temps que l'enregistrement des appels Amazon S3, vous devez fournir deux flux vidéo Kinesis et vous recevrez des fichiers d'enregistrement dupliqués, l'un provenant d'Amazon Transcribe Call Analytics et l'autre provenant de l'enregistrement des appels Amazon S3.

Rappelez-vous ce qui suit :
+ Vous devez utiliser un unique`MediaInsightsPipelineConfigurationName`.
+ Pour plus d'informations à ce sujet`ResourceAccessRoleArn`, reportez-vous [Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime](call-analytics-resource-access-role.md) à ce guide.
+ La `Destination` valeur doit être un ARN du chemin S3. Le compartiment Amazon S3 doit appartenir au même compte.
+ Si vous utilisez une configuration avec Transcribe et enregistrement pour créer un pipeline, les pauses et les reprises apparaissent uniquement dans les informations générées par un flux Kinesis Data. Toutes les données des flux KVS sont enregistrées et téléchargées sur Amazon S3.
+ Si une configuration utilise Amazon Transcribe ou Transcribe Call Analytics (TCA) en plus de l'enregistrement, le pipeline Media Insights fournit des informations sur la transcription ou Transcribe Call Analytics en temps réel, suivies d'un enregistrement Amazon S3 à la fin de l'appel. Si les services de transcription échouent pendant l'analyse des appels, la tâche d'enregistrement S3 essaie toujours de s'exécuter. À l'inverse, un échec d'enregistrement sur Amazon S3 n'affecte pas les informations de transcription, puisqu'il s'exécute une fois la transcription terminée.

Cet exemple montre une configuration avec un processeur Amazon Transcribe et un récepteur d'enregistrement Amazon S3. L'exemple permet également une stabilisation partielle des résultats, ce qui peut réduire la latence en sortie, mais peut avoir un impact sur la précision. Pour plus d'informations, reportez-vous à la section [Stabilisation des résultats partiels](https://docs.aws.amazon.com/transcribe/latest/dg/streaming-partial-results.html#streaming-partial-result-stabilization) du manuel *Amazon Transcribe Developer* Guide.

```
{
    "MediaInsightsPipelineConfigurationName": unique_configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [{
            "AmazonTranscribeProcessorConfiguration": {
                "ContentIdentificationType": "string",
                "ContentRedactionType": "string",
                "EnablePartialResultsStabilization": boolean, //Enables partial result stabilization. Can reduce latency. May impact accuracy. 
                "FilterPartialResults": boolean, //To control partial utterance events
                "LanguageCode": "string",
                "LanguageModelName": "string",
                "PartialResultsStability": "string",
                "PiiEntityTypes": "string",
                "ShowSpeakerLabel": boolean,
                "VocabularyFilterMethod": "string",
                "VocabularyFilterName": "string",
                "VocabularyName": "string"
            },
            "Type": "AmazonTranscribeProcessor"
        },
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording and insights live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": S3_Arn,
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }
    ]
}
```

# Utilisation EventBridge des notifications Amazon pour le SDK Amazon Chime
<a name="using-eventbridge-notifications"></a>

Le SDK Call Analytics d'Amazon Chime prend en charge l'envoi d'événements vers le EventBridge bus par défaut lorsque l'état du pipeline d'informations sur les médias change ou lorsque les conditions d'alerte en temps réel de l'analyse des appels sont remplies. Pour les mises à jour du statut des erreurs du pipeline Media Insights, nous vous recommandons de configurer une EventBridge cible pour vous avertir en cas de défaillance asynchrone de vos ressources. Les notifications d'analyse des appels ont une source aws.chime et différents types de détails, qui sont partagés dans les sections suivantes. Pour plus d'informations, consultez le [guide de EventBridge l'utilisateur Amazon](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html).

**Topics**
+ [Mises à jour d'état](#status-updates)
+ [Des alertes en temps réel](#realtime-alerts)

## Mises à jour d'état
<a name="status-updates"></a>

 Les pipelines Media Insights envoient EventBridge des notifications au fur et à mesure qu'une session d'analyse des appels progresse et qu'elle se termine correctement ou qu'elle rencontre des erreurs. Vous recevez une EventBridge notification avec le type de détail « Media Insights State Change » lorsque : 
+ Le statut d'un pipeline d'informations sur les médias change.
+ Le statut d'un élément du pipeline d'informations sur les médias change.
+ Tout élément du pipeline est arrêté.
+ Tout élément du pipeline tombe en panne.

La section détaillée inclut toujours les champs suivants :
+ `version`
+ `mediaInsightsPipelineArn`
+ `eventType`

La section détaillée inclut également un `mediaInsightsPipelineElementStatuses` champ si le pipeline d'informations multimédias contient plusieurs éléments, tels que des processeurs d'analyse et des récepteurs de données. Ce champ indique le statut de chaque élément du pipeline. Le statut possible de chaque élément du pipeline pourrait être le suivant :
+ `NotStarted`
+ `InProgress`
+ `Stopped`
+ `Failed`

 La section détaillée inclut également toutes les paires clé-valeur spécifiées `MediaInsightsRuntimeMetadata` lors de l'appel d'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API. Si une session d'analyse des appels a été initiée par un connecteur vocal, la section des métadonnées est automatiquement renseignée avec les paramètres suivants : 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Les types d'événements suivants peuvent apparaître chaque fois qu'un pipeline d'informations sur les médias contient un seul élément. Agrandissez chaque section pour plus d’informations.

### Informations sur les médias du SDK Amazon Chime en cours
<a name="insights-in-progress"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsInProgress",
        "version": "0",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Les informations sur les médias du SDK Amazon Chime sont suspendues
<a name="insights-paused"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPaused",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Les informations sur les médias du SDK Amazon Chime ont été interrompues
<a name="insights-stoppped"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsStopped",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Défaillance temporaire du SDK Amazon Chime Media Insights
<a name="insights-temp-failure"></a>

Indique que le service a rencontré une défaillance temporaire et qu'il tentera de réessayer. Aucune action n'est requise de votre part.

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Défaillance permanente du SDK Amazon Chime Media Insights
<a name="insights-perm-failure"></a>

Indique un échec qui nécessite une action de votre part. Utilisez le `failureReason` pour résoudre le problème. Les défaillances typiques peuvent inclure les suivantes :
+ Autorisations insuffisantes sur le rôle d'accès aux ressources
+ Ressources manquantes ou supprimées
+ Limitation à partir d'un AWS service qui appelle Analytics invoque en votre nom, tel qu'Amazon Transcribe ou Amazon Kinesis.
+ Formats multimédias incompatibles sur les flux KVS

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPermanentFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string"              
    }
}
```

**Note**  
Le champ `failureReason` est facultatif. Par exemple, une raison typique pourrait être`Access denied when assuming resource access role`.

Les types d'événements suivants peuvent apparaître chaque fois qu'un pipeline d'informations multimédias est créé, ou que la tentative de création échoue, pour une session d'analyse des appels initiée par un connecteur vocal du SDK Amazon Chime. Agrandissez chaque section pour plus d’informations.

### Création d'informations sur les médias du SDK Amazon Chime
<a name="vc-pipeline-created"></a>

Cet exemple illustre un événement de réussite typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsCreated",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
    }
}
```

### Échec de la création d'Amazon Chime Media Insights
<a name="vc-pipeline-failed"></a>

Cet exemple montre un événement de défaillance typique.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change",     
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "eventType": "chime:MediaInsightsCreateFailed", 
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureOrigin": "Voice Connector",
        "httpStatusCode": "string",
        "failureReason": "string"
    }
}
```

Les types d'événements suivants peuvent apparaître lorsqu'un pipeline d'informations sur les médias contient plusieurs éléments. Les exemples de notifications sont à `AmazonTranscribeProcessor` combiner avec`S3RecordingSink`. Agrandissez chaque section pour plus d’informations. 

### AmazonTranscribeProcessor est en cours et S3 n'RecordingSink a pas démarré
<a name="processor-running-sink-not-started"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "InProgress",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor a réussi et S3 RecordingSink est en cours
<a name="processor-success-sink-in-progress"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor a échoué et S3 RecordingSink est en cours
<a name="processor-fail-sink-in-process"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor a échoué et S3 RecordingSink a réussi
<a name="processor-fail-record-finish"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor a réussi et S3 RecordingSink a échoué
<a name="processor-success-recording-fail"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Failed",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor est en pause et S3 n'RecordingSink a pas démarré
<a name="processor-pause-recording-no-start"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPaused",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Paused",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor a temporairement échoué et S3 n'RecordingSink a pas démarré
<a name="processor-temp-fail-recording-no-start"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "TemporarilyFailed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor et S3 RecordingSink a réussi
<a name="processor-sink-success"></a>

Cet exemple montre une structure d'événement typique.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsStopped",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### S3 RecordingSink a réussi et VoiceEnhancement est en cours
<a name="voice-enhancement-sink-inprogress"></a>

Cet exemple montre une structure d'événement typique.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsInProgress",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancementSink",
        "status": "InProgress",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink a réussi et VoiceEnhancement a échoué en raison d'appels de plus de 30 minutes
<a name="voice-enhancement-sink-fail-longerthan30minutes"></a>

Cet exemple montre une structure d'événement typique.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsStopped",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "NotSupported",
        "updatedOn": 1686184070655,
        "statusDetail": "Unsupported recording length"
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink a réussi et VoiceEnhancement a échoué en raison d'appels de moins de 30 minutes
<a name="voice-enhancement-sink-fail-lessthan30minutes"></a>

Cet exemple montre une structure d'événement typique.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsPermanentFailure",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "Failed",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

## Des alertes en temps réel
<a name="realtime-alerts"></a>

**Note**  
Seuls les processeurs Amazon Transcribe et Amazon Transcribe Call Analytics prennent en charge les alertes en temps réel.

 L'analyse des appels du SDK Amazon Chime permet aux développeurs de définir des règles pour l'envoi d'alertes en temps réel via un processeur lors d'une session d'analyse. Les alertes sont envoyées à Amazon EventBridge avec le type de détail`Media Insights Rules Matched`. EventBridge prend en charge l'intégration avec des services en aval tels que Lambda, Amazon SQS et Amazon SNS afin de déclencher des notifications pour l'utilisateur final ou de lancer une autre logique métier personnalisée.

 Les alertes en temps réel sont configurées dans le cadre du `RealTimeAlertConfiguration` champ du`MediaInsightsPipelineConfiguration`. Vous pouvez utiliser la console Amazon Chime SDK pour configurer le champ, ou vous pouvez appeler le ou. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html) APIs 

 Cet exemple montre comment créer ou mettre à jour une configuration d'alerte en temps réel via l'API. 

```
{
    "MediaInsightsPipelineConfigurationName": "config_name",
    "ResourceAccessRoleArn": "arn:aws:iam::account_id:role/role_name",
    "RealTimeAlertConfiguration": {
        "Disabled": false,
        "Rules": [{
                "Type": "KeywordMatch",
                "KeywordMatchConfiguration": {
                    "RuleName": "rule_name_1",
                    "Keywords": [
                        "hello",
                        "thank you"
                    ],
                    "Negate": false
                }
            },
            {
                "Type": "Sentiment",
                "RuleName": "rule_name_2",
                "SentimentType": "NEGATIVE",
                "TimePeriod": 60
            },
            {
                "Type": "IssueDetection",
                "RuleName": "rule_name_3"
            }
        ]
    },
    "Elements": [{
            "Type": "AmazonTranscribeCallAnalyticsProcessor",
            "AmazonTranscribeCallAnalyticsProcessorConfiguration": {
                "LanguageCode": "en-US"
            }
        },
        {
            "Type": "KinesisDataStreamSink",
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": "arn:aws:kinesis:us-east-1:account_id:stream/stream_name"
            }
        }
    ]
}
```

Chaque règle d'une configuration d'alerte en temps réel est déclenchée indépendamment. Vous pouvez recevoir plusieurs EventBridge notifications si plusieurs conditions de règle sont remplies en même temps. Pour créer une liste de règles pour vos alertes, vous pouvez sélectionner l'un des types de règles suivants :

Match de mots clés  
Alertes lorsqu'un ensemble spécifique de mots clés ou de phrases correspond à un énoncé ou à un événement de transcription. Vous pouvez configurer l'alerte pour qu'elle émette un événement si :  
+ Tous les mots clés spécifiés sont prononcés et `Negate` sont définis sur`false`.
+ Tous les mots clés spécifiés ne sont pas prononcés pendant toute la durée de l'appel, s'il `Negate` est défini sur. `true`
Amazon Transcribe et Amazon Transcribe Analytics prennent en charge ce type de règle.

Analyse de sentiment  
Alertes lorsqu'un type de sentiment particulier persiste pendant une période continue. Seule Transcribe Call Analytics prend en charge cette règle.

Détection des problèmes  
Alerte lorsqu'un problème est détecté lors d'un événement d'énoncé. Seul Transcribe Call Analytics prend en charge ce type de règle.

L'exemple suivant montre un événement d'alerte en temps réel pour une `KeywordMatch` règle.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights Rules Matched", 
    "source": "aws.chime", 
    "account": number,
    "region": "us-east-1",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail":   {
        "version": "0",
        "sourceMetadata": {}
        "ruleName": "string"
        "utteranceId": "string",
        "beginTimestamp": "yyyy-mm-ddThh:mm:ssZ",
    }
}
```

Certains EventBridge champs sont spécifiques au type de règle correspondant :

**Champs de correspondance des mots clés**  
`utteranceId`: ID de la transcription qui contient un mot clé correspondant si vous utilisez Amazon Transcribe Call Analytics. Pour la correspondance des mots clés parlés uniquement.  
`resultId`: ID de la transcription qui contient un mot clé correspondant si vous utilisez Amazon Transcribe. Pour la correspondance des mots clés parlés uniquement.  
`beginTimestamp`: heure de début de la transcription qui contient un mot clé correspondant. Pour la correspondance des mots clés parlés uniquement.

**Champs d'analyse des sentiments**  
`beginTimestamp`: heure de début de la fenêtre déroulante pour le sentiment correspondant.  
`endTimestamp`: Heure de fin de la fenêtre déroulante pour le sentiment correspondant.

# Création d'un lac de données du SDK Amazon Chime
<a name="ca-data-lake"></a>

Le lac de données d'analyse des appels du SDK Amazon Chime vous permet de diffuser vos informations basées sur l'apprentissage automatique et toutes les métadonnées d'Amazon Kinesis Data Stream vers votre compartiment Amazon S3. Par exemple, utiliser le lac de données pour accéder URLs aux enregistrements. Pour créer le lac de données, vous déployez un ensemble de AWS CloudFormation modèles depuis la console Amazon Chime SDK ou par programmation à l'aide du. AWS CLI Le lac de données vous permet d'interroger les métadonnées de vos appels et les données d'analyse vocale en faisant référence aux tables de données AWS Glue dans Amazon Athena.

**Topics**
+ [Conditions préalables](#data-lake-prereqs)
+ [Terminologie et concepts relatifs aux lacs de données](#data-lake-terms)
+ [Création de plusieurs lacs de données](#creating-multiple-data-lakes)
+ [Disponibilité régionale du data lake](#data-lake-regions)
+ [Architecture du lac de données](#data-lake-architecture)
+ [Configuration du lac de données](#data-lake-setup)

## Conditions préalables
<a name="data-lake-prereqs"></a>

Vous devez disposer des éléments suivants pour créer un lac de SDK Amazon Chime :
+ Un flux de données Amazon Kinesis. Pour plus d'informations, reportez-vous à la section [Création d'un flux via la console de gestion AWS](https://docs.aws.amazon.com/streams/latest/dev/how-do-i-create-a-stream.html) dans le manuel *Amazon Kinesis Streams Developer Guide*.
+ Un compartiment S3. Pour plus d'informations, reportez-vous à la section [Création de votre premier compartiment Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html) dans le *guide de l'utilisateur Amazon S3*.

## Terminologie et concepts relatifs aux lacs de données
<a name="data-lake-terms"></a>

Utilisez les termes et concepts suivants pour comprendre le fonctionnement du lac de données.

**Amazon Kinesis Data Firehose**  
Un service d'extraction, de transformation et de chargement (ETL) qui capture, transforme et diffuse de manière fiable des données en streaming vers des lacs de données, des magasins de données et des services d'analyse. Pour plus d'informations, consultez Qu'est-ce qu'Amazon Kinesis Data Firehose ?

**Amazon Athena**  
Amazon Athena est un service de requête interactif qui vous permet d'analyser des données dans Amazon S3 à l'aide du SQL standard. Athena fonctionne sans serveur, vous n'avez donc aucune infrastructure à gérer et vous ne payez que pour les requêtes que vous exécutez. Pour utiliser Athena, pointez sur vos données dans Amazon S3, définissez le schéma et utilisez des requêtes SQL standard. Vous pouvez également utiliser des groupes de travail pour regrouper les utilisateurs et contrôler les ressources auxquelles ils ont accès lorsqu'ils exécutent des requêtes. Les groupes de travail vous permettent de gérer la simultanéité des requêtes et de hiérarchiser l'exécution des requêtes entre différents groupes d'utilisateurs et différentes charges de travail.

**Catalogue de données Glue**  
Dans Amazon Athena, les tables et les bases de données contiennent les métadonnées qui détaillent le schéma des données sources sous-jacentes. Pour chaque jeu de données, une table doit exister dans Athena. Les métadonnées du tableau indiquent à Athena l'emplacement de votre compartiment Amazon S3. Il spécifie également la structure des données, telle que les noms des colonnes, les types de données et le nom de la table. Les bases de données contiennent uniquement les métadonnées et les informations de schéma d'un ensemble de données.

## Création de plusieurs lacs de données
<a name="creating-multiple-data-lakes"></a>

Plusieurs lacs de données peuvent être créés en fournissant un nom de base de données Glue unique pour spécifier où stocker les informations relatives aux appels. Pour un AWS compte donné, il peut y avoir plusieurs configurations d'analyse des appels, chacune associée à un lac de données correspondant. Cela signifie que la séparation des données peut être appliquée dans certains cas d'utilisation, tels que la personnalisation de la politique de conservation et de la politique d'accès sur la manière dont les données sont stockées. Différentes politiques de sécurité peuvent être appliquées pour l'accès aux informations, aux enregistrements et aux métadonnées.

## Disponibilité régionale du data lake
<a name="data-lake-regions"></a>

Le lac de données du SDK Amazon Chime est disponible dans les régions suivantes.


| Région | Table Glue | Rapide | 
| --- | --- | --- | 
| us-east-1 | Available | Available | 
| us-west-2 | Available | Available | 
| eu-central-1 | Available | Available | 

## Architecture du lac de données
<a name="data-lake-architecture"></a>

Le schéma suivant montre l'architecture du lac de données. Les numéros du dessin correspondent au texte numéroté ci-dessous.

![\[Le programme passe par un lac de données.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/call-analytics-data-lake-architecture.png)


Dans le schéma, une fois que vous avez utilisé la AWS console pour déployer le CloudFormation modèle à partir du flux de travail de configuration du pipeline Media Insights, les données suivantes sont transmises au compartiment Amazon S3 :

1. L'analyse des appels du SDK Amazon Chime commencera à diffuser des données en temps réel vers le flux de données Kinesis du client. 

1. Amazon Kinesis Firehose met en mémoire tampon ces données en temps réel jusqu'à ce qu'elles accumulent 128 Mo, soit 60 secondes, selon la première éventualité. Firehose utilise ensuite le catalogue `amazon_chime_sdk_call_analytics_firehose_schema` de données Glue pour compresser les données et transforme les enregistrements JSON en fichier parquet.

1. Le fichier parquet se trouve dans votre compartiment Amazon S3, dans un format partitionné.

1. Outre les données en temps réel, les fichiers .wav récapitulatifs Amazon Transcribe Call Analytics après l'appel (expurgés et non expurgés, si cela est spécifié dans la configuration) et les fichiers .wav d'enregistrement des appels sont également envoyés à votre compartiment Amazon S3. 

1. Vous pouvez utiliser Amazon Athena et le SQL standard pour interroger les données du compartiment Amazon S3.

1. Le CloudFormation modèle crée également un catalogue de données Glue pour interroger ces données récapitulatives après l'appel via Athena.

1. Toutes les données du compartiment Amazon S3 peuvent également être visualisées à l'aide de Quick. QuickSight établit une connexion avec un compartiment Amazon S3 à l'aide d'Amazon Athena.

La table Amazon Athena utilise les fonctionnalités suivantes pour optimiser les performances des requêtes :

**Partitionnement de données**  
Le partitionnement divise votre table en plusieurs parties et conserve les données associées en fonction des valeurs des colonnes telles que la date, le pays et la région. Les partitions agissent comme des colonnes virtuelles. Dans ce cas, le CloudFormation modèle définit les partitions lors de la création de la table, ce qui permet de réduire la quantité de données numérisées par requête et d'améliorer les performances. Vous pouvez également filtrer par partition pour limiter la quantité de données numérisées par une requête. Pour plus d'informations, reportez-vous à la section [Partitionnement des données dans Athena dans](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) le guide de l'utilisateur d'*Amazon Athena*.  
Cet exemple montre une structure de partitionnement datée du 1er janvier 2023 :  

1. 

   ```
   s3://example-bucket/amazon_chime_sdk_data_lake
                               /serviceType=CallAnalytics/detailType={DETAIL_TYPE}/year=2023
                               /month=01/day=01/example-file.parquet
   ```

1. où se `DETAIL_TYPE` trouve l'un des suivants :

   1. `CallAnalyticsMetadata`

   1. `TranscribeCallAnalytics`

   1. `TranscribeCallAnalyticsCategoryEvents`

   1. `Transcribe`

   1. `Recording`

   1. `VoiceAnalyticsStatus`

   1. `SpeakerSearchStatus`

   1. `VoiceToneAnalysisStatus`

**Optimisation de la génération de banques de données en colonnes**  
Apache Parquet utilise la compression par colonne, la compression basée sur le type de données et le transfert des prédicats vers le bas pour stocker les données. De meilleurs taux de compression ou le fait de sauter des blocs de données permettent de lire moins d'octets dans votre compartiment Amazon S3. Cela permet d'améliorer les performances des requêtes et de réduire les coûts. Pour cette optimisation, la conversion des données de JSON en parquet est activée dans Amazon Kinesis Data Firehose.

**Projection de partition**  
Cette fonctionnalité d'Athena crée automatiquement des partitions pour chaque jour afin d'améliorer les performances des requêtes basées sur les dates.

## Configuration du lac de données
<a name="data-lake-setup"></a>

Utilisez la console Amazon Chime SDK pour effectuer les étapes suivantes.

1. **Démarrez la console Amazon Chime SDK ([ https://console.aws.amazon.com/chime-sdk/accueil](https://console.aws.amazon.com/chime-sdk/home)) et dans le volet de navigation, sous **Call Analytics**, sélectionnez Configurations.**

1. Terminez l'étape 1, choisissez **Suivant**, puis sur la page Étape 2, cochez la case **Voice Analytics**.

1. Sous **Détails de la sortie**, cochez la case **Entrepôt de données pour effectuer une analyse historique**, puis cliquez sur le lien **Déployer la CloudFormation pile**.

   Le système vous renvoie vers la page **Quick Create Stack** de la CloudFormation console.

1. Entrez un nom pour la pile, puis entrez les paramètres suivants :

   1. `DataLakeType`— Choisissez **Create Call Analytics DataLake**.

   1. `KinesisDataStreamName`— Choisissez votre stream. Il doit s'agir du flux utilisé pour le streaming des analyses d'appels.

   1. `S3BucketURI`— Choisissez votre compartiment Amazon S3. L'URI doit avoir le préfixe `s3://bucket-name`

   1. `GlueDatabaseName`— Choisissez un nom de base de données AWS Glue unique. Vous ne pouvez pas réutiliser une base de données existante dans le AWS compte.

1. Cochez la case d'accusé de réception, puis choisissez **Create** data lake. Attendez 10 minutes pour que le système crée le lac.

### Configuration du lac de données à l'aide de AWS CLI
<a name="data-lake-setup-using-cli"></a>

 AWS CLI À utiliser pour créer un rôle autorisé à créer une pile CloudFormation d'appels. Suivez la procédure ci-dessous pour créer et configurer les rôles IAM. Pour plus d'informations, consultez la section [Création d'une pile](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-cfn-cli-creating-stack.html) dans le *guide de AWS CloudFormation l'utilisateur*.

1. Créez un rôle appelé *AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role et associez une politique de confiance au rôle* permettant de l'assumer. CloudFormation 

   1. Créez une politique de confiance IAM à l'aide du modèle suivant et enregistrez le fichier au format .json.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "cloudformation.amazonaws.com"
                  },
                  "Action": "sts:AssumeRole",
                  "Condition": {}
              }
          ]
      }
      ```

------

   1. Exécutez la **aws iam create-role** commande et transmettez la politique de confiance en tant que paramètre.

      ```
                                          aws iam create-role \
          --role-name AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role
          --assume-role-policy-document file://role-trust-policy.json
      ```

   1. Notez l'*ARN du rôle* renvoyé par la réponse. *le rôle arn* est requis à l'étape suivante.

1. Créez une politique avec l'autorisation de créer une CloudFormation pile.

   1. Créez une politique IAM à l'aide du modèle suivant et enregistrez le fichier au format .json. Ce fichier est obligatoire lors de l'appel à create-policy.

------
#### [ JSON ]

****  

      ```
      {  
          "Version":"2012-10-17",		 	 	   
          "Statement": [  
              {  
                  "Sid": "DeployCloudFormationStack",  
                  "Effect": "Allow",  
                  "Action": [  
                      "cloudformation:CreateStack"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------

   1. Exécutez **aws iam create-policy** et transmettez la politique de création de pile en tant que paramètre.

      ```
                                      aws iam create-policy --policy-name testCreateStackPolicy 
      --policy-document file://create-cloudformation-stack-policy.json
      ```

   1. Notez l'*ARN du rôle* renvoyé par la réponse. *le rôle arn* est requis à l'étape suivante.

1. Attachez la stratégie **aws iam attach-role-policy** au rôle.

   ```
                               aws iam attach-role-policy --role-name {Role name created above}
   --policy-arn {Policy ARN created above}
   ```

1. Créez une CloudFormation pile et entrez les paramètres requis :**aws cloudformation create-stack**.

   Fournissez des valeurs de paramètres pour chaque ParameterKey utilisation ParameterValue.

   ```
                               aws cloudformation create-stack  --capabilities CAPABILITY_NAMED_IAM 
   --stack-name testDeploymentStack 
   --template-url https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKDataLake.yaml 
   --parameters  ParameterKey=S3BucketURI,ParameterValue={S3 URI}
   ParameterKey=DataLakeType,ParameterValue="Create call analytics datalake" 
   ParameterKey=KinesisDataStreamName,ParameterValue={Name of Kinesis Data Stream}
   --role-arn {Role ARN created above}
   ```

#### Ressources créées par la configuration du lac de données
<a name="cf-resources"></a>

Le tableau suivant répertorie les ressources créées lorsque vous créez un lac de données.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/ca-data-lake.html)

# Configuration d'un tableau de bord rapide pour le SDK Amazon Chime
<a name="quicksight-setup-setup"></a>

Une fois que vous avez configuré le lac de données, vous pouvez configurer un tableau de bord rapide avec des métriques prédéfinies qui visualisent vos données. Vous pouvez utiliser les tableaux de bord suivants :
+ **Transcrivez l'analyse des appels et l'analyse vocale**. Les indicateurs incluent des visuels résumés et détaillés pour les turn-by-turn transcriptions, les problèmes détectés, les résultats, la détection des entités et les correspondances d'identifiants de profil vocal.
+ **Transcrivez \$1 Analyse vocale**. Les indicateurs incluent des visuels résumés et détaillés pour les turn-by-turn transcriptions, les correspondances de vocabulaire, le ton vocal et les correspondances d'identifiant de profil vocal.

Les rubriques suivantes expliquent comment configurer un compte Quick si vous n'en avez pas déjà un et comment configurer un tableau de bord.

**Topics**
+ [Création d'un QuickSight compte](#create-quicksight-account)
+ [Configuration de votre QuickSight compte](#configure-qs-acct)
+ [Création d'un QuickSight tableau de bord](#create-qs-dashboard)

## Création d'un QuickSight compte
<a name="create-quicksight-account"></a>

Les étapes décrites dans cette section expliquent comment créer un compte Quick. Si vous avez déjà un compte, vous pouvez passer à[Création d'un QuickSight tableau de bord](#create-qs-dashboard).

Vous pouvez créer un QuickSight compte en :
+ À l'aide CloudFormation de modèles Amazon.
+ À l'aide de la console Amazon Chime SDK.

### Conditions préalables
<a name="qs-account-prereqs"></a>

Rassemblez les informations suivantes avant de commencer :
+ Le nom de votre compartiment Amazon S3 pour l'analyse des appels.
+ Une adresse e-mail de notification. Le système envoie QuickSight des notifications à cette adresse.

### Utiliser CloudFormation des modèles pour créer un compte
<a name="account-by-cft"></a>

Les étapes suivantes expliquent comment créer un compte Quick en déployant un CloudFormation modèle Amazon. Le processus vous permet uniquement de souscrire à un compte Enterprise. Pour plus d'informations sur la tarification, reportez-vous à la section [Tarification rapide](https://aws.amazon.com/quicksight/pricing/).

**Pour déployer le modèle**

1. Démarrez la AWS console et connectez-vous à votre compte AWS.

1. Collez l'URL suivante dans la barre d'adresse de votre navigateur. Assurez-vous de saisir votre région comme indiqué.

   `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightSubscription.yaml`.

1. Sur la page **Création rapide d'une pile**, entrez ce qui suit :

   1. Dans **Stack name**, saisissez le nom de votre compte.

   1. Sous **QuickSightNotificationEmail**l'adresse e-mail que vous avez saisie plus tôt.

   1. Sous **QuickSightSubscriptionForDataVisualization**, choisissez **Créer un nouveau AWS QuickSight compte**.

   1. Sous **S3 BucketName**, entrez le nom de votre compartiment Amazon S3.

   1. Sélectionnez l'option **Je reconnais qu'AWS est CloudFormation susceptible de créer des ressources IAM**. case à cocher.

1. Sélectionnez **Créer la pile**.

   Le système met environ 10 minutes pour créer la pile.

1. Lorsque le build est terminé, choisissez **Go to Quick** et saisissez votre adresse e-mail pour vous connecter à votre compte.

### Utiliser la console pour créer un compte
<a name="account-by-console"></a>

Les étapes suivantes expliquent comment utiliser la console Amazon Chime SDK pour créer un compte Quick. Vous devez utiliser un compte Enterprise ou Enterprise \$1 Q.

**Pour utiliser la console**

1. Démarrez la console Amazon Chime SDK [ https://console.aws.amazon.com/chime-sdk/chez](https://console.aws.amazon.com/chime-sdk/home) vous**QuickSight**, recherchez et choisissez dans les résultats de recherche. **QuickSight**  
![\[Un résultat de recherche qui renvoie à Quick.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/quicksightsetup-1.png)

1. Choisissez **S'inscrire pour QuickSight**. 

1. Choisissez **Enterprise** ou **Enterprise \$1 Q**, puis choisissez **Continuer**.

1. Entrez votre prénom, votre nom de famille, votre numéro de téléphone et l'adresse e-mail que vous avez précédemment collectés, puis choisissez **Continuer**.

1. Procédez comme suit :

   1. Sous **Méthode d'authentification**, choisissez une option. 
**Note**  
Si vous choisissez l'option avec des utilisateurs fédérés, vous devez disposer des autorisations IAM appropriées. Pour plus d'informations, reportez-vous à [la section Inscription à un abonnement rapide](https://docs.aws.amazon.com/quicksight/latest/user/signing-up.html) dans le *Guide de l'utilisateur rapide*.

   1. Sous **QuickSight Région**, sélectionnez une région.

   1. Sous **Informations sur le compte**, entrez le nom du compte et l'adresse e-mail que vous avez collectés précédemment.

   1. Sous **QuickSight Accès aux services AWS**, utilisez le rôle par défaut ou choisissez **Utiliser un rôle existant** et sélectionnez un rôle dans la liste.

   1. (Facultatif) selon les besoins, sous **Autoriser l'accès et la découverte automatique pour ces ressources**, sélectionnez des ressources supplémentaires.

   1. Lorsque vous avez terminé, choisissez **Terminer**.

   1. Lorsque le build est terminé, choisissez **Go to Quick** et saisissez votre adresse e-mail pour vous connecter à votre compte.

## Configuration de votre QuickSight compte
<a name="configure-qs-acct"></a>

Une fois connecté à votre QuickSight compte, vous devez configurer la sécurité et vous ajouter à un groupe créé par le processus de configuration.

**Pour configurer la sécurité**

1. Cliquez sur l'icône de profil dans le coin supérieur droit, puis sélectionnez **Gérer** dans le QuickSight menu qui s'affiche.  
![\[Un menu avec la QuickSight commande Gérer.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Dans le volet de navigation, sélectionnez **Sécurité et autorisations**.

1. Sous **QuickSight Accès aux AWS services**, choisissez **Gérer** et assurez-vous que les services suivants sont sélectionnés.
   + Amazon Redshift
   + Amazon RDS
   + Amazon S3
   + Amazon Athena
   +  IAM

1. **Cliquez sur le lien Select Amazon S3 buckets**.

1. Cochez la case à côté de votre compartiment Amazon S3, puis cochez la case de droite, dans la colonne **Autorisation d'écriture pour le groupe de travail Athena**.

1. Choisissez **Finish** (Terminer).

1. Choisissez **Enregistrer**.

**Pour vous ajouter au groupe**

1. Dans le volet de navigation, choisissez **Gérer les groupes**, puis choisissez le groupe dont le nom **contient Admins**. Par exemple, *S3 BucketName* — **Admins.**

1. Choisissez **Ajouter un utilisateur**, puis entrez votre alias d'e-mail dans le champ qui apparaît.

   Votre nom apparaît sous la forme **Admin, c'est-à-dire** *votre alias*.

1. Choisissez **Ajouter**.

## Création d'un QuickSight tableau de bord
<a name="create-qs-dashboard"></a>

Après avoir créé un lac de données, vous pouvez créer un QuickSight tableau de bord qui visualise vos données. Vous pouvez utiliser un CloudFormation modèle Amazon ou la console Amazon Chime SDK pour créer le tableau de bord. Les étapes suivantes expliquent les deux méthodes.

**Pour utiliser un modèle**

1. Démarrez la CloudFormation console Amazon.

1. Collez le lien suivant dans la barre d'adresse de votre navigateur : `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightDashboards.yaml`

1. Sur la page **Création rapide d'une pile**, sous **Nom de la pile**, entrez le nom du compte.

1. Sous **ActiveQuickSightAccount**, sélectionnez **Vrai**.

1. Sous **QuicksightDashboardSelection**, choisissez **Analyse des appels — Transcrire le tableau de bord des analyses des appels et des analyses vocales ou Analyse des appels — Transcrire le tableau de bord** **des analyses** vocales.

1. Sous **Amazon S3 BucketName**, entrez l'URI de votre compartiment Amazon S3.

1. Sous **GlueDatabaseName**, entrez la base de données Glue sur laquelle vous souhaitez déployer le QuickSight tableau de bord.

1. Cochez la case **Je reconnais qu'AWS CloudFormation pourrait créer des ressources IAM**, puis choisissez **Create stack**.

**Pour configurer un QuickSight tableau de bord manuellement**

1. Accédez à votre QuickSight compte.

1. Dans le coin supérieur droit, choisissez l'icône du profil, puis sélectionnez **Gérer QuickSight**.  
![\[La boîte de dialogue du QuickSight compte et QuickSight la commande Gérer.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Dans le volet de navigation, choisissez **Gérer les groupes**, puis choisissez le groupe créé par le processus de configuration.

1. Choisissez **Ajouter un utilisateur**, entrez votre adresse e-mail, puis choisissez **Ajouter**.

   Le système met 10 minutes pour déployer la page.

1. Utilisez la console Amazon Chime SDK pour vous connecter à votre QuickSight compte et utiliser le tableau de bord.

# Modèle de données d'analyse des appels pour le SDK Amazon Chime
<a name="ca-data-model"></a>

Les informations contenues dans cette section répertorient et décrivent le modèle de données d'analyse des appels du SDK Amazon Chime, un ensemble de tables dans un catalogue de données AWS Glue.

**Topics**
+ [Comprendre la structure des tables du catalogue de AWS Glue données pour le SDK Amazon Chime](ca-data-model-diagram.md)
+ [Comprendre les tables du catalogue de AWS Glue données pour le SDK Amazon Chime](glue-tables.md)
+ [Extraction des données de votre catalogue de AWS Glue données pour l'analyse des appels du SDK Amazon Chime](ca-data-model-queries.md)

# Comprendre la structure des tables du catalogue de AWS Glue données pour le SDK Amazon Chime
<a name="ca-data-model-diagram"></a>

Le schéma suivant montre la structure des tables du catalogue de données AWS Glue créé pour les sessions d'analyse des appels et d'analyse vocale du SDK Amazon Chime.

![\[Les tables du catalogue de données Call Analytics Glue.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/glue-cat-diag-12-03.jpg)


La section suivante répertorie et décrit les tables et les champs du catalogue. 

# Comprendre les tables du catalogue de AWS Glue données pour le SDK Amazon Chime
<a name="glue-tables"></a>

Les tableaux suivants répertorient et décrivent les colonnes, les types de données et les éléments d'un catalogue de données Glue d'analyse des appels du SDK Amazon Chime.

**Topics**
+ [call\$1analytics\$1metadata](#ca-glue-metadata)
+ [call\$1analytics\$1recording\$1metadata](#ca-glue-analytics-recording)
+ [transcribe\$1call\$1analytics](#ca-glue-transcribe-ca)
+ [transcribe\$1call\$1analytics\$1category\$1events](#ca-glue-transcribe-ca-events)
+ [transcribe\$1call\$1analytics\$1post\$1call](#ca-glue-transcribe)
+ [transcribe](#ca-glue-transcribe)
+ [statut de l'analyse vocale](#ca-glue-va-status)
+ [speaker\$1search\$1status](#ca-glue-speaker-status)
+ [statut\$1analyse\$1ton\$1vocal](#ca-glue-tone-status)

## call\$1analytics\$1metadata
<a name="ca-glue-metadata"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## call\$1analytics\$1recording\$1metadata
<a name="ca-glue-analytics-recording"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics
<a name="ca-glue-transcribe-ca"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1category\$1events
<a name="ca-glue-transcribe-ca-events"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1post\$1call
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## transcribe
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## statut de l'analyse vocale
<a name="ca-glue-va-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## speaker\$1search\$1status
<a name="ca-glue-speaker-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

## statut\$1analyse\$1ton\$1vocal
<a name="ca-glue-tone-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/glue-tables.html)

# Extraction des données de votre catalogue de AWS Glue données pour l'analyse des appels du SDK Amazon Chime
<a name="ca-data-model-queries"></a>

Utilisez ces exemples de requêtes pour extraire et organiser les données de votre catalogue de données Glue pour l'analyse des appels du SDK Amazon Chime. 

**Note**  
Pour plus d'informations sur la connexion à Amazon Athena et l'interrogation de votre catalogue de données Glue, consultez la section [Connexion à Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/connect-with-odbc.html) avec ODBC.

Développez chaque section selon vos besoins.

## Extraction de valeurs à partir de métadonnées (type de données STRING) dans la table call\$1analytics\$1metadata
<a name="qry-insights-metadata"></a>

`call_analytics_metadata`contient le `metadata` champ au format de chaîne JSON. Utilisez la [fonction json\$1extract\$1scalar](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) dans Athena pour interroger les éléments de cette chaîne.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
```

## Interrogation des SIPRECMetadata mises à jour dans la table call\$1analytics\$1metadata
<a name="qry-insights-siprec-metadata"></a>

Le `call_analytics_metadata` champ de métadonnées du champ est au format de chaîne JSON. `metadata`possède un autre objet imbriqué appelé`oneTimeMetadata`, cet objet contient des SIPRec métadonnées au format XML d'origine et au format JSON transformé. Utilisez la `json_extract_scalar` fonction d'Athena pour interroger les éléments de cette chaîne.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadata') AS "siprec Metadata XML",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadataJson') AS "Siprec Metadata JSON",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.inviteHeaders') AS "Invite Headers"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
WHERE 
    callevent-type = "update";
```

## Extraction de valeurs à partir de métadonnées (type de données STRING) dans la table call\$1analytics\$1recording\$1metadata
<a name="qry-recording-metadata"></a>

`call_analytics_recording_metadata`possède le champ de métadonnées au format de chaîne JSON. Utilisez la [fonction json\$1extract\$1scalar](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) dans Athena pour interroger les éléments de cette chaîne.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_recording_metadata"
WHERE 
    detail-subtype = "Recording"
```

## Extraction de valeurs à partir du détail (type de données STRUCT) dans la table voice\$1analytics\$1status
<a name="qry-va-status"></a>

`voice_analytics_status`comporte un champ de détails dans le type de `struct` données. L'exemple suivant montre comment interroger un champ de type de `struct` données :

```
SELECT
    detail.transactionId AS "Transaction ID",
    detail.voiceConnectorId AS "VoiceConnector ID",
    detail.siprecmetadata AS "Siprec Metadata",
    detail.inviteheaders AS "Invite Headers",
    detail.streamStartTime AS "Stream Start Time"
FROM 
    "GlueDatabaseName"."voice_analytics_status"
```

## Joindre les tables voice\$1analytics\$1status et call\$1analytics\$1metadata
<a name="qry-join-va-meta"></a>

L'exemple de requête suivant joint `call_analytics_metadata` et `voice_analytics_status` :

```
SELECT
    a.detail.transactionId AS "Transaction ID",
    a.detail.voiceConnectorId AS "VoiceConnector ID",
    a.detail.siprecmetadata AS "Siprec Metadata",
    a.detail.inviteheaders AS "Invite Headers",
    a.detail.streamStartTime AS "Stream Start Time"
    json_extract_scalar(b.metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(b.metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(b.metadata,'$.callId') AS "Call ID",
    json_extract_scalar(b.metadata,'$.direction') AS Direction
FROM 
    "GlueDatabaseName"."voice_analytics_status" a
INNER JOIN 
    "GlueDatabaseName"."call_analytics_metadata" b
ON a.detail.transactionId = json_extract_scalar(b.metadata,'$.transactionId')
```

## Extraction des transcriptions de la table transcribe\$1call\$1analytics\$1post\$1call
<a name="qry-transcribe-ca-post-call"></a>

transcribe\$1call\$1analytics\$1post\$1call possède un champ de transcription au format structure avec des tableaux imbriqués. Utilisez la requête suivante pour dé-imbriquer les tableaux :

```
SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
```

## Joindre les tables transcribe\$1call\$1analytics\$1post\$1call et call\$1analytics\$1metadata
<a name="qry-va-status"></a>

La requête suivante joint transcribe\$1call\$1analytics\$1post\$1call et call\$1analytics\$1metadata :

```
WITH metadata AS(
  SELECT 
    from_iso8601_timestamp(time) AS "Timestamp",
    date_parse(date_format(from_iso8601_timestamp(time), '%m/%d/%Y %H:%i:%s') , '%m/%d/%Y %H:%i:%s') AS "DateTime",
    date_parse(date_format(from_iso8601_timestamp(time) , '%m/%d/%Y') , '%m/%d/%Y') AS "Date",
    date_format(from_iso8601_timestamp(time) , '%H:%i:%s')  AS "Time",
    mediainsightspipelineid,
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    REGEXP_REPLACE(REGEXP_EXTRACT(json_extract_scalar(metadata,'$.oneTimeMetadata.s3RecordingUrl'), '[^/]+(?=\.[^.]+$)'), '\.wav$', '') AS "SessionID"
  FROM 
    "GlueDatabaseName"."call_analytics_metadata"
),
transcript_events AS(
  SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
  FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
  CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
)
SELECT 
    jobstatus,
    languagecode,
    a.utteranceId,
    transcript,
    accountid,
    channel,
    a.sessionid,
    "Redaction"
    "Timestamp",
    "DateTime",
    "Date",
    "Time",
    mediainsightspipelineid,
    "To Number",
    "VoiceConnector ID",
    "From Number",
    "Call ID",
    Direction,
    "Transaction ID"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" a
LEFT JOIN 
    metadata b
ON 
    a.sessionid = b.SessionID
```

## Interrogation d'un objet multimédia URLs pour l'enregistrement d'appels avec amélioration vocale
<a name="qry-voice-enhancement-call-recording"></a>

L'exemple de requête suivant joint `Voice enhancement call recording` l'URL :

```
SELECT 
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    s3MediaObjectConsoleUrl
FROM
    {GlueDatabaseName}."call_analytics_recording_metadata"
WHERE
    detail-subtype = "VoiceEnhancement"
```

# Utilisation de l'analyse vocale du SDK Amazon Chime
<a name="voice-analytics"></a>

La fonctionnalité d'analyse vocale du SDK Amazon Chime vous permet de mettre en œuvre la recherche de locuteurs et l'analyse du ton vocal. Vous utilisez la recherche de locuteurs pour identifier et inscrire de nouveaux appelants, ainsi que pour identifier les appelants récurrents et attribuer un score de confiance à ces identifications. Vous utilisez l'analyse du ton vocal pour prédire le sentiment d'un appelant sous la forme `negative``neutral`, ou`positive`.

Vous exécutez l'analyse vocale en tant que composant facultatif d'une session d'analyse des appels du SDK Amazon Chime.

L'analyse vocale fonctionne avec les pipelines d'informations sur les médias ou les appels Amazon Chime SDK Voice Connectors. Nous vous recommandons d'utiliser le [SDK Media Pipelines](media-pipelines.md) et d'invoquer des tâches sur un pipeline d'informations sur les médias pour un contrôle plus précis des tâches et des informations les concernant.

Vous pouvez utiliser des connecteurs vocaux pour garantir la rétrocompatibilité, mais nous ne mettons à jour le pipeline d'informations sur les médias qu' APIs avec de nouvelles fonctionnalités.

Pour plus d'informations sur la création et l'utilisation de connecteurs vocaux, consultez [la section Gestion des connecteurs vocaux du SDK Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) dans le guide de l'administrateur du SDK *Amazon Chime*.

L'analyse vocale fournit également :
+ Traitement asynchrone des tâches. Les tâches s'exécutent indépendamment les unes des autres.
+ Contrôlez le moment où vous traitez les informations.

Vous pouvez lancer l'analyse vocale en appelant le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

Les rubriques suivantes expliquent comment utiliser l'analyse vocale.

**Topics**
+ [Comprendre l'architecture d'analyse vocale pour le SDK Amazon Chime](va-architecture.md)
+ [Comprendre le flux de recherche de haut-parleurs pour le SDK Amazon Chime](va-data-flow.md)
+ [Exemple de flux de travail d'analyse des tonalités vocales pour le SDK Amazon Chime](va-tone-flow.md)
+ [Sondage des résultats des tâches pour le SDK Amazon Chime](va-task-result-poll.md)
+ [Comprendre les notifications pour le SDK Amazon Chime](va-notification-targets.md)
+ [Comprendre les politiques de stockage, de désinscription et de conservation des données pour le SDK Amazon Chime](va-opt-out.md)
+ [Utilisation APIs de la voix pour exécuter des analyses vocales pour le SDK Amazon Chime](va-in-voice-namespace.md)

# Comprendre l'architecture d'analyse vocale pour le SDK Amazon Chime
<a name="va-architecture"></a>

Les rubriques de cette section fournissent une vue d'ensemble de l'architecture d'analyse vocale du SDK Amazon Chime, y compris les flux de données pour chaque fonctionnalité.

Ce diagramme fournit une vue d'ensemble de la manière dont les données circulent dans le cadre de l'analyse vocale.

![\[Schéma illustrant le flux de données de haut niveau via l'analyse vocale.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/va-architecture-kvs.png)


Dans le schéma :

1. Le son est diffusé sur un flux vidéo Kinesis destiné à l'appelant et à l'agent. Pour ce faire, vous pouvez utiliser un producteur Kinesis Video Streams ou le streaming Amazon Chime SDK Voice Connector. *Pour plus d'informations, consultez ce guide et [diffusez du contenu multimédia Amazon Chime SDK Voice Connector vers Kinesis [Comprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime](ml-based-analytics.md) dans le guide de l'administrateur du](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) SDK Amazon Chime.*

1. Une application ou un générateur déclenche la recherche de haut-parleurs, l'analyse de la tonalité vocale, ou les deux, pour le flux audio après le consentement de l'appelant.

1. Pendant l'appel, l'analyse vocale envoie des notifications à une cible, à savoir Amazon Simple Queue Service (SQS), Amazon Simple Notification Service (SNS), Lambda ou Amazon Kinesis Data Streams AWS .

En outre, l'analyse vocale fournit ces outils pour gérer les données qu'elle génère.

**Profils vocaux**  
Combinaison d'une intégration vocale, de l'identifiant unique de l'intégration et de sa date d'expiration. Les profils vocaux expirent au bout de trois ans pour des raisons de sécurité et parce que les voix changent au fil du temps. Pour éviter de recréer des profils vocaux, appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API. Pour plus d'informations sur les dates d'expiration, consultez[Comprendre la conservation des données pour les analyses vocales du SDK Amazon Chime](va-data-retention.md).  
Pour inscrire une intégration vocale ou pour mettre à jour une intégration vocale inscrite, vous devez appeler le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs dans les 24 heures suivant la fin de l'appel. 

**Domaines de profil vocal**  
Une collection de profils vocaux.

# Comprendre le flux de recherche de haut-parleurs pour le SDK Amazon Chime
<a name="va-data-flow"></a>

Dans cette section, nous vous présentons un exemple de flux de données et de programmes pour une analyse de recherche de haut-parleurs dans le SDK Amazon Chime.

La fonction de recherche de locuteurs implique la création d'une intégration vocale, qui peut être utilisée pour comparer la voix d'un appelant aux données vocales précédemment stockées. La collecte, l'utilisation, le stockage et la conservation d'identifiants biométriques et d'informations biométriques sous forme d'empreinte vocale numérique peuvent nécessiter le consentement éclairé de l'appelant sous forme d'une autorisation écrite. Ce consentement est requis en vertu de diverses lois d'État, notamment les lois biométriques de l'Illinois, du Texas, de Washington et d'autres lois sur la protection de la vie privée. Avant d'utiliser la fonction de recherche de conférenciers, vous devez fournir toutes les notifications et obtenir tous les consentements conformément à la loi applicable et aux [conditions de service AWS](https://aws.amazon.com/service-terms/) régissant votre utilisation de cette fonctionnalité. 

Le schéma suivant montre un exemple de flux de données via une tâche d'analyse de recherche de locuteurs. Les descriptions numérotées situées sous le schéma décrivent chaque étape du processus. Le schéma suppose que vous avez déjà configuré un connecteur vocal du SDK Amazon Chime avec une configuration d'analyse des appels dotée d'un. `VoiceAnalyticsProcessor` Pour de plus amples informations, veuillez consulter [Enregistrement des appels via le connecteur vocal](record-vc-calls.md).

![\[Schéma illustrant le flux de données lors d'une analyse de recherche de locuteurs.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/speaker-search-workflow-2.png)


1. Vous ou un administrateur système créez un domaine de profil vocal pour stocker les intégrations vocales et les profils vocaux. Pour plus d'informations sur la création de domaines de profils vocaux, consultez la section [Création de domaines de profils vocaux](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-vp-domain.html) dans le guide de l'administrateur du *SDK Amazon Chime*. Vous pouvez également utiliser l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html)API.

1. Un appelant se connecte en utilisant un numéro de téléphone attribué à un connecteur vocal Amazon Chime SDK. Ou bien, un agent utilise un numéro de connecteur vocal pour passer un appel sortant.

1. Le service Amazon Chime SDK Voice Connector crée un identifiant de transaction et l'associe à l'appel.

1. En supposant que votre application soit abonnée aux EventBridge événements, elle appelle l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API avec la configuration du pipeline Media Insights et Kinesis Video ARNs Stream pour l'appel Voice Connector.

   Pour plus d'informations sur l'utilisation EventBridge, reportez-vous à[Comprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime](ml-based-analytics.md).

1. Votre application, comme un système de réponse vocale interactive, ou votre agent informe l'appelant concernant l'enregistrement des appels et l'utilisation d'intégrations vocales à des fins d'analyse vocale et sollicite son consentement pour participer.

1. Une fois que l'appelant a donné son consentement, votre application ou votre agent peut appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API via le [SDK vocal](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) si vous disposez d'un connecteur vocal et d'un identifiant de transaction. Ou, si vous avez un ID de pipeline Media Insights au lieu d'un ID de transaction, vous appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API dans le [SDK Media Pipelines](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html).

   Une fois que l'appelant a donné son consentement, votre application ou votre agent appelle l'`StartSpeakerSearchTask`API. Vous devez transmettre l'identifiant du connecteur vocal, l'identifiant de transaction et l'identifiant de domaine du profil vocal à l'API. Un identifiant de tâche de recherche de haut-parleurs est renvoyé pour identifier la tâche asynchrone.
**Note**  
Avant d'invoquer l'`StartSpeakerSearchTask`API dans l'un ou l'autre des SDKs, vous devez fournir les notifications nécessaires et obtenir les consentements nécessaires, conformément à la loi et aux conditions de [service AWS](https://aws.amazon.com/service-terms/).

1. Le système accumule 10 secondes de la voix de l'appelant. L'appelant doit parler pendant au moins ce laps de temps. Le système ne capture ni n'analyse le silence.

1. Le pipeline d'informations sur les médias compare le discours aux profils vocaux du domaine et répertorie les 10 meilleures correspondances fiables. S'il ne trouve aucune correspondance, le connecteur vocal crée un profil vocal.

1. Le service Media Insights Pipeline envoie un événement de notification aux cibles de notification configurées.

1. L'appelant continue à parler et prononce 10 secondes supplémentaires sans silence.

1. Le pipeline d'informations sur les médias génère une intégration vocale d'inscription que vous pouvez utiliser pour créer un profil vocal ou mettre à jour un profil vocal existant.

1. Le pipeline Media Insights envoie une `VoiceprintGenerationSuccessful` notification aux cibles de notification configurées.

1. Votre application appelle le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)ou [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs pour créer ou mettre à jour le profil.

1. Votre application appelle l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)API selon les besoins pour obtenir le dernier statut de la tâche de recherche de haut-parleurs.

# Exemple de flux de travail d'analyse des tonalités vocales pour le SDK Amazon Chime
<a name="va-tone-flow"></a>

**Important**  
L'analyse du ton vocal consiste à faire des prédictions sur le sentiment d'un locuteur sur la base d'informations linguistiques et tonales. Vous ne devez pas utiliser l'analyse des sentiments d'une manière interdite par la loi, notamment pour prendre des décisions concernant une personne qui auraient des répercussions juridiques ou similaires importantes sur cette personne (par exemple, liées à l'emploi, au logement, à la solvabilité ou aux offres financières, etc.). 

L'analyse du ton vocal analyse les voix des personnes lors d'un appel et prédit leur sentiment, soit `positive``negative`, soit`neutral`.

Le schéma suivant montre un exemple de flux de travail pour une analyse de tonalité vocale. Les éléments numérotés situés sous l'image décrivent chaque étape du processus.

**Note**  
Le schéma suppose que vous avez déjà configuré un connecteur vocal du SDK Amazon Chime avec une configuration d'analyse des appels dotée d'un. `VoiceAnalyticsProcessor` Pour de plus amples informations, veuillez consulter [Enregistrement des appels via le connecteur vocal](record-vc-calls.md).

![\[Schéma illustrant le flux de données par le biais d'une analyse de tonalité vocale.\]](http://docs.aws.amazon.com/fr_fr/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


Dans le schéma :

1. Un appelant se connecte en utilisant un numéro de téléphone attribué à un connecteur vocal Amazon Chime SDK. Ou bien, un agent utilise un numéro de connecteur vocal pour passer un appel sortant.

1. Le service Voice Connector crée un identifiant de transaction et l'associe à l'appel.

1. Votre application, comme un système de réponse vocale interactive, ou votre agent informe l'appelant concernant l'enregistrement des appels et l'utilisation d'intégrations vocales à des fins d'analyse vocale et sollicite son consentement pour participer.

1. En supposant que votre application soit abonnée aux EventBridge événements, elle appelle l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API avec la configuration du pipeline Media Insights et Kinesis Video ARNs Stream pour l'appel Voice Connector.

   Pour plus d'informations sur l'utilisation EventBridge, reportez-vous à[Comprendre les flux de travail pour les analyses basées sur l'apprentissage automatique pour le SDK Amazon Chime](ml-based-analytics.md).

1. Une fois que l'appelant a donné son consentement, votre application ou votre agent peut appeler l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API via le [SDK vocal](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) si vous disposez d'un connecteur vocal et d'un identifiant de transaction. Ou, si vous avez un ID de pipeline Media Insights au lieu d'un ID de transaction, vous appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API dans le [SDK Media Pipelines](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html).

   Une fois que l'appelant a donné son consentement, votre application ou votre agent appelle l'`StartSpeakerSearchTask`API. Vous devez transmettre l'identifiant du connecteur vocal, l'identifiant de transaction et l'identifiant de domaine du profil vocal à l'API. Un identifiant de tâche de recherche de haut-parleurs est renvoyé pour identifier la tâche asynchrone.

1. L'utilisateur parle tout au long de l'appel.

1. L'agent parle tout au long de l'appel.

1. Toutes les 5 secondes, le pipeline d'informations sur les médias utilise un modèle d'apprentissage automatique pour analyser les 30 dernières secondes du discours et prévoir le ton de l'appelant pendant cet intervalle, et pour l'ensemble de l'appel depuis le `StartVoiceToneAnalysisTask` premier appel.

1. Le pipeline Media Insights envoie une notification contenant ces informations aux cibles de notification configurées. Vous pouvez identifier la notification en fonction de son ARN de flux et de son identifiant de canal. Pour plus d'informations, reportez-vous à[Comprendre les notifications pour le SDK Amazon Chime](va-notification-targets.md), plus loin dans cette section.

1. Répétez les étapes 9 et 10 jusqu'à la fin de l'appel.

1. À la fin de l'appel, le pipeline Media Insights envoie une dernière notification avec la prédiction de tonalité moyenne actuelle pour les 30 dernières secondes, plus la tonalité moyenne de l'ensemble de l'appel.

1. Votre application appelle l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API selon les besoins pour obtenir le dernier statut de la tâche d'analyse des tonalités vocales. 
**Note**  
L'`GetVoiceToneAnalysisTask`API ne diffuse pas les données de tonalité.

**Note**  
L'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API ne renvoie pas de données de tonalité vocale.

# Sondage des résultats des tâches pour le SDK Amazon Chime
<a name="va-task-result-poll"></a>

**Important**  
Par défaut, l'analyse vocale rend les résultats disponibles pendant 7 jours, puis les données sont automatiquement supprimées. Vous devez stocker les données de vos tâches si vous souhaitez les utiliser plus longtemps ou pour respecter les lois sur la conservation des données. Pour plus d'informations[Comprendre la conservation des données pour les analyses vocales du SDK Amazon Chime](va-data-retention.md), reportez-vous à la section suivante de ce guide.

L'analyse vocale essaie de garantir au moins une livraison du résultat de chaque tâche. Cependant, les problèmes de réseau peuvent augmenter le temps de latence. Pour contourner les problèmes potentiels, ou si vous préférez des processus synchrones, vous pouvez utiliser les éléments suivants APIs dans le SDK [Media Pipelines ou dans le SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) [Voice :](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html)
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html) 
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html)
**Important**  
L'`GetVoiceToneAnalysisTask`API renvoie uniquement le statut d'une tâche. Il ne renvoie pas les résultats des tâches. Pour voir les résultats, utilisez une cible de notification Amazon SQS, Amazon SNS ou AWS Lambda.

L'`GetSpeakerSearchTask`API obtient les derniers résultats de manière synchrone pour un ID de tâche, des messages différés ou des messages qui arrivent hors ordre. Nous recommandons toutefois d'utiliser des cibles de notification et un traitement asynchrone. Cela consomme moins de ressources informatiques.

# Comprendre les notifications pour le SDK Amazon Chime
<a name="va-notification-targets"></a>

L'analyse vocale envoie automatiquement des événements à une cible lorsque les tâches de recherche de locuteurs ou d'analyse de tonalité vocale commencent, pendant leur exécution et lorsqu'elles se terminent. Vous utilisez des cibles de notification pour recevoir ces événements. Nous vous recommandons d'utiliser plusieurs cibles de notification si votre flux de travail ou votre application nécessite une haute disponibilité.

Vous devez également utiliser un rôle IAM avec les politiques nécessaires pour accéder à vos cibles de notification. Pour de plus amples informations, veuillez consulter [Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime](call-analytics-resource-access-role.md).

**Note**  
Pour Amazon SQS et Amazon SNS, nous ne prenons pas en charge les files d'attente. first-in-first-out Par conséquent, les messages peuvent arriver dans le mauvais ordre. Nous vous recommandons de vérifier les horodatages pour classer les messages selon les besoins, et de conserver les messages dans un magasin de données tel qu'Amazon DynamoDB. Vous pouvez également utiliser le bouton Obtenir APIs décrit dans [Sondage des résultats des tâches pour le SDK Amazon Chime](va-task-result-poll.md) pour recevoir les derniers résultats.

Le tableau suivant répertorie les événements et les types de détails correspondants.


| Événement de notification | Type de détail | 
| --- | --- | 
| Métadonnées d'analyse vocale | `VoiceAnalyticsStatus` | 
| Recherche de haut-parleurs | `SpeakerSearchStatus` | 
| Analyse du ton des voix | `VoiceToneAnalysisStatus` | 

# Comprendre les politiques IAM relatives aux cibles de notification pour le SDK Amazon Chime
<a name="va-iam-target-policies"></a>

Dans le rôle IAM d'une configuration Call Analytics, vous devez utiliser des politiques qui autorisent l'accès à vos cibles de notification Amazon SQS, Amazon SNS, AWS Lambda ou Amazon KDS. Pour plus d’informations, consultez [Utilisation du rôle d'accès aux ressources d'analyse des appels pour le SDK Amazon Chime](call-analytics-resource-access-role.md) dans ce guide.

## Événements de recherche de conférenciers
<a name="va-speaker-search-events"></a>

Les événements de recherche de conférenciers sont de type `SpeakerSearchStatus` détaillé.

Les connecteurs vocaux du SDK Amazon Chime envoient les événements de recherche de haut-parleurs suivants :
+ Allumettes d'identification
+ Génération d'intégration vocale

Les événements peuvent avoir les statuts suivants :
+ `IdentificationSuccessful`— Identification réussie d'au moins un identifiant de profil vocal correspondant avec un score de confiance élevé dans le domaine de profil vocal donné.
+ `IdentificationFailure`— Impossible d'effectuer l'identification. Causes : l'appelant ne parle pas pendant au moins 10 secondes, qualité audio médiocre.
+ `IdentificationNoMatchesFound`— Impossible de trouver une correspondance avec un niveau de confiance élevé dans le domaine de profil vocal donné. L'appelant est peut-être nouveau ou sa voix a peut-être changé.
+ `VoiceprintGenerationSuccessful`— Le système a généré une intégration vocale en utilisant 20 secondes de son non silencieux.
+ `VoiceprintGenerationFailure`— Le système n'a pas réussi à générer d'intégration vocale. Causes : l'appelant ne parle pas pendant au moins 20 secondes, qualité audio médiocre.

### Allumettes d'identification
<a name="va-id-matches"></a>

Une fois que l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API est appelée pour une donnée`transactionId`, le service Voice Connector renvoie une notification de correspondance d'identification après 10 secondes de conversation silencieuse. Le service renvoie les 10 meilleures correspondances, ainsi qu'un identifiant de profil vocal et un score de confiance compris entre [0, 1]. Plus le score de confiance est élevé, plus il est probable que le locuteur de l'appel corresponde à l'identifiant du profil vocal. Si le modèle d'apprentissage automatique ne trouve aucune correspondance, le `detailStatus` champ de notification contient`IdentificationNoMatchesFound`.

L'exemple suivant montre une notification en cas de correspondance réussie.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

### Génération d'intégration vocale
<a name="va-voice-print-generation"></a>

Après 10 secondes supplémentaires de parole non silencieuse, le connecteur vocal envoie une notification de génération d'intégration vocale aux cibles de notification. Vous pouvez inscrire de nouvelles intégrations vocales dans un profil vocal ou mettre à jour une impression déjà présente dans un profil vocal.

L'exemple suivant montre la notification d'une correspondance réussie, ce qui signifie que vous pouvez mettre à jour le profil vocal associé.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

## Événements d'analyse du ton vocal
<a name="va-tone-status"></a>

Les événements d'analyse de tonalité vocale sont de type `VoiceToneAnalysisStatus` détaillé. Les analyses peuvent renvoyer les statuts suivants :
+ `VoiceToneAnalysisSuccessful`— Analyse réussie des voix de l'appelant et de l'agent en fonction des probabilités de sentiment (positif, négatif ou neutre).
+ `VoiceToneAnalysisFailure`— Impossible d'effectuer l'analyse de tonalité. Cela peut se produire si l'appelant se bloque sans parler pendant 10 secondes ou si la qualité audio devient trop mauvaise.
+ `VoiceToneAnalysisCompleted`— Analyse réussie des voix de l'utilisateur et de l'agent en fonction des probabilités de sentiment pendant toute la durée de l'appel. Il s'agit du dernier événement, envoyé lorsque l'analyse de la tonalité vocale est terminée.

L'exemple suivant montre un événement typique d'analyse de tonalité vocale.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
        "startFragmentNumber": "01234567890123456789",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

## Récapitulatif des événements après l'appel
<a name="va-post-call-summary-events"></a>

Les événements récapitulatifs post-appel sont envoyés 5 minutes après la fin de l'appel. Ces résumés fournissent un aperçu des tâches de recherche de locuteurs effectuées tout au long de l'appel.

L'exemple suivant montre un résumé après un appel avec la meilleure correspondance au profil vocal, l'identité confirmée du locuteur et une liste des profils vocaux créés ou mis à jour par le biais des appels `CreateVoiceProfile` et de l'`UpdateVoiceProfile`API effectués pendant l'appel.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "VoiceAnalyticsStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",    
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "PostCallVoiceAnalytics",
        "callId": "22e8dee8-bbd7-4f94-927b-2d0ebaeddc1c",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "isCaller": true | false,
        "speakerSearchResults": {
            "bestMatchedVoiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "customerValidatedCallerIdentity": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "createVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z"
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ],
            "updateVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ]
        }
    }
}
```

# Exemple de fonction Lambda d'analyse vocale pour le SDK Amazon Chime
<a name="va-sample-lambda"></a>

Le code Python de l'exemple suivant traite les notifications reçues d'un connecteur vocal. Vous pouvez ajouter le code à une fonction AWS Lambda. Vous pouvez également l'utiliser pour déclencher votre file d'attente Amazon SQS, votre rubrique Amazon SNS ou Amazon Kinesis Data Stream. Vous pouvez ensuite enregistrer les notifications dans un fichier `EventTable` pour un traitement futur. Pour connaître les formats de notification exacts, voir[Comprendre les notifications pour le SDK Amazon Chime](va-notification-targets.md).

```
import base64
import boto3
import json
import logging
import time

from datetime import datetime
from enum import Enum

log = logging.getLogger()
log.setLevel(logging.INFO)

dynamo = boto3.client("dynamodb")

EVENT_TABLE_NAME = "EventTable"

class EventType(Enum):
    """
    This example code uses a single Lambda processor to handle either
    triggers from SQS, SNS, Lambda, or Kinesis. You can adapt it to fit your
    desired infrastructure depending on what you prefer. To distinguish
    where we get events from, we use an EventType enum as an
    example to show the different ways of parsing the notifications.
    """
    SQS = "SQS"
    SNS = "SNS"
    LAMBDA = "LAMBDA"
    KINESIS = "KINESIS"


class AnalyticsType(Enum):
    """
    Define the various analytics event types that this Lambda will
    handle.
    """
    SPEAKER_SEARCH = "SpeakerSearch"
    VOICE_TONE_ANALYSIS = "VoiceToneAnalysis"
    ANALYTICS_READY = "AnalyticsReady"
    UNKNOWN = "UNKNOWN"
 
   
class DetailType(Enum):
    """
    Define the  various detail types that Voice Connector's voice
    analytics feature can return.
    """
    SPEAKER_SEARCH_TYPE = "SpeakerSearchStatus"
    VOICE_TONE_ANALYSIS_TYPE = "VoiceToneAnalysisStatus"
    ANALYTICS_READY = "VoiceAnalyticsStatus"
 

def handle(event, context):
    """
    Example of how to handle incoming Voice Analytics notification messages
    from Voice Connector.
    """
    logging.info(f"Received event of type {type(event)} with payload {event}")
    is_lambda = True
    
    # Handle triggers from SQS, SNS, and KDS. Use the below code if you would like
    # to use this Lambda as a trigger for an existing SQS queue, SNS topic or Kinesis
    # stream.
    if "Records" in event:
        logging.info("Handling event from SQS or SNS since Records exists")
        is_lambda = False
        for record in event.get("Records", []):
            _process_record(record)
    
    # If you would prefer to have your Lambda invoked directly, use the
    # below code to have the Voice Connector directly invoke your Lambda.
    # In this scenario, there are no "Records" passed.
    if is_lambda:
        logging.info(f"Handling event from Lambda")
        event_type = EventType.LAMBDA
        _process_notification_event(event_type, event)


def _process_record(record):
    # SQS and Kinesis use eventSource.
    event_source = record.get("eventSource")
    
    # SNS uses EventSource.
    if not event_source:
        event_source = record.get("EventSource")

    # Assign the event type explicitly based on the event source value.
    event_type = None
    if event_source == "aws:sqs":
        event = record["body"]
        event_type = EventType.SQS
    elif event_source == "aws:sns":
        event = record["Sns"]["Message"]
        event_type = EventType.SNS
    elif event_source == "aws:kinesis":
        raw_data = record["kinesis"]["data"]
        raw_message = base64.b64decode(raw_data).decode('utf-8')
        event = json.loads(raw_message)
        event_type = EventType.KINESIS
    else:
        raise Exception(f"Event source {event_source} is not supported")

    _process_notification_event(event_type, event)


def _process_notification_event(
    event_type: EventType,
    event: dict
):
    """
    Extract the attributes from the Voice Analytics notification message
    and store it as a DynamoDB item to process later.
    """
    message_id = event.get("id")
    analytics_type = _get_analytics_type(event.get("detail-type"))
    pk = None
    if analytics_type == AnalyticsType.ANALYTICS_READY.value or analytics_type == AnalyticsType.UNKNOWN.value:
        transaction_id = event.get("detail").get("transactionId")
        pk = f"transactionId#{transaction_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    else:
        task_id = event.get("detail").get("taskId")
        pk = f"taskId#{task_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    logging.info(f"Generated PK {pk}")
    _create_request_record(pk, message_id, json.dumps(event))


def _create_request_record(pk: str, sk: str, body: str):
    """
    Record this notification message into the Dynamo db table
    """
    try:
        # Use consistent ISO8601 date format.
        # 2019-08-01T23:09:35.369156 -> 2019-08-01T23:09:35.369Z
        time_now = (
            datetime.utcnow().isoformat()[:-3] + "Z"
        )
        response = dynamo.put_item(
            Item={
                "PK": {"S": pk},
                "SK": {"S": sk},
                "body": {"S": body},
                "createdOn": {"S": time_now},
            },
            TableName=EVENT_TABLE_NAME,
        )
        logging.info(f"Added record in table {EVENT_TABLE_NAME}, response : {response}")
    except Exception as e:
        logging.error(f"Error in adding record: {e}")


def _get_analytics_type(detail_type: str):
    """
    Get analytics type based on message detail type value.
    """
    if detail_type == DetailType.SPEAKER_SEARCH_TYPE.value:
        return AnalyticsType.SPEAKER_SEARCH.value
    elif detail_type == DetailType.VOICE_TONE_ANALYSIS_TYPE.value:
        return AnalyticsType.VOICE_TONE_ANALYSIS.value
    elif detail_type == DetailType.ANALYTICS_READY.value:
        return AnalyticsType.ANALYTICS_READY.value
    else:
        return AnalyticsType.UNKNOWN.value
```

**Important**  
Vous devez obtenir le consentement avant d'appeler le bloc [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)opératoire [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html) APIs. Nous vous recommandons de conserver les événements dans une zone d'attente, telle qu'Amazon DynamoDB, jusqu'à ce que vous obteniez votre consentement.

# Comprendre les politiques de stockage, de désinscription et de conservation des données pour le SDK Amazon Chime
<a name="va-opt-out"></a>

Le SDK Amazon Chime utilise les données vocales pour fournir et améliorer le service de recherche de haut-parleurs. Dans ce cadre, nous utilisons le son d'inscription, les extraits enregistrés utilisés pour créer des intégrations vocales, pour entraîner nos modèles d'apprentissage automatique et d'intelligence artificielle. Vous pouvez refuser que vos données soient utilisées pour entraîner les modèles, et les rubriques de cette section expliquent comment procéder.

**Topics**
+ [Comprendre le stockage des données pour la recherche de haut-parleurs pour le SDK Amazon Chime](speaker-search-data-storage.md)
+ [Gestion des désabonnements pour la recherche de haut-parleurs pour le SDK Amazon Chime](va-handle-opt-outs.md)
+ [Comprendre la conservation des données pour les analyses vocales du SDK Amazon Chime](va-data-retention.md)

# Comprendre le stockage des données pour la recherche de haut-parleurs pour le SDK Amazon Chime
<a name="speaker-search-data-storage"></a>

Le SDK Amazon Chime stocke les données suivantes pour la recherche de haut-parleurs :
+ Les intégrations vocales associées aux profils vocaux que nous utilisons pour fournir la fonctionnalité de recherche de locuteurs.
+ Audio d'inscription, extraits de discours enregistrés utilisés pour créer les intégrations vocales pour chaque profil vocal. Nous utilisons les enregistrements audio des inscriptions pour :
  + Maintenez les modèles de recherche de haut-parleurs à jour, élément essentiel de la fonctionnalité de recherche de haut-parleurs.
  + Formez le modèle d'apprentissage automatique pour développer et améliorer le service. L'utilisation de l'audio d'inscription pour les formations est facultative, et vous pouvez vous opposer à cette utilisation en sélectionnant une politique de désinscription, comme décrit dans la section suivante.

# Gestion des désabonnements pour la recherche de haut-parleurs pour le SDK Amazon Chime
<a name="va-handle-opt-outs"></a>

Vous pouvez gérer les désinscriptions pour les utilisateurs finaux et pour l'ensemble des organisations. Les effets de la désactivation sont les suivants :
+ Après votre désinscription, l'analyse vocale n'utilisera aucun nouveau son d'inscription pour la formation des modèles, ni aucun audio d'inscription collecté et stocké avant votre désinscription.
+ Après votre désinscription, l'analyse vocale stockera et utilisera le son d'inscription afin de fournir le service de recherche de locuteurs.

**Avertissement**  
Les actions de désinscription suivantes sont irréversibles. Vous ne pouvez pas récupérer les données supprimées.

**Gestion des désinscriptions des utilisateurs finaux**  
Lorsque les utilisateurs finaux souhaitent désactiver la recherche de haut-parleurs, appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html)API. Cette action supprime le profil vocal, ainsi que les intégrations vocales et le son d'inscription.

Pour supprimer un groupe d'intégrations vocales, appelez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html)API pour supprimer le domaine. Cette action supprime *tous les* profils vocaux d'un domaine.

**Gestion de la désinscription au niveau de l'organisation**  
Pour gérer les désinscriptions pour l'ensemble d'une organisation, utilisez une politique de désinscription AWS des Organisations. Utilisez le nom du `chimesdkvoiceanalytics` service. Pour plus d'informations sur les politiques, consultez les [politiques de désinscription des services d'intelligence artificielle](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html) dans le *Guide de l'utilisateur AWS des Organizations*.

**Note**  
Pour utiliser une politique de désinscription, vos AWS comptes doivent être gérés de manière centralisée par AWS les Organizations. Si vous n'avez pas encore créé d'organisation pour vos AWS comptes, consultez la section [Création et gestion d'une organisation](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_org.html) dans le *Guide de l'utilisateur AWS des Organizations*.

# Comprendre la conservation des données pour les analyses vocales du SDK Amazon Chime
<a name="va-data-retention"></a>

Par défaut, l'analyse vocale du SDK Amazon Chime supprime les intégrations vocales au bout de 3 ans. Nous le faisons parce que les voix des gens changent au fil du temps, mais aussi pour des raisons de sécurité. Vous pouvez utiliser l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API pour mettre à jour les intégrations vocales expirées.

Les résultats de [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html)seront également disponibles auprès de leurs correspondants [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) APIs pour un maximum de 7 jours.

Les intégrations vocales générées à partir de a [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)sont disponibles pour être conservées via le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs pendant 24 heures, après quoi elles sont supprimées et ne sont plus disponibles.

Pour supprimer les résultats et gérer les retraits de consentement de vos clients, consultez la section précédente.

# Utilisation APIs de la voix pour exécuter des analyses vocales pour le SDK Amazon Chime
<a name="va-in-voice-namespace"></a>

Pour des raisons de rétrocompatibilité, vous pouvez utiliser Amazon Chime SDK APIs Voice pour démarrer et gérer les analyses vocales. Cependant, seul le pipeline d'informations sur les médias APIs pour l'analyse vocale fournit de nouvelles fonctionnalités. Nous vous recommandons donc vivement de les utiliser à la place.

Les sections suivantes expliquent les différences entre les pipelines d'informations vocales et multimédias APIs.

## Arrêter des tâches
<a name="va-stopping-tasks"></a>

Si vous utilisez un connecteur vocal pour démarrer des tâches d'analyse vocale, puis que vous utilisez l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API pour suspendre le pipeline, les tâches continuent de s'exécuter. Pour arrêter les tâches, vous devez appeler le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html)et [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopVoiceToneAnalysisTask.html) APIs.

## Comprendre les différences entre les notifications
<a name="va-notification-differences"></a>

Lorsque vous utilisez la voix APIs pour exécuter des analyses vocales, les notifications sont différentes de celles générées par les pipelines d'informations sur les médias.
+ Les événements prêts pour l'analyse vocale ne sont disponibles que pour les tâches démarrées à l'aide de la voix APIs.
+ Vous devez utiliser les `callId` champs `voiceConnectorId``transactionId`, ou de vos notifications pour associer une tâche d'analyse vocale à un appel. Si vous utilisez des pipelines Media Insights pour exécuter des analyses vocales, vous utilisez les `channelId` champs `mediaInsightsPipelineId` et `streamArn` ou pour associer une tâche à un appel.

Les rubriques suivantes expliquent comment utiliser les notifications vocales APIs.

**Topics**
+ [Événements prêts pour l'analyse vocale](#va-ready-events)
+ [Événements de recherche de conférenciers](#va-speaker-search-events)
+ [Événements d'analyse du ton vocal](#va-tone-status)

### Événements prêts pour l'analyse vocale
<a name="va-ready-events"></a>

Les événements prêts pour l'analyse vocale sont de type `VoiceAnalyticsStatus` détaillé. 

Vous utilisez les connecteurs vocaux du SDK Amazon Chime pour démarrer des tâches d'analyse. Lorsque vous recevez un événement prêt pour l'analyse vocale, vous pouvez déclencher une tâche de recherche de locuteur ou d'analyse de tonalité vocale pour l'appel, identifiée par les propriétés suivantes :
+ `voiceConnectorId`
+ `transactionId`

**Note**  
Cette notification est fournie uniquement lorsque vous disposez d'une configuration de pipeline d'informations multimédia avec l'analyse vocale activée et associée à un connecteur vocal. Cette notification n'est PAS fournie lorsque les clients appellent l'`CreateMediaInsightsPipeline`API et lancent une tâche de recherche de locuteurs ou une tâche d'analyse de tonalité vocale via le SDK Media Pipelines.

Les en-têtes SIP renvoyés par un connecteur vocal contiennent le`transactionId`. Si vous n'avez pas accès aux en-têtes SIP, l'événement de `AnalyticsReady` notification contient également le `voiceConnectorId` et`transactionId`. Cela vous permet de recevoir les informations par programme et d'appeler le [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask), ou. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html) APIs

Lorsque l'analyse vocale est prête à être traitée, le connecteur vocal envoie un événement `"detailStatus": "AnalyticsReady"` à la cible de notification sous forme de corps JSON. Si vous utilisez Amazon SNS ou Amazon SQS, ce corps apparaît dans le champ « Enregistrements » de la charge utile Amazon SNS ou Amazon SQS.

L'exemple suivant montre un corps JSON typique.

```
{
    "detail-type": "VoiceAnalyticsStatus",
    "version": "0",
    "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59",
    "source": "aws.chime",
    "account": "123456789012",
    "time": "2022-08-26T17:55:15.563441Z",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "AnalyticsReady",
        "callDetails": {
            "isCaller": false,
            "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
            "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
        }
    }
}
```

Cette notification vous permet de déclencher des rappels supplémentaires vers votre application et de répondre à toutes les exigences légales, telles que la notification et le consentement, avant d'appeler la tâche APIs d'analyse vocale.

### Événements de recherche de conférenciers
<a name="va-speaker-search-events"></a>

Les événements de recherche de conférenciers sont de type `SpeakerSearchStatus` détaillé.

Les connecteurs vocaux du SDK Amazon Chime envoient les événements de recherche de haut-parleurs suivants :
+ Allumettes d'identification
+ Génération d'intégration vocale

Les événements peuvent avoir les statuts suivants :
+ `IdentificationSuccessful`— Identification réussie d'au moins un identifiant de profil vocal correspondant avec un score de confiance élevé dans le domaine de profil vocal donné.
+ `IdentificationFailure`— Impossible d'effectuer l'identification. Causes : l'appelant ne parle pas pendant au moins 10 secondes, qualité audio médiocre.
+ `IdentificationNoMatchesFound`— Impossible de trouver une correspondance avec un niveau de confiance élevé dans le domaine de profil vocal donné. L'appelant est peut-être nouveau ou sa voix a peut-être changé.
+ `VoiceprintGenerationSuccessful`— Le système a généré une intégration vocale en utilisant 20 secondes de son non silencieux.
+ `VoiceprintGenerationFailure`— Le système n'a pas réussi à générer d'intégration vocale. Causes : l'appelant ne parle pas pendant au moins 20 secondes, qualité audio médiocre.

#### Allumettes d'identification
<a name="va-id-matches"></a>

Une fois que l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API est appelée pour une donnée`transactionId`, le service Voice Connector renvoie une notification de correspondance d'identification après 10 secondes de conversation silencieuse. Le service renvoie les 10 meilleures correspondances, ainsi qu'un identifiant de profil vocal et un score de confiance compris entre [0, 1]. Plus le score de confiance est élevé, plus il est probable que le locuteur de l'appel corresponde à l'identifiant du profil vocal. Si le modèle d'apprentissage automatique ne trouve aucune correspondance, le `detailStatus` champ de notification contient`IdentificationNoMatchesFound`.

L'exemple suivant montre une notification en cas de correspondance réussie.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "isCaller": false,
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436"
    }
}
```

#### Génération d'intégration vocale
<a name="va-voice-print-generation"></a>

Après 10 secondes supplémentaires de parole non silencieuse, le connecteur vocal envoie une notification de génération d'intégration vocale aux cibles de notification. Vous pouvez inscrire de nouvelles intégrations vocales dans un profil vocal ou mettre à jour une impression déjà présente dans un profil vocal.

L'exemple suivant montre la notification d'une correspondance réussie, ce qui signifie que vous pouvez mettre à jour le profil vocal associé.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "isCaller": false,
        "transactionId": "12345678-1234-1234",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr"
    }
}
```

### Événements d'analyse du ton vocal
<a name="va-tone-status"></a>

Les événements d'analyse de tonalité vocale sont de type `VoiceToneAnalysisStatus` détaillé. Les analyses peuvent renvoyer les statuts suivants :
+ `VoiceToneAnalysisSuccessful`— Analyse réussie des voix de l'appelant et de l'agent en fonction des probabilités de sentiment (positif, négatif ou neutre).
+ `VoiceToneAnalysisFailure`— Impossible d'effectuer l'analyse de tonalité. Cela peut se produire si l'appelant se bloque sans parler pendant 10 secondes ou si la qualité audio devient trop mauvaise.
+ `VoiceToneAnalysisCompleted`— Analyse réussie des voix de l'utilisateur et de l'agent en fonction des probabilités de sentiment pendant toute la durée de l'appel. Il s'agit du dernier événement, envoyé lorsque l'analyse de la tonalité vocale est terminée.

L'exemple suivant montre un événement typique d'analyse de tonalité vocale.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
    "isCaller": true,
    "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
    "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

# Quotas de service d'analyse des appels pour le SDK Amazon Chime
<a name="ca-regions"></a>

Les tableaux de cette section répertorient les quotas de service pour l'analyse des appels du SDK Amazon Chime.

Pour plus d'informations sur les régions d'analyse des appels, reportez-vous à [Régions AWS disponibles pour le SDK Amazon Chime](sdk-available-regions.md) la section précédente de ce guide.

Les quotas de service d'analyse des appels et d'analyse vocale du SDK Amazon Chime sont soumis aux quotas de service suivants.


| Ressource | Limite par défaut | Ajustable | 
| --- | --- | --- | 
| Configurations du pipeline Media Insights par région | 100 | Oui | 
| Pipelines Active Media Insights par région | 20 | Oui | 
| Domaines de profil vocal par région | 3 | Oui | 
| Profils vocaux par domaine de profil vocal | 20 | Oui | 
| Tâches de recherche de haut-parleurs actifs par région | 25 | Oui | 
| Tâches d'analyse du ton vocal actives par région | 25 | Oui | 
| Appels Active Voice Connector avec analyse vocale par région | 25 | Oui | 
| Tâches de recherche de locuteurs actifs par appel du Voice Connector et par numéro de transaction | 1 | Non | 
| Tâche d'analyse de tonalité vocale active par appel du Voice Connector par ID de transaction | 1 | Non | 
| Nombre maximal d'appels d'API simultanés par domaine de profil vocal | 1 | Oui | 
| Nombre maximal d'appels d'API simultanés par profil vocal | 1 | Oui | 
| Nombre maximal d'appels d'API simultanés par tâche de recherche de haut-parleurs | 1 | Oui | 
| Nombre maximal d'appels d'API simultanés par tâche d'analyse de tonalité vocale | 1 | Oui | 

*Pour plus d'informations sur les taux et les quotas des API, consultez les [points de terminaison et quotas du SDK Amazon Chime dans le manuel de référence général](https://docs.aws.amazon.com/general/latest/gr/chime-sdk.html).AWS *

**Note**  
Si vous dépassez le quota d'une région, vous recevez une exception pour le **dépassement de la limite de ressources**. Vous pouvez utiliser la page **Service Quotas** de la AWS console pour demander une augmentation, ou vous pouvez contacter votre [représentant du service client](https://docs.aws.amazon.com/awssupport/latest/user/getting-started.html).  
Plusieurs des analyses d'appels APIs créent des ressources et des demandes d'API pour d'autres AWS services. Ces montants supplémentaires sont pris en compte dans les quotas de votre compte. Si vous demandez un quota ou une transactions-per-second augmentation grâce à l'analyse des appels, vous devez également demander des augmentations pour ces autres AWS services. Dans le cas contraire, vos demandes risquent d'être limitées et d'échouer.