

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# Amazon Chime SDK 语音音调分析工作流程示例
<a name="va-tone-flow"></a>

**重要**  
语音音调分析包括根据语言和音调信息来预测发言人的情绪。您不得以任何法律禁止的方式使用情绪分析，包括涉及对个人做出可能对此类个人产生法律或类似重大影响（例如与就业、住房、信用价值或财务报价等有关）的决策。

语音音调分析可以分析人们在呼叫中的语音并预测他们的情绪，可以是 `positive`、`negative` 或 `neutral`。

下图显示了语音音调分析的工作流程示例。图像下方的带编号的内容描述了该过程的每个步骤。

**注意**  
该图假设您已经使用具有 `VoiceAnalyticsProcessor` 的呼叫分析配置来配置了 Amazon Chime SDK 语音连接器。有关更多信息，请参阅 [录制 Voice Connector 通话](record-vc-calls.md)。

![\[显示通过语音音调分析的数据流的图。\]](http://docs.aws.amazon.com/zh_cn/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


在下图中：

1. 呼叫者使用分配给 Amazon Chime SDK 语音连接器的电话号码拨号。或者，座席使用语音连接器号码执行出站呼叫。

1. 语音连接器服务创建事务 ID 并将其与呼叫关联。

1. 您的应用程序（例如交互式语音应答系统）或座席会向呼叫者提供有关呼叫记录和使用语音嵌入进行语音分析的通知，并征得他们的同意才能参与。

1. 假设您的应用订阅了 EventBridge 事件，则您的应用程序使用媒体见解管道配置和 Kinesis Video ARNs Stream 调用 Voice Connector 调用 [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API。

   有关使用的更多信息 EventBridge，请参阅[了解 Amazon Chime SDK 基于机器学习的分析工作流程](ml-based-analytics.md)。

1. 一旦呼叫者表示同意，如果您具有语音连接器和事务 ID，您的应用程序或座席就可以通过[语音 SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) 来调用 [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html) API。或者，如果您具有媒体见解管线 ID 而不是事务 ID，则可以在[媒体管道 SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) 中调用 [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html) API。

   一旦呼叫者表示同意，您的应用程序或座席就会调用 `StartSpeakerSearchTask` API。您必须将语音连接器 ID、事务 ID 和语音配置文件域 ID 传递给 API。返回发言人搜索任务 ID 以识别异步任务。

1. 用户在整个呼叫过程中说话。

1. 座席在整个呼叫过程中说话。

1. 每隔 5 秒，媒体见解管线就会使用机器学习模型来分析最后 30 秒的话音，并预测该间隔内呼叫者的音调，以及从首次呼叫 `StartVoiceToneAnalysisTask` 时起的整个呼叫的音调。

1. 媒体见解管线向配置的通知目标发送包含该信息的通知。您可以根据通知的流 ARN 和通道 ID 来识别通知。有关更多信息，请参阅本节后文中的 [了解 Amazon Chime SDK 的通知](va-notification-targets.md)。

1. 重复步骤 9 和 10，直到呼叫结束。

1. 呼叫结束时，媒体见解管线会发送最后一条通知，其中包含过去 30 秒的当前平均音调预测以及整个呼叫的平均音调。

1. 您的应用程序会根据需要调用 [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) API 来获取语音音调分析任务的最新状态。
**注意**  
`GetVoiceToneAnalysisTask` API 不流式传输音调数据。

**注意**  
[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) API 不返回语音音调数据。