

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Chime SDK の音声トーン分析ワークフローの例
<a name="va-tone-flow"></a>

**重要**  
音声トーン分析では、言語およびトーンに関する情報に基づいてスピーカーの感情を予測します。感情分析は、法律で禁止されているいかなる方法でも使用してはなりません。これには、個人に対して法的な影響、または同様の重大な影響を与えるような意思決定 (雇用、住宅、信用、金銭的な申し出などに関するもの) における使用が含まれます。

音声トーン分析では、通話中のスピーカーの声を分析し、`positive`、`negative`、`neutral` のいずれかの感情を予測します。

次の図は、音声トーン分析のワークフローの例を示しています。画像の下にある番号付きの項目は、プロセスの各ステップを説明しています。

**注記**  
この図は、Amazon Chime SDK Voice Connector を、`VoiceAnalyticsProcessor` のある通話分析設定で既に設定していることを前提としています。詳細については、「[Voice Connector の通話を録音する](record-vc-calls.md)」を参照してください。

![\[音声トーン分析におけるデータフローを示す図。\]](http://docs.aws.amazon.com/ja_jp/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


図中の手順を説明します。

1. 発信者は、Amazon Chime SDK Voice Connector に割り当てられた電話番号を使用してダイヤルインします。または、エージェントが Voice Connector 番号を使用して発信通話を行います。

1. Voice Connector サービスはトランザクション ID を作成し、それを通話に関連付けます。

1. アプリケーション (自動音声応答システムなど) またはエージェントは、通話の録音や音声分析のための音声埋め込みの使用について発信者に通知し、参加の同意を求めます。

1. アプリケーションが EventBridge イベントをサブスクライブしている場合、アプリケーションはメディアインサイトパイプライン設定と Voice Connector 通話用の Kinesis Video Streams ARN を使用して [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) API を呼び出します。

   EventBridge の使用に関する詳細については、「[Amazon Chime SDK の機械学習ベースの分析を目的としたワークフローについて](ml-based-analytics.md)」を参照してください。

1. 発信者が同意すると、Voice Connector ID とトランザクション ID がある場合、アプリケーションまたはエージェントは[音声 SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) を通じて [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html) API を呼び出すことができます。または、トランザクション ID の代わりにメディアインサイトパイプライン ID がある場合は、[メディアパイプライン SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) の [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html) API を呼び出します。

   発信者が同意すると、アプリケーションまたはエージェントは `StartSpeakerSearchTask` API を呼び出します。Voice Connector ID、トランザクション ID、音声プロファイルドメイン ID を API に渡す必要があります。非同期タスクを識別するためのスピーカー検索タスク ID が返されます。

1. ユーザーは通話中ずっと話します。

1. エージェントは通話中ずっと話します。

1. メディアインサイトパイプラインは 5 秒ごとに、機械学習モデルを使用して過去 30 秒間の音声を分析し、その時間における、および最初に `StartVoiceToneAnalysisTask` が呼び出された時点からの通話全体における発信者のトーンを予測します。

1. メディアインサイトパイプラインは、設定された通知ターゲットにその情報を含む通知を送信します。ストリーム ARN とチャネル ID に基づいて通知を識別できます。詳細については、このセクションで後述する「[Amazon Chime SDK の通知について](va-notification-targets.md)」を参照してください。

1. 通話が終了するまでステップ 9 と 10 を繰り返します。

1. 通話が終了すると、メディアインサイトパイプラインは、過去 30 秒間の最新の平均トーン予測と、通話全体の平均トーンを含む最後の通知を 1 つ送信します。

1. アプリケーションは必要に応じて [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) API を呼び出し、音声トーン分析タスクの最新のステータスを取得します。
**注記**  
`GetVoiceToneAnalysisTask` API はトーンデータをストリーミングしません。

**注記**  
[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) API は音声トーンデータを返しません。