

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Exemplo de fluxo de trabalho de análise do tom de voz do SDK do Amazon Chime
<a name="va-tone-flow"></a>

**Importante**  
A análise do tom de voz envolve fazer previsões sobre o sentimento de um locutor com base em informações linguísticas e de tom. Você não deve usar a análise de sentimentos de qualquer forma proibida por lei, inclusive em relação à tomada de decisões sobre um indivíduo que possam produzir impactos legais ou igualmente significativos sobre esses indivíduos (por exemplo, relacionadas a emprego, moradia, capacidade de crédito ou ofertas financeiras, etc.). 

A análise do tom de voz analisa as vozes das pessoas em uma chamada e prevê seu sentimento, seja `positive`, `negative` ou `neutral`.

O diagrama a seguir mostra um exemplo de fluxo de trabalho para análise do tom de voz. Os itens numerados abaixo da imagem descrevem cada etapa do processo.

**nota**  
O diagrama pressupõe que você já tenha configurado um conector de voz do SDK do Amazon Chime com uma configuração da análise de chamadas que tenha um `VoiceAnalyticsProcessor`. Para obter mais informações, consulte [Gravar chamadas do conector de voz](record-vc-calls.md).

![\[Um diagrama mostrando o fluxo de dados por meio de uma análise do tom de voz.\]](http://docs.aws.amazon.com/pt_br/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


No diagrama:

1. Um chamador liga usando um número de telefone atribuído a um conector de voz do SDK do Amazon Chime. Ou um atendente usa um número do conector de voz para fazer uma chamada de saída.

1. O serviço Voice Connector cria uma ID da transação e a associa à chamada.

1. Seu aplicativo: como um sistema interativo de resposta de voz, ou atendente, notifica o chamador sobre a gravação de chamadas e o uso de incorporações de voz para análise de voz e solicita seu consentimento para participar.

1. Supondo que seu aplicativo se inscreva em EventBridge eventos, seu aplicativo chama a [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API com a configuração do pipeline de insights de mídia e o Kinesis Video Stream ARNs para a chamada do Voice Connector.

   Para obter mais informações sobre o uso EventBridge, consulte[Noções básicas sobre fluxos de trabalho de analytics baseada em machine learning do SDK do Amazon Chime](ml-based-analytics.md).

1. Depois que o chamador der consentimento, sua aplicação ou o agente poderá chamar a API [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html) por meio do [ SDK de voz](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) se você tiver um Voice Connector e um ID de transação. Ou, se você tiver um ID de pipeline do Media Insights em vez de um ID de transação, chame a API [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html) no [ SDK de pipelines de mídia](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html).

   Depois que o chamador fornece o consentimento, seu aplicativo ou o atendente chama a API `StartSpeakerSearchTask`. Você deve passar o ID do Voice Connector, o ID da transação e o ID do domínio do perfil de voz para a API. Uma ID da tarefa de pesquisa de locutor é retornada para identificar a tarefa assíncrona.

1. O usuário fala durante toda a chamada.

1. O atendente fala durante toda a chamada.

1. A cada 5 segundos, o pipeline do Media Insights usa um modelo de machine learning para analisar os últimos 30 segundos de fala e prever o tom do chamador nesse intervalo e em toda a chamada a partir do momento em que `StartVoiceToneAnalysisTask` foi chamada pela primeira vez.

1. O pipeline do Media Insights envia uma notificação com essas informações para os destinos de notificação configurados. Você pode identificar a notificação com base no ARN do stream e no ID do canal. Para mais informações, consulte [Noções básicas sobre as notificações do SDK do Amazon Chime](va-notification-targets.md), mais adiante nesta seção.

1. Repita as etapas 9 e 10 até que a chamada termine.

1. No final da chamada, o pipeline do Media Insights envia uma notificação final com a previsão de tom médio atual dos últimos 30 segundos, mais o tom médio de toda a chamada.

1. Sua aplicação chama a API [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) conforme necessário para receber o status mais recente da tarefa de análise do tom de voz. 
**nota**  
A API `GetVoiceToneAnalysisTask` não transmite os dados de tom.

**nota**  
A API [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) não exibe dados de tom de voz.