

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Generazione di informazioni dettagliate dalle chiamate utilizzando l'analisi delle chiamate per l'SDK Amazon Chime
<a name="call-analytics"></a>

Gli argomenti di questa sezione spiegano come utilizzare l'analisi delle chiamate dell'SDK Amazon Chime per generare approfondimenti dai dati delle chiamate. 

L'analisi delle chiamate di Amazon Chime SDK offre agli sviluppatori soluzioni low-code per generare informazioni convenienti dall'audio in tempo reale, tra cui acquisizione audio, analisi, avvisi e integrazione di data lake. L'analisi delle chiamate ti consente di generare approfondimenti tramite l'integrazione con Amazon Transcribe e Transcribe Call Analytics (TCA) e, in modo nativo, tramite l'analisi vocale Amazon Chime SDK. L'analisi delle chiamate può anche registrare le chiamate verso il tuo Amazon S3 Bucket.

Puoi utilizzare i seguenti metodi per configurare ed eseguire l'analisi delle chiamate.
+ Utilizza la console Amazon Chime SDK per creare una configurazione di analisi delle chiamate e associarla a un connettore vocale Amazon Chime SDK. Durante questo processo, puoi abilitare la registrazione e l'analisi delle chiamate. Non è necessario scrivere codice per completare il processo.
+ Usa un set di Amazon Chime SDK APIs [Amazon Chime SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/welcome.html) APIs per creare ed eseguire una configurazione in modo programmatico.

Per ulteriori informazioni, consulta [Creazione di configurazioni di analisi delle chiamate per l'SDK Amazon Chime](creating-ca-configuration.md) e[Utilizzo delle configurazioni di analisi delle chiamate per l'SDK Amazon Chime](using-call-analytics-configurations.md), più avanti in questa sezione.

**Topics**
+ [Cos'è l'analisi delle chiamate di Amazon Chime SDK](what-is-amazon-chime-sdk-call-analytics.md)
+ [Comprensione della terminologia di analisi delle chiamate per l'SDK Amazon Chime](ca-terms-concepts.md)
+ [Creazione di configurazioni di analisi delle chiamate per l'SDK Amazon Chime](creating-ca-configuration.md)
+ [Utilizzo delle configurazioni di analisi delle chiamate per l'SDK Amazon Chime](using-call-analytics-configurations.md)
+ [Gestione delle pipeline di analisi delle chiamate per l'SDK Amazon Chime](managing-call-analytics-pipelines.md)
+ [Sospensione e ripresa delle pipeline di analisi delle chiamate per l'SDK Amazon Chime](pausing-and-resuming-call-analytics-pipelines.md)
+ [Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-resource-access-role.md)
+ [Comprensione degli stati di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-statuses.md)
+ [Monitoraggio delle pipeline di analisi delle chiamate per l'SDK Amazon Chime con Amazon CloudWatch](monitoring-with-cloudwatch.md)
+ [Processore di analisi delle chiamate e destinazioni di output per l'SDK Amazon Chime](call-analytics-processor-and-output-destinations.md)
+ [Modello di dati di analisi delle chiamate per l'SDK Amazon Chime](ca-data-model.md)
+ [Utilizzo dell'analisi vocale di Amazon Chime SDK](voice-analytics.md)
+ [Quote dei servizi di analisi delle chiamate per l'SDK Amazon Chime](ca-regions.md)

# Cos'è l'analisi delle chiamate di Amazon Chime SDK
<a name="what-is-amazon-chime-sdk-call-analytics"></a>

L'analisi delle chiamate di Amazon Chime SDK è una soluzione low-code per generare informazioni economiche dall'audio in tempo reale, incluse funzionalità per l'acquisizione di audio, la registrazione, l'analisi vocale, gli avvisi e un data lake. Puoi generare informazioni basate sull'apprendimento automatico utilizzando l'analisi delle chiamate creando una configurazione di analisi delle chiamate riutilizzabile che determina quali integrazioni di AWS machine learning e funzionalità di elaborazione audio abilitare per un flusso di lavoro. Puoi quindi utilizzare la configurazione dell'analisi delle chiamate con varie fonti multimediali come Voice Connectors o Amazon Kinesis Video Streams. L'analisi delle chiamate genera informazioni approfondite attraverso integrazioni con Amazon Transcribe e Transcribe Call Analytics (TCA) e, in [modo nativo, tramite l'analisi vocale Amazon Chime](voice-analytics.md) SDK, un servizio che funziona nell'ambito dell'analisi delle chiamate.

Segui questi passaggi per utilizzare l'analisi delle chiamate:

![\[Immagine che mostra il processo di configurazione dell'analisi delle chiamate dell'SDK Amazon Chime.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/CallAnalyticsOverview.png)


Nel diagramma:

1. Si inizia creando una configurazione di analisi delle chiamate.

1. Puoi impostare le destinazioni di output e un data lake opzionale.

1. Crei flussi di lavoro che associano la tua configurazione a un Voice Connector e Amazon Kinesis Video Streams.

1. Analizzi e, facoltativamente, visualizzi le tue informazioni.

Puoi utilizzare la console Amazon Chime SDK per creare una configurazione di analisi delle chiamate e abilitare l'avvio automatico dell'analisi delle chiamate. Se devi controllare le configurazioni che si applicano a un determinato tipo di chiamata, devi APIs creare una configurazione. In entrambi i casi, la configurazione contiene dettagli sui servizi di AWS machine learning da richiamare per l'audio della chiamata, abilitare la registrazione delle chiamate e le destinazioni per gli approfondimenti, i metadati e le registrazioni. L'analisi delle chiamate fornisce le seguenti destinazioni:
+ Un flusso di dati Amazon Kinesis (KDS). Puoi usare KDS per ricevere informazioni sulle chiamate in tempo reale che puoi poi integrare nella tua applicazione. Ad esempio, puoi integrare gli approfondimenti in tempo reale per aiutare un addetto alle vendite o all'assistenza clienti durante una chiamata con un cliente, oppure utilizzare gli approfondimenti per aumentare le richieste e i riepiloghi generativi dell'intelligenza artificiale.
+ Un bucket Amazon S3 configurato come data warehouse. Il bucket memorizza i dati in formato Parquet. Parquet è un formato di file open source progettato per comprimere e archiviare grandi volumi di dati. Puoi quindi utilizzare Amazon Athena per interrogare quei dati utilizzando il linguaggio SQL (Simple Query Language) o spostare i dati nel tuo data warehouse esistente per associarli ai tuoi dati aziendali. Ad esempio, puoi eseguire analisi aggregate post-chiamata per comprendere l'efficacia delle chiamate dei clienti, le aree problematiche di un prodotto o le opportunità per formare i dipendenti a ottenere risultati migliori per i clienti.

Oltre a queste destinazioni, l'analisi delle chiamate supporta anche avvisi in tempo reale che è possibile preconfigurare in base alle informazioni acquisite. Gli avvisi vengono inviati ad Amazon EventBridge. 

**Nota**  
Quando crei una configurazione di analisi delle chiamate, non selezioni una sorgente audio specifica. Ciò consente di riutilizzare le configurazioni su più sorgenti audio. Ad esempio, una configurazione può abilitare la registrazione delle chiamate e fornire la trascrizione delle chiamate. È quindi possibile utilizzare la configurazione con un connettore vocale Chime SDK e un flusso audio tramite Kinesis Video Stream. Puoi anche condividere la configurazione tra più connettori vocali. Ogni configurazione di analisi delle chiamate è unica e identificata da un ARN. 

# Comprensione della terminologia di analisi delle chiamate per l'SDK Amazon Chime
<a name="ca-terms-concepts"></a>

La terminologia e i concetti seguenti sono fondamentali per comprendere come utilizzare l'analisi delle chiamate di Amazon Chime SDK.

**Amazon Athena**  
Un servizio di interrogazione interattivo che consente di analizzare i dati in Amazon S3 utilizzando SQL standard. Athena è serverless, quindi non hai alcuna infrastruttura da gestire e paghi solo per le query che esegui. Per usare Athena, punta ai tuoi dati in Amazon S3, definisci lo schema e usa query SQL standard. Puoi anche utilizzare i gruppi di lavoro per raggruppare gli utenti e controllare le risorse a cui hanno accesso durante l'esecuzione delle query. I gruppi di lavoro consentono di gestire la concorrenza delle query e di assegnare priorità all'esecuzione delle query tra diversi gruppi di utenti e carichi di lavoro. Per ulteriori informazioni, consulta [Cos'è Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html).

**Amazon Kinesis Data Firehose**  
Un servizio di estrazione, trasformazione e caricamento (ETL) che acquisisce, trasforma e fornisce dati in streaming in modo affidabile a data lake, data store e servizi di analisi. Per ulteriori informazioni, consulta [What Is Amazon Kinesis Data Firehose](https://aws.amazon.com/kinesis/data-firehose/).

**Chiama il data warehouse di analisi**  
Archiviazione opzionale per i dati di analisi delle chiamate. Il magazzino archivia i dati in un formato di file di dati basato su parquet in un bucket Amazon S3. È possibile utilizzare SQL standard per interrogare i dati. Si abilita il warehouse in una configurazione di analisi delle chiamate.

**Catalogo dati Glue**  
Un repository di metadati centralizzato per le risorse di dati provenienti da varie fonti di dati. Il catalogo è composto da database e tabelle. Per l'analisi delle chiamate, i metadati nella tabella indicano ad Athena la posizione del tuo bucket Amazon S3. Inoltre, specifica la struttura dei dati, come i nomi delle colonne, i tipi di dati e il nome della tabella. I database contengono solo i metadati e le informazioni sullo schema di un set di dati. Per ulteriori informazioni, fare riferimento a[Comprendere la struttura delle tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime](ca-data-model-diagram.md), più avanti in questa sezione.

**Pipeline di approfondimenti sui media**  
 Una risorsa temporanea identificata da un unico`MediaPipelineId`. Creato utilizzando la configurazione della pipeline di analisi delle chiamate e i parametri di runtime. I parametri di runtime specificano l'origine dati per la pipeline.

**Configurazione della pipeline di Media Insights**  
Una configurazione statica utilizzata per creare pipeline di informazioni multimediali. È possibile utilizzare una configurazione per creare un'istanza di una o più pipeline.

**Elemento di configurazione della pipeline di Media Insights**  
L'elemento di configurazione della pipeline di media insights include istruzioni per l'elaborazione dei contenuti multimediali utilizzando un elemento processore o per la fornitura di informazioni generate utilizzando un elemento sink.

**Attività della pipeline Media Insights**  
Una sottorisorsa temporanea di una pipeline di informazioni sui media. Le attività contengono metadati sullo stato di un processo per l'ARN di uno stream specifico e l'ID del canale. Identificato da un ID univoco. Creato avviando l'analisi vocale su una pipeline di analisi dei media. 

**Ricerca di altoparlanti**  
Una funzionalità di analisi vocale che consente di riconoscere i partecipanti alla chiamata.

**Analisi vocale**  
Una funzionalità dell'SDK Amazon Chime che include la ricerca degli altoparlanti e l'analisi del tono vocale.

**Incorporamento vocale**  
Una rappresentazione vettoriale della voce di un chiamante, più un ID univoco.

**Miglioramento della voce**  
Un sistema che migliora la qualità audio delle telefonate.

**Profilo vocale**  
La combinazione di un incorporamento vocale, il relativo ID e la data di scadenza.

**Dominio del profilo vocale**  
Una raccolta di profili vocali.

**Analisi del tono vocale**  
Una funzionalità di analisi vocale che consente di analizzare le voci dei chiamanti alla ricerca di un `positive``negative`, o `neutral` sentiment.

*Per ulteriori informazioni sugli strumenti APIs utilizzati per creare configurazioni di call insights, avviare pipeline ed eseguire analisi vocali, consulta Amazon Chime [SDK Media Pipelines, nell'Amazon Chime SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) API Reference.*

**Nota**  
Consigliamo vivamente di utilizzare la pipeline Media Insights APIs per eseguire l'analisi delle chiamate, poiché solo queste offrono nuove funzionalità. APIs Per ulteriori informazioni sulle differenze tra la pipeline multimediale e i namespace vocali, consulta, più avanti in [Utilizzo della voce APIs per eseguire analisi vocali per l'SDK Amazon Chime](va-in-voice-namespace.md) questa sezione.

# Creazione di configurazioni di analisi delle chiamate per l'SDK Amazon Chime
<a name="creating-ca-configuration"></a>

Per utilizzare l'analisi delle chiamate, devi iniziare creando una *configurazione*, una struttura statica che contiene le informazioni necessarie per creare una pipeline di analisi delle chiamate. Puoi utilizzare la console Amazon Chime SDK per creare una configurazione o chiamare l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)

Una configurazione di analisi delle chiamate include dettagli sui processori audio, come la registrazione, l'analisi vocale o Amazon Transcribe. Include anche destinazioni di analisi e configurazioni di eventi di avviso. Facoltativamente, puoi salvare i dati delle chiamate in un bucket Amazon S3 per ulteriori analisi.

Tuttavia, *le configurazioni non includono* sorgenti audio specifiche. Ciò consente di riutilizzare la configurazione in più flussi di lavoro di analisi delle chiamate. Ad esempio, puoi utilizzare la stessa configurazione di analisi delle chiamate con diversi connettori vocali o su diverse sorgenti Amazon Kinesis Video Stream (KVS).

Utilizzi le configurazioni per creare pipeline quando le chiamate SIP avvengono tramite un Voice Connector o quando nuovi contenuti multimediali vengono inviati a un Amazon Kinesis Video Stream (KVS). Le pipeline, a loro volta, elaborano i file multimediali in base alle specifiche della configurazione.

È possibile interrompere una pipeline a livello di codice in qualsiasi momento. Le pipeline interrompono inoltre l'elaborazione dei file multimediali al termine di una chiamata Voice Connector. Inoltre, puoi mettere in pausa una pipeline. In questo modo le chiamate ai servizi di machine learning Amazon sottostanti vengono disattivate e le riprende quando necessario. Tuttavia, la registrazione delle chiamate viene eseguita mentre metti in pausa una pipeline.

Le sezioni seguenti spiegano i prerequisiti per creare una configurazione di analisi delle chiamate e come crearne una.

**Topics**
+ [Comprensione dei prerequisiti di analisi delle chiamate dell'SDK Amazon Chime](ca-prerequisites.md)
+ [Utilizzo della console Amazon Chime SDK per creare configurazioni di analisi delle chiamate](create-config-console.md)
+ [Utilizzo APIs per creare configurazioni di analisi delle chiamate per l'SDK Amazon Chime](create-config-apis.md)
+ [Associazione di una configurazione a un connettore vocale per l'SDK Amazon Chime](ca-associate-vc-steps.md)

# Comprensione dei prerequisiti di analisi delle chiamate dell'SDK Amazon Chime
<a name="ca-prerequisites"></a>

Prima di creare una configurazione di analisi delle chiamate, devi disporre dei seguenti elementi. Puoi usare la AWS console per crearli:
+ Un connettore vocale Amazon Chime SDK. In caso contrario, consulta [Creazione di connettori vocali SDK per Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/ca-prerequisites.html). È inoltre necessario:
  + Attivare lo streaming per Voice Connector. Per ulteriori informazioni, consulta [Automating the Amazon Chime SDK EventBridge con, nella Amazon Chime SDK Administrator](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) *Guide* 
  + Configura il Voice Connector per utilizzare l'analisi delle chiamate. Per ulteriori informazioni, consulta [Configurazione dei connettori vocali per utilizzare l'analisi delle chiamate](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html), nella Guida per l'amministratore di *Amazon Chime SDK*.
+  EventBridge Obiettivi di Amazon. In caso contrario, consulta [Monitoring the Amazon Chime SDK con, Amazon EventBridge Chime SDK Administrator](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) *Guide*.
+ Un ruolo collegato al servizio che consente a Voice Connector di accedere alle azioni sulle destinazioni. EventBridge Per ulteriori informazioni, consulta la [politica relativa ai ruoli collegati al servizio Using the Amazon Chime SDK Voice Connector](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html), nella *Amazon Chime* SDK Administrator Guide.
+ Un flusso di dati Amazon Kinesis. In caso contrario, consulta [Creating and Managing Streams](https://docs.aws.amazon.com/streams/latest/dev/working-with-streams.html), nella *Amazon Kinesis* Streams Developer Guide. L'analisi e la trascrizione vocali richiedono un Kinesis Data Stream.
+ Per analizzare le chiamate offline, devi creare un data lake SDK Amazon Chime. A tale scopo, consulta[Creazione di un data lake SDK Amazon Chime](ca-data-lake.md), più avanti in questa guida.

# Utilizzo della console Amazon Chime SDK per creare configurazioni di analisi delle chiamate
<a name="create-config-console"></a>

Dopo aver creato i prerequisiti elencati nella sezione precedente, puoi utilizzare la console Amazon Chime SDK per creare una o più configurazioni di analisi delle chiamate. Puoi anche utilizzare la console per associare uno o più connettori vocali alle tue configurazioni. Una volta completato il processo, l'analisi delle chiamate inizia a funzionare con le funzionalità abilitate al momento della creazione della configurazione.

Segui questi passaggi per creare una configurazione di analisi delle chiamate:

1. Specificate i dettagli della configurazione, tra cui un nome e tag opzionali.

1. Configura le impostazioni di registrazione. Crea una configurazione di analisi delle chiamate che includa informazioni basate sulla registrazione e sull'apprendimento automatico.

1. Configura i tuoi servizi di analisi.

1. Seleziona le destinazioni di output per usufruire di informazioni in tempo reale. Crea un data lake opzionale per eseguire analisi post-chiamata.

1. Crea un nuovo ruolo di servizio o utilizza un ruolo esistente. 

1. Imposta avvisi in tempo reale che inviano notifiche tramite Amazon EventBridge quando vengono soddisfatte determinate condizioni.

1. Controlla le impostazioni e crea la configurazione

Dopo aver creato la configurazione, abiliti l'analisi delle chiamate associando un Voice Connector alla configurazione. Una volta effettuata questa operazione, l'analisi delle chiamate si avvia automaticamente quando arriva una chiamata a quel Voice Connector. Per ulteriori informazioni, fare riferimento a[Associazione di una configurazione a un connettore vocale per l'SDK Amazon Chime](ca-associate-vc-steps.md), più avanti in questa sezione.

Le sezioni seguenti spiegano come completare ogni fase del processo. Espandili nell'ordine elencato.

## Specificare i dettagli di configurazione
<a name="ca-config-details"></a>

**Per specificare i dettagli di configurazione**

1. [Apri la console Amazon Chime a casahttps://console.aws.amazon.com/chime-sdk/.](https://console.aws.amazon.com/chime-sdk/home)

1. Nel pannello di navigazione, in **Call Analytics**, scegli **Configurazioni**, quindi scegli **Crea** configurazione.

1. In **Basic information (Informazioni di base)** eseguire queste operazioni:

   1. Inserisci un nome per la configurazione. Il nome deve riflettere il tuo caso d'uso e gli eventuali tag.

   1. (Facoltativo) In **Tag**, scegli **Aggiungi nuovo tag**, quindi inserisci le chiavi dei tag e i valori opzionali. Tu definisci le chiavi e i valori. I tag possono aiutarti a interrogare la configurazione.

   1. Scegli **Next (Successivo)**.

## Configurazione della registrazione
<a name="recording-details"></a>

**Per configurare la registrazione**
+ Nella pagina **Configura registrazione**, procedi come segue: 

  1. Scegli la casella di controllo **Attiva la registrazione delle chiamate**. Ciò consente la registrazione per le chiamate Voice Connector o gli stream KVS e l'invio dei dati al bucket Amazon S3.

  1. In **Formato file**, scegli **WAV con PCM** per la migliore qualità audio.

     oppure

     Scegli **OGG con OPUS** per comprimere l'audio e ottimizzare l'archiviazione.

  1. (Facoltativo) Se necessario, scegli il link **Crea un bucket Amazon S3** e segui questi passaggi per creare un bucket Amazon S3.

  1. Inserisci l'URI del tuo bucket Amazon S3 o scegli **Sfoglia** per individuare un bucket.

  1. (Facoltativo) Scegli **Activate voice enhancement** per migliorare la qualità audio delle tue registrazioni.

  1. Scegli **Next (Successivo)**.

## Comprendere il miglioramento della voce
<a name="understand-voice-enhancement"></a>

Quando crei una configurazione di analisi delle chiamate, puoi abilitare la registrazione delle chiamate e archiviarle in un bucket Amazon S3. Come parte di ciò, puoi anche abilitare il miglioramento della voce e migliorare la qualità audio delle chiamate memorizzate. Il miglioramento della voce si applica solo alle registrazioni generate dopo l'attivazione della funzione. Quando la funzionalità di miglioramento della voce è attiva, viene creata una registrazione avanzata in aggiunta alla registrazione originale e viene archiviata nello stesso bucket e formato Amazon S3. Il miglioramento della voce genererà registrazioni migliorate per chiamate della durata massima di 30 minuti. Le registrazioni avanzate non verranno generate per chiamate che durano più di 30 minuti. 

Le telefonate vengono filtrate a banda stretta e campionate a 8. KHz Il miglioramento della voce aumenta la frequenza di campionamento da 8 kHz a 16 kHz e utilizza un modello di apprendimento automatico per espandere il contenuto di frequenza dalla banda stretta alla banda larga per rendere il parlato più naturale. Il miglioramento della voce utilizza anche un modello di riduzione del rumore chiamato Amazon Voice Focus per aiutare a ridurre il rumore di fondo nell'audio migliorato.

Il miglioramento della voce utilizza anche un modello di riduzione del rumore chiamato Voice Focus. Il modello aiuta a ridurre il rumore di fondo nell'audio migliorato. Voice Enhancement applica il modello all'audio 16 aggiornato. KHz 

**Nota**  
La funzione di miglioramento della voce è supportata solo nella regione Stati Uniti orientali (Virginia settentrionale) e nella regione Stati Uniti occidentali (Oregon).

*I metadati delle registrazioni di miglioramento vocale vengono pubblicati tramite il KDS configurato nella tabella del catalogo dati AWS Glue esistente call\$1analytics\$1recording\$1metadata.* **Per identificare il record di registrazione delle chiamate originale dalla registrazione vocale avanzata delle chiamate, viene aggiunto un nuovo campo chiamato detail-subtype con valore alla notifica KDS e alla tabella glue call\$1analytics\$1recording\$1metadata. *VoiceEnhancement*** Per ulteriori [Modello di dati di analisi delle chiamate per l'SDK Amazon Chime](ca-data-model.md) informazioni sullo schema del data warehouse, vedere.

### Formato di file per il miglioramento della voce
<a name="enhancement-file-format"></a>

Nota quanto segue sui file di registrazione avanzati.
+ Le registrazioni avanzate vengono scritte nello stesso bucket Amazon S3 delle registrazioni normali. Puoi configurare la destinazione chiamando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html)APIsutilizzando la console Amazon Chime SDK. 
+ Le registrazioni avanzate hanno **\$1enhanced** aggiunto al nome del file di base. name.
+ Le registrazioni avanzate mantengono lo stesso formato di file della registrazione originale. Puoi configurare il formato del file chiamando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkConfiguration.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_S3RecordingSinkRuntimeConfiguration.html) APIsutilizzando la console Amazon Chime SDK.

L'esempio seguente mostra un formato di nome di file tipico.

```
s3://original_file_name_enhanced.wav
```

or

```
s3://original_file_name_enhanced.ogg
```

## Configura i servizi di analisi
<a name="configure-analytics"></a>

Amazon Transcribe fornisce trascrizioni testuali delle chiamate. Puoi quindi utilizzare le trascrizioni per potenziare altri servizi di machine learning come Amazon Comprehend o i tuoi modelli di machine learning.

**Nota**  
Amazon Transcribe fornisce anche il riconoscimento automatico della lingua. Tuttavia, non puoi utilizzare questa funzionalità con modelli linguistici personalizzati o per la redazione di contenuti. Inoltre, se utilizzi l'identificazione della lingua con altre funzionalità, puoi utilizzare solo le lingue supportate da tali funzionalità. Per ulteriori informazioni, consulta la sezione [Identificazione della lingua con trascrizioni in streaming, nella Amazon Transcribe](https://docs.aws.amazon.com/transcribe/latest/dg/lang-id-stream.html) *Developer Guide*.

Amazon Transcribe Call Analytics è un'API basata sull'apprendimento automatico che fornisce trascrizioni delle chiamate, opinioni e approfondimenti sulle conversazioni in tempo reale. Il servizio elimina la necessità di prendere appunti e può consentire un'azione immediata sui problemi rilevati. Il servizio fornisce anche analisi post-chiamata, ad esempio sul sentimento del chiamante, i driver di chiamata, il tempo di assenza di conversazione, le interruzioni, la velocità di conversazione e le caratteristiche della conversazione.

**Nota**  
Per impostazione predefinita, l'analisi post-chiamata trasmette le registrazioni delle chiamate al tuo bucket Amazon S3. Per evitare di creare registrazioni duplicate, non abilitare contemporaneamente la registrazione delle chiamate e l'analisi post-chiamata.

Infine, Transcribe Call Analytics può taggare automaticamente le conversazioni in base a frasi specifiche e contribuire a eliminare le informazioni sensibili da audio e testo. Per ulteriori informazioni sui processori multimediali di analisi delle chiamate, sugli approfondimenti generati da questi processori e sulle destinazioni di output[Processore di analisi delle chiamate e destinazioni di output per l'SDK Amazon Chime](call-analytics-processor-and-output-destinations.md), vedi più avanti in questa sezione.

**Per configurare i servizi di analisi**

1. Nella pagina **Configura i servizi di analisi**, seleziona le caselle di controllo accanto a Servizi di **analisi vocale** o Servizi di **trascrizione**. Puoi selezionare entrambi gli elementi.

   Seleziona la casella di controllo **Analisi vocale**, per abilitare qualsiasi combinazione di **ricerca degli altoparlanti** e **analisi del tono vocale**. 

   Seleziona la casella di controllo **Servizi di trascrizione** per abilitare Amazon Transcribe o Transcribe Call Analytics.

   1. **Per abilitare la ricerca degli altoparlanti**
      + **Seleziona la casella di controllo **Sì, accetto la conferma del consenso per l'analisi vocale di Amazon Chime SDK**, quindi scegli Accetta.**

   1. Per abilitare l'analisi del tono vocale
      + Seleziona la casella di controllo **Analisi del tono vocale**.

   1. Per abilitare Amazon Transcribe

      1. Scegli il pulsante **Amazon Transcribe**.

      1. In **Impostazioni della lingua**, esegui una delle seguenti operazioni:

         1. Se i chiamanti parlano una sola lingua, scegli **Lingua specifica**, quindi apri l'elenco **Lingua** e seleziona la lingua.

         1. Se i chiamanti parlano più lingue, puoi identificarli automaticamente. Scegli **Rilevamento automatico della lingua**. 

         1. Apri l'elenco **delle opzioni della lingua per l'identificazione automatica** della lingua e seleziona almeno due lingue.

         1. (Facoltativo) Aprire l'elenco delle **lingue preferite** e specificare una lingua preferita. Quando le lingue selezionate nel passaggio precedente hanno punteggi di confidenza corrispondenti, il servizio trascrive la lingua preferita.

         1. (Facoltativo) Espandi **le impostazioni di rimozione dei contenuti**, seleziona una o più opzioni, quindi scegli una o più delle opzioni aggiuntive visualizzate. Il testo di supporto spiega ogni opzione.

         1. (Facoltativo) Espandi **Impostazioni aggiuntive**, seleziona una o più opzioni, quindi scegli una o più opzioni aggiuntive visualizzate. Il testo di supporto spiega ogni opzione.

   1. Per abilitare Amazon Transcribe Call Analytics

      1. Scegli il pulsante **Amazon Transcribe** Call Analytics.

      1. Apri l'elenco delle **lingue** e seleziona una lingua.

      1. (Facoltativo) Espandi **le impostazioni di rimozione dei contenuti**, seleziona una o più opzioni, quindi scegli una o più opzioni aggiuntive visualizzate. Il testo di supporto spiega ogni opzione.

      1. (Facoltativo) Espandi **Impostazioni aggiuntive**, seleziona una o più opzioni, quindi scegli una o più opzioni aggiuntive visualizzate. Il testo di supporto spiega ogni opzione.

      1. (Facoltativo) Espandi **le impostazioni di analisi post-chiamata ed esegui le** seguenti operazioni:

         1. Seleziona la casella di **controllo Analisi post-chiamata**.

         1. Inserisci l'URI del tuo bucket Amazon S3.

         1. Seleziona un tipo di redazione del contenuto.

1. **Al termine delle selezioni, scegli Avanti.** 

## Configura i dettagli di output
<a name="configure-output"></a>

Dopo aver completato le fasi di elaborazione dei file multimediali, selezionate una destinazione per l'output dell'analisi. L'analisi delle chiamate fornisce informazioni in tempo reale tramite Amazon Kinesis Data Streams e, facoltativamente, tramite un data warehouse in un bucket Amazon S3 di tua scelta. Per creare il data warehouse, usi un modello. CloudFormation Il modello ti aiuta a creare l'infrastruttura che fornisce i metadati e le informazioni sulle chiamate al tuo bucket Amazon S3. Per ulteriori informazioni sulla creazione del data warehouse, consulta[Creazione di un data lake SDK Amazon Chime](ca-data-lake.md), più avanti in questa sezione. Per ulteriori informazioni sullo schema del data warehouse, fare riferimento a[Modello di dati di analisi delle chiamate per l'SDK Amazon Chime](ca-data-model.md), anche più avanti in questa sezione.

Se hai abilitato l'analisi vocale nella sezione precedente, puoi anche aggiungere destinazioni di notifica per l'analisi vocale come AWS Lambda, Amazon Simple Queue Service o Amazon Simple Notification Service. Di seguito è riportata la procedura.

**Per configurare i dettagli di output**

1. Apri l'elenco dei flussi di **dati di Kinesis e seleziona il tuo flusso** di dati.
**Nota**  
Se desideri visualizzare i tuoi dati, devi selezionare il flusso di dati Kinesis utilizzato dal bucket Amazon S3 e Amazon Kinesis Data Firehose.

1. (Facoltativo) Espandi le **destinazioni di notifica di analisi vocale aggiuntive** e seleziona qualsiasi combinazione di destinazioni AWS Lambda, Amazon SNS e Amazon SQS.

1. (Facoltativo) In **Analizza e visualizza gli approfondimenti**, seleziona la casella di controllo **Esegui analisi storica con data lake**. Per ulteriori informazioni sui data lake, consulta[Creazione di un data lake SDK Amazon Chime](ca-data-lake.md), più avanti in questa sezione.

1. Al termine, scegli **Apply** (Applica).

## Configurazione delle autorizzazioni di accesso
<a name="configure-perms"></a>

Per abilitare l'analisi delle chiamate, il servizio di machine learning e altre risorse devono disporre delle autorizzazioni per accedere ai supporti di dati e fornire informazioni dettagliate. È possibile utilizzare un ruolo di servizio esistente o utilizzare la console per creare un nuovo ruolo. Per ulteriori informazioni sui ruoli, fare riferimento a[Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-resource-access-role.md), più avanti in questa sezione.

**Per configurare le autorizzazioni di accesso**

1. Nella pagina **Configura le autorizzazioni di accesso**, esegui una delle seguenti operazioni:

   1. Seleziona **Crea e usa un nuovo ruolo di servizio**.

   1. Nella casella **Service role name suffisso, inserisci un suffisso** descrittivo per il ruolo.

   oppure

   1. Seleziona **Usa un ruolo di servizio esistente**.

   1. Apri l'elenco dei **ruoli di servizio** e seleziona un ruolo.

1. Scegli **Next (Successivo)**.

## (Facoltativo) Configura avvisi in tempo reale
<a name="configure-alerts"></a>

**Importante**  
Per utilizzare gli avvisi in tempo reale, devi prima abilitare Amazon Transcribe o Amazon Transcribe Analytics.

Puoi creare una serie di regole che inviano avvisi in tempo reale ad Amazon EventBridge. Quando un'analisi generata da Amazon Transcribe o Amazon Transcribe Call Analytics corrisponde alla regola specificata durante una sessione di analisi, viene inviato un avviso. Gli avvisi hanno il tipo di dettaglio. `Media Insights Rules Matched` EventBridge supporta l'integrazione con servizi downstream come Amazon Lambda, Amazon SQS e Amazon SNS per attivare notifiche per l'utente finale o avviare altre logiche aziendali personalizzate. Per ulteriori informazioni, fare riferimento a[Utilizzo EventBridge delle notifiche Amazon per l'SDK Amazon Chime](using-eventbridge-notifications.md), più avanti in questa sezione.

**Per configurare gli avvisi**

1. In **Avvisi in tempo reale, scegli Avvisi** **attivi in tempo reale**.

1. In **Regole**, seleziona **Crea** regola.

1. Nella casella **Nome regola**, inserisci un nome per la regola.

1. Apri l'elenco dei **tipi di regola** e seleziona il tipo di regola che desideri utilizzare.

1. Utilizza i controlli visualizzati per aggiungere parole chiave alla regola e applicare la logica, ad esempio **menzionata** o **non menzionata**.

1. Scegli **Next (Successivo)**.

## Rivedi e crea
<a name="review-create"></a>

**Per creare la configurazione**

1. Rivedi le impostazioni in ogni sezione. Se necessario, scegliete **Modifica** per modificare un'impostazione.

1. Scegli **Crea configurazione**.

La configurazione viene visualizzata nella pagina **Configurazioni** della console Amazon Chime SDK.

# Utilizzo APIs per creare configurazioni di analisi delle chiamate per l'SDK Amazon Chime
<a name="create-config-apis"></a>

Puoi creare connettori vocali e configurazioni di analisi delle chiamate in modo programmatico, quindi associarli per avviare un flusso di lavoro di analisi delle chiamate. Questa guida presuppone che tu sappia scrivere il codice.

Le APIs opzioni utilizzate variano a seconda del tipo di flusso di lavoro. Ad esempio, per registrare l'audio, devi prima chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione di analisi delle chiamate. Quindi chiami il [CreateVoiceConnector](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html)per creare un Voice Connector. Infine, associ la configurazione a un Voice Connector utilizzando l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_PutVoiceConnectorStreamingConfiguration.html)API.

Al contrario, per registrare audio con un produttore di streaming video Kinesis, devi chiamare [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)e poi chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API.

Per ulteriori informazioni sull'utilizzo delle configurazioni di analisi delle chiamate per abilitare diversi flussi di lavoro, consulta i flussi di lavoro in[Utilizzo delle configurazioni di analisi delle chiamate per l'SDK Amazon Chime](using-call-analytics-configurations.md), più avanti in questa sezione.

# Associazione di una configurazione a un connettore vocale per l'SDK Amazon Chime
<a name="ca-associate-vc-steps"></a>

Dopo aver utilizzato la console per creare una configurazione di analisi delle chiamate, utilizzi la configurazione associandovi un Voice Connector. Il Voice Connector richiama quindi automaticamente la chiamata ai servizi di analisi specificati nella configurazione. Il Voice Connector richiama l'analisi delle chiamate per ogni chiamata.

**Per associare un Voice Connector**

1. [Apri la console Amazon Chime a casahttps://console.aws.amazon.com/chime-sdk/.](https://console.aws.amazon.com/chime-sdk/home)

1. **Nel pannello di navigazione, in **SIP Trunking**, scegli Connettori vocali.**

1. **Scegli il nome del Voice Connector che desideri associare a una configurazione, quindi scegli la scheda Streaming.**

1. Se non è già selezionato, scegli **Avvia per iniziare** lo streaming su Kinesis Video Streams.

1. In **Analisi delle chiamate**, seleziona **Attiva** e, nel menu visualizzato, scegli l'ARN della configurazione dell'analisi delle chiamate.

1. Scegli **Save** (Salva).

**Nota**  
Dopo aver abilitato, disabilitato o modificato una configurazione associata a un Voice Connector, attendi 5 minuti affinché le nuove impostazioni si propaghino attraverso il servizio e abbiano effetto.

Per ulteriori informazioni sulle configurazioni di analisi delle chiamate, consulta la sezione [Managing Call Analytics](https://docs.aws.amazon.com/chime-sdk/latest/ag/ag-call-analytics.html) nella *Amazon Chime SDK Administrator* Guide.

Per ulteriori informazioni sull'utilizzo delle configurazioni di analisi delle chiamate per abilitare diversi flussi di lavoro, consulta, più avanti in [Utilizzo delle configurazioni di analisi delle chiamate per l'SDK Amazon Chime](using-call-analytics-configurations.md) questa sezione.

# Utilizzo delle configurazioni di analisi delle chiamate per l'SDK Amazon Chime
<a name="using-call-analytics-configurations"></a>

Per elaborare l'audio utilizzando una configurazione di analisi delle chiamate, devi creare una pipeline di analisi delle chiamate, nota anche come pipeline di analisi delle chiamate. La pipeline viene creata durante una chiamata per gestire l'audio e viene terminata al termine della chiamata. Le pipeline di analisi delle chiamate richiedono l'ARN di una configurazione di analisi delle chiamate e informazioni sulla sorgente audio. La configurazione dell'analisi delle chiamate include dettagli sui processori audio, sulle destinazioni di analisi e sulle configurazioni degli eventi di avviso, *ma non sulla sorgente* audio. Ciò consente di riutilizzare la configurazione in diversi flussi di lavoro di analisi delle chiamate, ad esempio con diversi Voice Connectors o sorgenti KVS. La pipeline di analisi delle chiamate richiama i servizi di machine learning specificati nella configurazione e registra l'audio. È possibile interrompere manualmente o automaticamente la pipeline al termine della chiamata.

Puoi utilizzare le pipeline di analisi delle chiamate in un'ampia varietà di casi d'uso. I seguenti flussi di lavoro mostrano i modi potenziali per utilizzare una configurazione e una pipeline di analisi delle chiamate.

**Topics**
+ [Comprensione dei flussi di lavoro per la registrazione delle chiamate per l'SDK Amazon Chime](recording-workflows.md)
+ [Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime](ml-based-analytics.md)

# Comprensione dei flussi di lavoro per la registrazione delle chiamate per l'SDK Amazon Chime
<a name="recording-workflows"></a>

Gli argomenti di questa sezione elencano e descrivono i flussi di lavoro per la registrazione delle chiamate e di Kinesis Video Streams.

# Registrazione delle chiamate Voice Connector
<a name="record-vc-calls"></a>

Utilizza questo flusso di lavoro quando:
+ Utilizzi già, o intendi utilizzare, un Voice Connector per integrare i contenuti multimediali SIP nell'analisi delle chiamate.
**Nota**  
I connettori vocali supportano SIP e SIPREC. Per ulteriori informazioni, consulta [Managing Amazon Chime SDK Voice Connectors, nella *Amazon Chime* SDK](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) Administrator Guide.
+ Desideri registrare automaticamente le chiamate SIP o SIPREC a bassa latenza verso destinazioni Amazon Simple Storage Service di tua scelta.
+ Vuoi utilizzare la console Amazon Chime SDK per creare la configurazione e associarla a un Voice Connector.
+ Vuoi applicare la stessa configurazione di registrazione a ogni chiamata Voice Connector. Se desideri applicare più configurazioni a uno o più Voice Connectors, consulta la sezione successiva.

Per abilitare le chiamate a livello di codice, utilizza il seguente Amazon Chime SDK. APIs
+ Usa l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione di analisi delle chiamate
+ Usa [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceConnector.html)per creare un Voice Connector.
+ Utilizza l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API per associare la configurazione a un Voice Connector. 

Per ulteriori informazioni, consulta [Configurazione dei connettori vocali per utilizzare l'analisi delle chiamate](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) nella Guida per l'amministratore di *Amazon Chime SDK*. 

 Il diagramma seguente mostra il flusso di dati quando un Voice Connector avvia una sessione di registrazione delle chiamate. I numeri nel diagramma corrispondono al testo numerato riportato di seguito. 

![\[Immagine che mostra il flusso di dati quando un Voice Connector inizia a registrare una chiamata.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)


 Nel diagramma: 

1. Utilizza la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione di analisi delle chiamate. Durante il processo di creazione della configurazione, è sufficiente attivare la registrazione delle chiamate, scegliere il formato di file di registrazione desiderato e specificare la destinazione Amazon S3 per l'archiviazione dei file di registrazione. Per ulteriori informazioni, consulta [Creazione di configurazioni di analisi delle chiamate](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-ca-config.html), nella *Amazon Chime SDK Administrator* Guide.

1. Utilizza la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API per associare la configurazione a un Voice Connector. Per utilizzare la console, consulta [Configurazione dei connettori vocali per utilizzare l'](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html)analisi delle chiamate.

1. Durante una chiamata in uscita, il Voice Connector riceve l'audio di ogni partecipante alla chiamata.

1. Se una configurazione di registrazione analitica delle chiamate è collegata a Voice Connector, il servizio Voice Connector utilizza il servizio di pipeline multimediale per avviare una sessione di registrazione di analisi delle chiamate.

1. Il servizio di pipeline multimediale avvia il processore di registrazione delle chiamate che monitora la chiamata in corso.

1. Al termine della chiamata, il servizio di pipeline multimediale invia il file di registrazione della chiamata al bucket Amazon S3 designato e fornisce i metadati di registrazione tramite Amazon Kinesis Data Stream. Se è abilitato un data warehouse, i metadati della chiamata vanno anche al data warehouse di Amazon Simple Storage Service. Nei casi in cui SIPREC viene utilizzato per incorporare l'audio SIP nell'analisi delle chiamate, i metadati delle chiamate includono i metadati SIPREC in formato tabellare. Per ulteriori informazioni sulle tabelle di registrazione, fare riferimento a, più avanti in questa sezione. [Comprendere le tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime](glue-tables.md)

1. Il servizio di pipeline multimediale invia gli eventi di stato della pipeline all'Amazon predefinito. EventBridge Per ulteriori informazioni, consulta la sezione [Utilizzo EventBridge delle notifiche](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) in questa guida. 

**Nota**  
 Tieni presente che devi abilitare lo streaming di Voice Connector per abilitare la registrazione con un Voice Connector. Questa funzionalità consente lo streaming dei dati delle chiamate verso i Kinesis Video Streams gestiti da Voice Connector nel tuo account. Per ulteriori informazioni, consulta [Streaming dei contenuti multimediali di Amazon Chime SDK Voice Connector su Kinesis Video Streams nella Guida per](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) l'amministratore di *Amazon* Chime SDK.

 Puoi anche archiviare i dati delle chiamate creati da Voice Connector in Kinesis Video Streams per durate diverse, che vanno da ore a giorni o addirittura anni. La scelta di non conservare i dati limita l'usabilità dei dati della chiamata per il consumo immediato. Il costo di Kinesis Video Streams è determinato in base alla larghezza di banda e allo spazio di archiviazione totale utilizzati. Puoi modificare il periodo di conservazione dei dati in qualsiasi momento all'interno della configurazione di streaming di Voice Connector. Per abilitare la registrazione analitica delle chiamate, devi assicurarti che Kinesis Video Stream conservi i dati abbastanza a lungo da eseguire l'analisi delle chiamate. Lo fai specificando un periodo di conservazione dei dati adeguato. 

 Puoi associare una configurazione della pipeline di Call Insights a tutti i connettori vocali che desideri. Puoi anche creare una configurazione diversa per ogni Voice Connector. Voice Connectors utilizza il AWSService RoleForAmazonChimeVoiceConnector per chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API per tuo conto una volta per ID di transazione. *Per informazioni sul ruolo, consulta [Using the Amazon Chime SDK Service-Linked role for Amazon Chime SDK Voice Connectors nella Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream) SDK Administrator Guide.*

# Registrazione con produttori di streaming video Amazon Kinesis
<a name="record-kvs-streams"></a>

Registri gli stream di Amazon Kinesis Video quando: 
+ È necessario applicare configurazioni diverse a una chiamata anziché utilizzare la stessa configurazione per ogni chiamata Voice Connector.
+ Vuoi registrare audio SIP o non SIP che non venga elaborato da un Voice Connector.

 Per utilizzare questa opzione di registrazione delle chiamate, è necessario pubblicare l'audio su Kinesis Video Streams (KVS) e quindi [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)chiamare l'API con le informazioni sul canale di streaming KVS e un ARN di configurazione per l'analisi delle chiamate.

**Nota**  
L'analisi delle chiamate APIs supporta un massimo di due canali audio. Puoi anche abilitare lo streaming di Voice Connector, quindi utilizzare le informazioni KVS pubblicate nelle EventBridge notifiche di Voice Connector per avviare la registrazione di una chiamata. 

 Quando chiamate l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API, potete scegliere se specificare o meno i numeri di frammento per ogni definizione di canale di streaming KVS. Se fornisci un numero di frammento, Call Analytics inizierà a elaborare lo stream in quel frammento. Se non specifichi un ID di frammento, Call Analytics inizia a elaborare il flusso a partire dall'ultimo frammento disponibile. 

 Il diagramma seguente mostra il flusso di dati quando un Voice Connector avvia una sessione di registrazione delle chiamate. I numeri nel diagramma corrispondono al testo numerato riportato di seguito. 

![\[Immagine che mostra il flusso di dati quando un Voice Connector inizia a registrare una chiamata.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/call-analytics-workflow-2.png)


Nel diagramma:

1. Puoi utilizzare la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione di registrazione delle chiamate.

1. Usa l' AWS SDK per creare un'applicazione che trasferisca l'audio esterno in KVS o abilita lo streaming di Voice Connector per pubblicare automaticamente l'audio delle chiamate su un KVS. Per ulteriori informazioni, consulta [Streaming dei contenuti multimediali di Amazon Chime SDK Voice Connector su Kinesis Video Streams nella Guida per](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) l'amministratore di *Amazon* Chime SDK.

1. Se lo streaming Voice Connector è abilitato, il servizio Voice Connector invia le notifiche ai valori predefiniti. EventBridge

1. Nel caso dello streaming di Voice Connector, l'applicazione può utilizzare gli `STARTED` eventi di streaming di Amazon Chime Voice Connector EventBridge per raccogliere informazioni sullo stream KVS sulle fasi di una chiamata.

1. Una volta che l'applicazione dispone delle informazioni audio provenienti dagli eventi di streaming di Voice Connector o da una fonte esterna, l'applicazione richiama l'API Amazon [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)Chime SDK.

1. Il servizio di pipeline multimediale avvia il processore di registrazione delle chiamate che monitora la chiamata in corso.

1. Il servizio di pipeline multimediale invia gli eventi di stato della pipeline all'Amazon predefinito. EventBridge Per ulteriori informazioni, consulta [Utilizzo EventBridge ](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) delle notifiche.

1. Una volta completata una chiamata, il servizio di pipeline multimediale consegnerà il file di registrazione della chiamata al bucket Amazon S3 designato e fornirà i metadati di registrazione tramite Amazon Kinesis Data Stream. Se è abilitato un data warehouse, i metadati delle chiamate verranno inviati anche al data warehouse Amazon S3. Nei casi in cui SIPREC viene utilizzato per incorporare l'audio SIP nell'analisi delle chiamate, i metadati delle chiamate includeranno i metadati SIPREC in un comodo formato di tabella. Per ulteriori informazioni sulle tabelle di registrazione, fare riferimento a, più avanti in questa sezione. [Comprendere le tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime](glue-tables.md)

1. La tua applicazione può monitorare la pipeline e, nel caso di un Voice Connector, lo stato della chiamata utilizzando gli eventi pubblicati su Amazon EventBridge. Per ulteriori informazioni, consulta la sezione [Uso EventBridge delle notifiche](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html) in questa guida.

1. Per terminare la registrazione, chiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)API per terminare la registrazione della chiamata. 

Per esempi e registrazioni basate su API, consulta il [sink di registrazione Amazon S3](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-s3-recording-sink) in questa guida.

# Utilizzo della CLI per avviare la registrazione
<a name="using-the-cli-to-start-recording"></a>

Gli esempi in questa sezione spiegano come eseguire le seguenti operazioni:
+ Utilizza la CLI per eseguire una configurazione di analisi delle chiamate e richiamare il. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)
+ Utilizzate la CLI per specificare le destinazioni di registrazione, i formati dei file audio e i nomi dei file audio.

**Topics**
+ [Esecuzione di una configurazione e avvio di una pipeline](#cli-run-config)
+ [Impostazione di destinazioni, nomi e formati](#cli-set-buckets-formats)

## Esecuzione di una configurazione e avvio di una pipeline
<a name="cli-run-config"></a>

Usa il comando seguente per eseguire una configurazione e avviare una pipeline di media insights. Il file pipeline.json contiene le impostazioni di configurazione.

```
aws chime-sdk-media-pipeline create-media-insights-pipeline --cli-input-json file://pipeline.json
```

L'esempio seguente mostra un file tipico. `pipeline.json`

```
{
    "MediaInsightsPipelineConfigurationArn": arn:aws:chime:region;account_id:media-insights-pipeline-configuration/MyConfiguration,
    "KinesisVideoStreamRecordingSourceRuntimeConfiguration": {
        "Streams": [
            {
                "StreamArn": kinesis_video_stream_arn_1
            },
            {
                "StreamArn": kinesis_video_stream_arn_2
            }
        ],
        "FragmentSelector": {
            "FragmentSelectorType": "selector_type", // Specify "server_timestamp" or "producer_timestamp" as the fragment selector type
            "TimestampRange": {
                "StartTimestamp": epoch_time_seconds,
                "EndTimestamp": epoch_time_seconds
            }
        }
    },
    "S3RecordingSinkRuntimeConfiguration": {
        "Destination": arn:aws:s3:::bucket_name/prefix/optional_file_name,
        "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format, if you want to override the configuration
    }
}
```

`MediaInsightsPipelineConfigurationArn`È l'ARN di configurazione che ricevi dopo aver creato una configurazione di analisi delle chiamate.

## Impostazione di destinazioni, nomi e formati
<a name="cli-set-buckets-formats"></a>

 L'esempio seguente utilizza una cartella denominata `MyRecordingBucket` come `S3SinkConfiguration.Destination` valore e `Opus` come `RecordingFileFormat` valore.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.ogg
```

L'esempio seguente utilizza `MyRecordingBucket` come `S3SinkConfiguration.Destination` valore e `Wav` come `RecordingFileFormat` valore.

```
arn:aws:s3:::MyRecordingBucket/voice-connector-id/transaction-id_year-month-date-hour-minute-second-millisecond.wav
```

# Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime
<a name="ml-based-analytics"></a>

Le seguenti sezioni descrivono come utilizzare le funzionalità di analisi dell'apprendimento automatico fornite dall'analisi delle chiamate di Amazon Chime SDK.

**Nota**  
Se prevedi di eseguire più analisi di apprendimento automatico sullo stesso Kinesis Video Stream, potrebbe essere necessario aumentare il limite del livello di connessione per e per `GetMedia` il flusso video. `GetMediaForFragmentList` Per ulteriori informazioni, consulta i limiti di [Kinesis Video Streams nella Kinesis Video](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/limits.html) *Streams Developer Guide*.

# Utilizzo di Voice Connectors per avviare automaticamente l'analisi delle chiamate
<a name="automatic-vc-analytics"></a>

Utilizza questo flusso di lavoro quando:
+ Desideri una configurazione basata sulla console.
+ Utilizzi già o intendi utilizzare un Voice Connector per integrare i contenuti multimediali SIP nell'analisi delle chiamate. I connettori vocali supportano sia SIP che SIPREC. Per ulteriori informazioni sulla configurazione dei connettori vocali, consulta [Managing Amazon Chime SDK](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) Voice Connector.
+ Vuoi applicare la stessa configurazione di Media Insights a ogni chiamata Voice Connector.
+ È necessario utilizzare l'analisi vocale di Amazon Chime SDK, che richiede un Voice Connector o una pipeline di informazioni multimediali.

Per abilitare questo flusso di lavoro nella console Amazon Chime SDK, segui i passaggi per creare una configurazione di registrazione in [Configurazione dei connettori vocali per](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) utilizzare l'analisi delle chiamate.

Per abilitare questo flusso di lavoro a livello di codice, utilizza quanto segue APIs: [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione di analisi delle chiamate e quindi associa la configurazione a un Voice Connector utilizzando l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html) Per ulteriori informazioni, consulta [Configurazione dei connettori vocali per utilizzare l'analisi vocale nella Guida](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html) per l'amministratore di *Amazon Chime SDK*. 

 Il diagramma seguente mostra il flusso di dati quando un Voice Connector avvia una sessione di analisi delle chiamate. I numeri nel diagramma corrispondono al testo numerato riportato di seguito. 

 ![\[Image showing the flow of data when a Voice Connector initiates a call.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/call-analytics-workflow-1.png)

 Nel diagramma: 

1. Utilizza la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione della pipeline di Media Insights.

1. Utilizza la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_PutVoiceConnectorStreamingConfiguration.html)API per associare la configurazione a un Voice Connector. Per associare una configurazione esistente a un connettore vocale, consulta la sezione [Configurazione dei connettori vocali per utilizzare l'analisi delle chiamate](https://docs.aws.amazon.com/chime-sdk/latest/ag/configure-voicecon.html), nella Guida per l'amministratore di *Amazon Chime SDK*.

1. Durante una chiamata in uscita, il Voice Connector riceve l'audio di ogni partecipante alla chiamata.

1. Grazie all'integrazione integrata con l'analisi delle chiamate, se una configurazione di analisi delle chiamate è collegata a un Voice Connector, il servizio Voice Connector avvia una sessione di analisi delle chiamate utilizzando il servizio di pipeline multimediale.

1. Il servizio di pipeline multimediale richiama uno o più processori multimediali come specificato nella configurazione.

1. Il servizio di pipeline multimediale invia i dati di output a una o più destinazioni in base alla configurazione. Ad esempio, puoi inviare analisi in tempo reale tramite un Amazon Kinesis Data Stream e, se configurato, puoi inviare i metadati e l'analisi delle chiamate a un data warehouse Amazon S3.

1. Il servizio di pipeline multimediale invia gli eventi di stato della pipeline all'Amazon predefinito. EventBridge Se hai configurato delle regole, le relative notifiche verranno inviate anche EventBridge ad Amazon. Per ulteriori informazioni, consulta [Utilizzo EventBridge delle notifiche](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).

**Nota**  
Un processore di analisi vocale si avvia automaticamente solo quando si chiama la sala [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)operatoria [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html) APIs. 
È necessario abilitare lo streaming di Voice Connector per utilizzare l'analisi delle chiamate con Voice Connector. Questa funzionalità consente lo streaming dei dati delle chiamate su Kinesis Video Streams gestiti da Voice Connector nel tuo account. Per ulteriori informazioni, consulta la sezione [Streaming dei contenuti multimediali di Amazon Chime SDK Voice Connector su Kinesis Video Streams nella Guida per](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) l'amministratore di *Amazon* Chime SDK. 

 È possibile archiviare i dati delle chiamate Voice Connector in Kinesis Video Streams per periodi di tempo diversi, che vanno da ore a anni. La scelta di non conservare i dati limita l'usabilità dei dati della chiamata per il consumo immediato. Il costo di Kinesis Video Streams è determinato in base alla larghezza di banda e allo spazio di archiviazione totale utilizzati. È possibile modificare il periodo di conservazione dei dati in qualsiasi momento modificando la configurazione di streaming del Voice Connector. Per abilitare la registrazione analitica delle chiamate, devi assicurarti che Kinesis Video Stream conservi i dati fino al termine dell'analisi delle chiamate. Lo fai specificando un periodo di conservazione dei dati adeguato. 

 Puoi associare una configurazione della pipeline di Media Insights a tutti i connettori vocali che desideri. Puoi anche creare una configurazione diversa per ogni Voice Connector. Voice Connectors utilizza il AWSService RoleForAmazonChimeVoiceConnector per chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API per tuo conto una volta per ID di transazione. *Per informazioni sul ruolo, consulta [Using the Amazon Chime SDK Service-Linked role for Amazon Chime SDK Voice Connectors nella Amazon Chime](https://docs.aws.amazon.com/chime-sdk/latest/ag/using-service-linked-roles-stream.html#service-linked-role-permissions-stream) SDK Administrator Guide.* 

# Utilizzo APIs dell'analisi delle chiamate con Voice Connectors
<a name="ca-apis-with-vc"></a>

Utilizza questo flusso di lavoro se utilizzi un Voice Connector ma devi controllare quando applicare una configurazione di analisi delle chiamate e a quale chiamata applicare la configurazione.

 Per utilizzare questo metodo, è necessario creare un EventBridge target per gli eventi pubblicati da Voice Connector e quindi utilizzare gli eventi per attivare la pipeline APIs di analisi delle chiamate. Per ulteriori informazioni, consulta [Automating the Amazon Chime SDK EventBridge con la Amazon Chime SDK Administrator](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) *Guide*. 

 Il diagramma seguente mostra come implementare un controllo più granulare quando si utilizza l'analisi delle chiamate con Voice Connector. I numeri nel diagramma corrispondono ai numeri nel testo seguente. 

![\[Immagine che mostra il flusso di dati quando si utilizzano chiamate API con connettori vocali.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/analytics-vc-with-apis.png)


 Nel diagramma: 

1. Utilizza la console Amazon Chime SDK o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione della pipeline di Media Insights.

1. Durante una chiamata in uscita, Voice Connector riceverà l'audio dei partecipanti.

1. Il Voice Connector invia l'audio della chiamata a Kinesis Video Stream e gli eventi corrispondenti a. EventBridge Questi eventi hanno metadati di streaming e di chiamata.

1. La tua applicazione è sottoscritta EventBridge tramite un EventBridge Target.

1. L'applicazione richiama l'API Amazon [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)Chime SDK.

1. Il servizio Media Pipeline richiama uno o più processori multimediali in base agli elementi del processore presenti nella configurazione della pipeline Media Insights.

1. Il servizio media pipeline invia i dati di output a una o più destinazioni in base alla configurazione. L'analisi delle chiamate di Amazon Chime SDK fornirà analisi in tempo reale tramite Amazon Kinesis Data Stream e, se configurata, analisi dei metadati delle chiamate su un data warehouse Amazon S3.

1. Il servizio di pipeline multimediale invia gli eventi ad Amazon EventBridge. Se hai configurato delle regole, le relative notifiche verranno inviate anche EventBridge ad Amazon.

1. Puoi mettere in pausa o riprendere la sessione di analisi delle chiamate richiamando l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)
**Nota**  
La registrazione delle chiamate non supporta la sospensione e la ripresa delle chiamate. Inoltre, le attività di analisi vocale avviate per la chiamata si interrompono anche quando si sospende una sessione. Per riavviarle, è necessario chiamare [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

1. Se si seleziona l'analisi del tono vocale durante la configurazione, si avvia l'analisi vocale chiamando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Utilizzo dell'analisi delle chiamate con i produttori di Kinesis Video Streams
<a name="ca-apis-kvs"></a>

 Per utilizzare questa opzione, è necessario pubblicare dati audio su Kinesis Video Streams (KVS) e quindi [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)chiamare l'API con le informazioni sul canale di streaming KVS.

**Nota**  
L'analisi delle chiamate APIs supporta un massimo di due canali audio.

Quando si chiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API, è possibile specificare i numeri di frammento per ogni definizione di canale di streaming KVS. Se fornite un numero di frammento, Call Analytics inizia a elaborare lo stream in corrispondenza di quel frammento. In caso contrario, l'analisi delle chiamate inizia a elaborare il flusso dall'ultimo frammento disponibile.

L'analisi delle chiamate supporta l'audio PCM (solo formati audio Little-endian firmati a 16 bit, che non include WAV) con una frequenza di campionamento audio compresa tra 8 kHz e 48 kHz. L'audio di bassa qualità, come quello della telefonia, è in genere di circa 8.000 Hz. L'audio di alta qualità varia in genere da 16.000 Hz a 48.000 Hz. La frequenza di campionamento specificata deve corrispondere a quella dell'audio. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_KinesisVideoStreamSourceRuntimeConfiguration.html)*Amazon Chime SDK* API Reference.

L'SDK Kinesis Video Streams Producer fornisce un set di librerie che è possibile utilizzare per lo streaming di dati audio su un Kinesis Video Stream. Per ulteriori informazioni, consulta [Kinesis Video Streams Producer Libraries, nella Amazon Kinesis Video Streams](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk.html) *Developer* Guide.

Il diagramma seguente mostra il flusso di dati quando si utilizza l'analisi delle chiamate con un produttore Kinesis Video Stream personalizzato. I numeri nel diagramma corrispondono al testo numerato riportato di seguito.

![\[Immagine che mostra il flusso di dati quando si utilizza l'analisi delle chiamate con un produttore Kinesis Video Stream.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/analytics-kvs-with-apis.png)


1. Utilizzi la AWS console o l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)API per creare una configurazione della pipeline di Media Insights.

1. Si utilizza un Kinesis Video Stream Producer per scrivere audio su Kinesis Video Streams.

1. L'applicazione richiama l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)

1. Il servizio di pipeline multimediale legge l'audio dai Kinesis Video Streams del cliente.

1. Il servizio di pipeline multimediale invia gli eventi ad Amazon EventBridge. Se hai configurato delle regole, le relative notifiche verranno inviate anche EventBridge ad Amazon.

1. Il servizio di pipeline multimediale richiama uno o più elementi del processore.

1. Il servizio di pipeline multimediale invia i dati di output a uno o più elementi sink.

1. Puoi mettere in pausa o riprendere la sessione di analisi delle chiamate richiamando l'API. [ UpdateMediaInsightsPipelineStatus](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)
**Nota**  
La registrazione delle chiamate non supporta la pausa e la ripresa.

1. La tua applicazione può elaborare gli EventBridge eventi Amazon per attivare flussi di lavoro aziendali personalizzati.

1. Se selezioni l'analisi vocale quando crei una configurazione, l'applicazione può avviare l'analisi vocale chiamando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

# Gestione delle pipeline di analisi delle chiamate per l'SDK Amazon Chime
<a name="managing-call-analytics-pipelines"></a>

 Puoi leggere, elencare ed eliminare le pipeline di Media Insights chiamando, and. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html) APIs 

 Le pipeline di Media Insights si interrompono se viene soddisfatta una delle seguenti condizioni: 
+ Nessuno degli stream Kinesis Video invia nuovi frammenti a una `InProgress` pipeline per 15 secondi.
+ Viene [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaPipeline.html)chiamata l'API.
+ La pipeline di analisi dei media è stata creata più di 8 ore fa. Il sistema arresta automaticamente la pipeline.
+ La pipeline di analisi dei media viene messa in pausa per più di 2 ore. Il sistema arresta automaticamente la pipeline.

# Sospensione e ripresa delle pipeline di analisi delle chiamate per l'SDK Amazon Chime
<a name="pausing-and-resuming-call-analytics-pipelines"></a>

Per mettere in pausa e riprendere una pipeline di Media Insights, richiama l'API con un'azione or. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)`Pause``Resume` A tale scopo, inserite l'ID della pipeline o l'ARN nel `Identifier` campo.

**avvertimento**  
Avviso: l'`UpdateMediaInsightsPipelineStatus`API *interrompe* tutte le attività di analisi vocale avviate su una pipeline di Media Insights quando viene fornito uno `Pause` stato. Quando viene fornito lo `Resume` stato, le attività non vengono riprese e devono essere riavviate. È necessario fornire tutti gli avvisi necessari e ottenere tutti i consensi necessari dai relatori prima di riprendere le attività. Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html), nell'*Amazon Chime SDK* API Reference.

Mentre è in pausa, la pipeline interrompe l'invio di contenuti multimediali ai processori e la scrittura dei dati su Kinesis Data Streams e nei data warehouse. Quando si accede `Resume` alla pipeline, il servizio invia l'ultima porzione disponibile nello stream. Le pipeline di Media Insights si interrompono automaticamente se vengono sospese per più di 2 ore. **Tieni presente che** la registrazione delle chiamate non supporta la pausa e la ripresa. 

 Per ulteriori informazioni, consulta i seguenti argomenti: 
+ [Utilizzo EventBridge delle notifiche](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-eventbridge-notifications.html).
+ [https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType](https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/API_dataplane_StartSelector.html#KinesisVideo-Type-dataplane_StartSelector-StartSelectorType)nella Guida per *sviluppatori di Amazon Kinesis Video Streams*.
+ Processore di analisi delle [chiamate Amazon Transcribe](https://docs.aws.amazon.com/chime-sdk/latest/dg/ca-processors-sinks.html#ca-transcribe-analytics-processor).

**Nota**  
 Ti viene addebitato l'utilizzo dell'analisi delle chiamate mentre una pipeline è in pausa. Tuttavia, non ti vengono addebitati AWS i servizi a cui si accede tramite il ruolo di accesso alle risorse, come Amazon Transcribe e Amazon Kinesis. 

 È possibile leggere, aggiornare ed eliminare le configurazioni di analisi delle chiamate esistenti [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_DeleteMediaInsightsPipelineConfiguration.html) APIs utilizzando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)e passando il nome di configurazione o l'ARN nel campo Identifier. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html) 

 Puoi elencare le configurazioni chiamando l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_media-pipelines-chime_ListMediaInsightsPipelineConfiguration.html) 

# Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime
<a name="call-analytics-resource-access-role"></a>

L'account chiamante deve creare il ruolo di accesso alle risorse utilizzato da una configurazione della pipeline di Media Insights. Non puoi utilizzare ruoli tra account. 

A seconda delle funzionalità che abiliti quando crei una configurazione di analisi delle chiamate, devi utilizzare politiche di risorse aggiuntive. Espandi le seguenti sezioni per saperne di più.

## Politica minima richiesta
<a name="minimum-policy"></a>

Il ruolo richiede almeno la seguente politica:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "transcribe:StartCallAnalyticsStreamTranscription",
                "transcribe:StartStreamTranscription"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:GetMedia"
            ],
            "Resource": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": ["kms:Decrypt"],
            "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

È inoltre necessario utilizzare la seguente politica di fiducia:

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "Service": "mediapipelines.chime.amazonaws.com"
      },
      "Action": "sts:AssumeRole",
      "Condition": {
        "StringEquals": {
            "aws:SourceAccount": "111122223333"
        },
        "ArnLike": {
            "aws:SourceARN": "arn:aws:chime:*:111122223333:*"
        }
        }
    }
  ]
}
```

------

## Policy KinesisDataStreamSink
<a name="kds-stream-sink-policy"></a>

Se utilizzi la`KinesisDataStreamSink`, aggiungi la seguente politica:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [{
            "Effect": "Allow",
            "Action": [
                "kinesis:PutRecord"
            ],
            "Resource": [
                "arn:aws:kinesis:us-east-1:111122223333:stream/output_stream_name"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## Policy S3RecordingSink
<a name="s3-recording-sink-policy"></a>

Se utilizzi il`S3RecordingSink`, aggiungi il seguente criterio:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:PutObject",
                "s3:PutObjectAcl",
                "s3:PutObjectTagging"
            ],
            "Resource": [
                "arn:aws:s3:::input_bucket_path/*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:GetDataEndpoint",
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
                "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        },
        {
            "Effect": "Allow",
            "Action": [
                "kinesisvideo:ListFragments",
                "kinesisvideo:GetMediaForFragmentList"
            ],
            "Resource": [
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
            ]
        },
        {
            "Effect": "Allow",
            "Action": [
                "kms:GenerateDataKey"
            ],
            "Resource": [
            "arn:aws:kms:us-east-1:111122223333:key/*"
            ],
            "Condition": {
                "StringLike": {
                    "aws:ResourceTag/AWSServiceName": "ChimeSDK"
                }
            }
        }
    ]
}
```

------

## Politica di Post Call Analytics
<a name="post-call-analytics-policy"></a>

Se utilizzi la funzionalità Post Call Analytics di`AmazonTranscribeCallAnalyticsProcessor`, aggiungi la seguente politica:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "iam:PassRole"
            ],
            "Resource": [
                "arn:aws:iam::111122223333:role/transcribe_role_name"
            ],
            "Condition": {
                "StringEquals": {
                    "iam:PassedToService": "transcribe.streaming.amazonaws.com"
                }
            }
        }
    ]
}
```

------

## Policy VoiceEnhancementSinkConfiguration
<a name="enhancement-sink-config-policy"></a>

Se utilizzi l'`VoiceEnhancementSinkConfiguration`elemento, aggiungi la seguente politica:

------
#### [ JSON ]

****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Action":[
            "s3:GetObject",
            "s3:PutObject",
            "s3:PutObjectAcl",
            "s3:PutObjectTagging"
         ],
         "Resource":[
            "arn:aws:s3:::input_bucket_path/*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:GetDataEndpoint",
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
            "arn:aws:kinesisvideo:us-east-1:111122223333:stream/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      },
      {
         "Effect":"Allow",
         "Action":[
            "kinesisvideo:ListFragments",
            "kinesisvideo:GetMediaForFragmentList"
         ],
         "Resource":[
         "arn:aws:kinesisvideo:us-east-1:111122223333:stream/Chime*"
         ]
      },
      {
         "Effect":"Allow",
         "Action":[
            "kms:GenerateDataKey"
         ],
         "Resource":[
         "arn:aws:kms:us-east-1:111122223333:key/*"
         ],
         "Condition":{
            "StringLike":{
               "aws:ResourceTag/AWSServiceName":"ChimeSDK"
            }
         }
      }
   ]
}
```

------

## Policy VoiceAnalyticsProcessor
<a name="voice-analytics-processor-policy"></a>

Se utilizzate il`VoiceAnalyticsProcessor`, aggiungete le politiche per `LambdaFunctionSink` e in `SnsTopicSink` base ai sink che avete definito. `SqsQueueSink`

Policy `LambdaFunctionSink`:    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "lambda:InvokeFunction",
        "lambda:GetPolicy"
       ],
      "Resource": [
          "arn:aws:lambda:us-east-1:111122223333:function:function_name"
       ],
      "Effect": "Allow"
    }
  ]
}
```

Policy `SqsQueueSink`    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sqs:SendMessage",
        "sqs:GetQueueAttributes"
       ],
      "Resource": [
      "arn:aws:sqs:us-east-1:111122223333:queue_name"
        ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

Policy `SnsTopicSink`:    
****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Action": [
        "sns:Publish",
        "sns:GetTopicAttributes"
      ],
      "Resource": [
      "arn:aws:sns:us-east-1:111122223333:topic_name"
      ],
      "Effect": "Allow"
    },
    {
      "Effect": "Allow",
      "Action": ["kms:GenerateDataKey", "kms:Decrypt"],
      "Resource": "arn:aws:kms:us-east-1:111122223333:key/*",
      "Condition": {
        "StringLike": {
            "aws:ResourceTag/AWSServiceName": "ChimeSDK"
        }
      }
    }
  ]
}
```

# Comprensione degli stati di analisi delle chiamate per l'SDK Amazon Chime
<a name="call-analytics-statuses"></a>

Le pipeline di Media Insights tengono traccia di una serie di stati quando esegui una o entrambe le seguenti operazioni: 
+ Utilizza più elementi di elaborazione dell'apprendimento automatico, come Amazon Transcribe e l'analisi vocale.
+ Abilita la registrazione delle chiamate con o senza l'elaborazione dell'apprendimento automatico.

[Per ottenere gli stati della pipeline e degli elementi, utilizza l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaPipeline.html)API e EventBridge le notifiche.](using-eventbridge-notifications.md)

Per ottenere gli stati per le attività di analisi vocale, utilizza gli obiettivi di [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html)notifica and [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html) APIse di [analisi vocale](va-notification-targets.md).

Le pipeline di Media Insights tengono traccia dei seguenti stati.
+ Stato della **pipeline: lo stato** generale di una pipeline di analisi delle chiamate, nota anche come pipeline di media insights. Questo è determinato dagli stati degli elementi.
+ **Stato dell'elemento: lo stato** di elaborazione dei singoli elementi di configurazione della pipeline di Media Insights.
+ **Stato dell'attività: lo stato** di elaborazione di un'attività della pipeline di Media Insights è iniziato per l'analisi vocale. Lo stato `VoiceAnalyticsProcessor` dell'elemento è determinato dagli stati delle attività. Nessun altro elemento in una pipeline di analisi delle chiamate ha uno stato di attività.

  Per ulteriori informazioni sulle attività della pipeline di Media Insights, consulta l'articolo [Comprensione della terminologia di analisi delle chiamate per l'SDK Amazon Chime](ca-terms-concepts.md) precedente di questa guida.

Non tutti i tipi di elementi di configurazione di Media Insights hanno uno stato di elemento. In generale, solo gli elementi di configurazione di Media Insights del tipo «processore» hanno uno stato di elemento. Inoltre, i sink di registrazione e miglioramento vocale di Amazon S3 hanno lo stato del processore. In particolare, esistono stati degli elementi per i seguenti tipi di elementi di configurazione di Media Insights:
+ `AmazonTranscribeProcessor`
+ `AmazonTranscribeCallAnalyticsProcessor`
+ `S3RecordingSink`
+ `VoiceAnalyticsProcessor`
+ `VoiceEnhancementSink`

Lo stato della pipeline è determinato dagli stati degli elementi nel modo seguente:


| Stato della tubazione | Condizione | 
| --- | --- | 
| NotStarted | Tutti gli stati degli elementi non vengono avviati. | 
| Inizializzazione | Almeno un elemento è in fase di inizializzazione e gli altri non vengono avviati. | 
| InProgress | Almeno un elemento è in corso.  | 
| Non riuscito | Almeno un elemento è guasto e gli elementi rimanenti sono stati interrotti. | 
| In arresto | [Gestione delle pipeline di analisi delle chiamate per l'SDK Amazon Chime](managing-call-analytics-pipelines.md)Per un elenco completo delle condizioni di arresto, fare riferimento a. | 
| Arrestato | Tutti gli elementi vengono interrotti. | 
| In pausa | Tutti gli elementi sono in pausa. | 

A differenza degli altri stati degli elementi, l'`VoiceAnalyticsProcessor`elemento presenta alcune sfumature. Come accennato in precedenza, lo stato dell'`VoiceAnalyticsProcessor`elemento, corrispondente alla funzionalità di analisi vocale di Amazon Chime SDK, è determinato dagli stati delle attività creati da e. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)
+ Lo stato `VoiceAnalyticsProcessor` dell'elemento inizia in uno `NotStarted` stato, perché `StartVoiceToneAnalysisTask` deve essere chiamato prima che l'elemento possa cambiare lo stato in`Initializing`, `StartSpeakerSearchTask` e poi. `InProgress`
+ `VoiceAnalyticsProcessor`Rimane `InProgress` finché viene avviata un'attività e non viene soddisfatta una [condizione di interruzione](managing-call-analytics-pipelines.md) durante l'esecuzione dell'attività.
+ Anche se `VoiceAnalyticsProcessor` può esserlo`InProgress`, ti verrà addebitato solo per la durata dell'elaborazione delle attività.
+ Per ripulire le pipeline di Media Insights che avevano avviato almeno un'attività di analisi vocale e non ne erano in esecuzione altre, devi chiamare. `DeleteMediaPipeline`
+ Finché un'attività viene eseguita o completata correttamente, lo stato dell'`VoiceAnalyticsProcessor`elemento rimane invariato. `InProgress`

# Monitoraggio delle pipeline di analisi delle chiamate per l'SDK Amazon Chime con Amazon CloudWatch
<a name="monitoring-with-cloudwatch"></a>

Puoi utilizzare Amazon CloudWatch per monitorare le pipeline di analisi delle chiamate di Amazon Chime SDK. È anche possibile impostare allarmi che controllano determinate soglie e inviare notifiche o intraprendere azioni quando queste soglie vengono raggiunte. Per ulteriori informazioni CloudWatch, consulta la [Amazon CloudWatch User Guide](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/).

**Topics**
+ [Prerequisiti](#monitoring-prereqs)
+ [Metriche di analisi delle chiamate](#monitoring-metrics)
+ [CloudWatch dimensioni per le metriche della pipeline](#monitoring-dimensions)

## Prerequisiti
<a name="monitoring-prereqs"></a>

Per utilizzare i CloudWatch parametri, devi prima creare un ruolo collegato al servizio Media Pipelines che conceda le autorizzazioni per pubblicare i parametri del servizio su Amazon. CloudWatch Per ulteriori informazioni sul ruolo collegato ai servizi, consulta questa guida. [Creazione di un ruolo collegato ai servizi per le pipeline multimediali di Amazon Chime SDK](create-pipeline-role.md)

## Metriche di analisi delle chiamate
<a name="monitoring-metrics"></a>

L'analisi delle chiamate di Amazon Chime SDK pubblica le seguenti metriche nello spazio dei `AWS/ChimeSDK` nomi per le pipeline di media insights che crei utilizzando una configurazione Media Insights.


| Metrica | Description | 
| --- | --- | 
|  `MediaInsightsPipelineCreated`  |  La pipeline di media insights è stata creata con successo. Unità: numero  | 
|  `MediaInsightsPipelineStopped`  |  La pipeline di informazioni sui media è stata interrotta con successo. Unità: numero  | 
|  `MediaInsightsPipelineFailed`  |  La pipeline di analisi dei media è fallita. Unità: numero  | 
|  `MediaInsightsPipelineDuration`  |  L'intervallo di tempo che intercorre tra la creazione della pipeline e l'operazione Stopped/Failed. Unità: secondi  | 
|  `MediaInsightsPipelineBillingDuration`  |  La durata di fatturazione della pipeline Media Insights. Unità: numero  | 
|  `RecordingFileSize`  |  La dimensione del file di registrazione. Unità: byte  | 
|  `RecordingDuration `  |  La durata della registrazione. Unità: secondi  | 

## CloudWatch dimensioni per le metriche della pipeline
<a name="monitoring-dimensions"></a>

La tabella seguente elenca le CloudWatch dimensioni che è possibile utilizzare per monitorare le pipeline di analisi delle chiamate.


| Dimensione | Description | 
| --- | --- | 
| `MediaInsightsPipelineConfigurationId` | L'ID della configurazione della pipeline di Media Insights. | 
| `MediaInsightsPipelineConfigurationName` | Il nome della configurazione della pipeline di Media Insights. | 

# Processore di analisi delle chiamate e destinazioni di output per l'SDK Amazon Chime
<a name="call-analytics-processor-and-output-destinations"></a>

 Puoi specificare elementi unici una sola volta per configurazione della pipeline di Media Insights. Tutti i processori e i sink devono risiedere nello stesso AWS account ed è necessario crearli nella stessa AWS regione dell'endpoint chiamato. Ad esempio, se utilizzi l'`us-east-1`endpoint per Amazon Chime SDK Media Pipelines, non puoi trasmettere un Kinesis Data Stream dalla regione. `us-west-2` 

Espandi ogni sezione per informazioni su ciascuna destinazione.

## Destinazioni dei processori Amazon Transcribe Call Analytics
<a name="amazon-transcribe-call-analytics-processor"></a>

Lavelli supportati:. `KinesisDataStreamSink`

Non puoi combinare questo processore con un processore Amazon Transcribe. Per ulteriori informazioni su Amazon Transcribe Call Analytics, consulta la sezione Analisi delle [chiamate in tempo reale](https://docs.aws.amazon.com/transcribe/latest/dg/call-analytics-streaming.html), nella Amazon *Transcribe* Developer Guide. Se abiliti l'[analisi Post call](https://docs.aws.amazon.com/transcribe/latest/dg/tca-post-call.html) includendola `PostCallAnalyticsSettings` nella chiamata `AmazonTranscribeCallAnalyticsProcessorConfiguration` API, ricevi artefatti nella posizione Amazon S3 specificata quando la pipeline di Media Insights si interrompe e l'elaborazione termina.

**Nota**  
Se metti in pausa la pipeline per più di 35 secondi e poi la riprendi, gli artefatti post-chiamata vengono generati in file separati con sessioni diverse nel bucket Amazon S3. IDs 

Gli artefatti post-chiamata includono un file JSON di analisi e un file WAV o Opus di registrazione audio. L'URL del bucket Amazon S3 per i file di registrazione redatti (se abiliti la redazione dei contenuti) e non redatti viene inviato a Kinesis Data Stream una volta per ogni sessione post-chiamata di analisi delle chiamate di Amazon Transcribe come parte della sezione dei metadati. `onetimeMetadata`

Analisi delle chiamate con Amazon Transcribe L'analisi delle chiamate prende in input i dati audio da Kinesis Video Stream.
+ Codifica multimediale supportata: audio little-endian a 16 bit firmato PCM.
+ Frequenze di campionamento multimediali supportate: tra 8.000 Hz e 48.000 Hz.

`StreamConfiguration`input per un processo di Amazon Transcribe Analytics:
+ È necessario specificare il valore `KinesisVideoStreamArn` per ogni stream.
+ (Facoltativo) Il KVS `FragmentNumber` avvia un processo di analisi delle chiamate con il blocco dopo un frammento specificato. Se non viene fornito, utilizza la parte più recente del flusso video Kinesis.
+ `StreamChannelDefinition`Definisce chi sta parlando. L'analisi delle chiamate di Amazon Transcribe richiede audio a due canali. Quando chiami l'API, devi specificare quale altoparlante si trova su quale canale. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html) Ad esempio, se il vostro agente parla per primo, impostate il `ChannelId` `0` to per indicare il primo canale e `ParticipantRole` `AGENT` per indicare che l'agente sta parlando.

**Nota**  
Quando usi un Voice Connector per creare un processore di analisi delle chiamate `MediaInsightsPipeline` con Amazon Transcribe, l'audio della gamba dell'account Voice Connector `AGENT` è e l'audio della gamba PSTN è per il. `CUSTOMER` `ParticipantRole`  
Per Voice Connector SIPREC, ci affidiamo ai metadati SIPREC. Nella maggior parte dei casi, l'etichetta stream con il valore lessicografico più basso è considerata la. `AGENT`

L'esempio seguente mostra l'ingresso Kinesis Video Stream per un flusso audio a doppio canale.

```
"StreamChannelDefinition" : {
    "NumberOfChannels" : 2
    "ChannelDefinitions": [
        {
            "ChannelId": 0,
            "ParticipantRole": "AGENT"
        },
        {
            "ChannelId": 1,
            "ParticipantRole": "CUSTOMER"
        }
    ]
}
```

 Al contrario, l'esempio seguente mostra due ingressi mono da due diversi flussi Kinesis Video. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0,
               "ParticipantRole": "AGENT"
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1,
               "ParticipantRole": "CUSTOMER"
            }
        ]
    }
```

## Output di analisi delle chiamate di Amazon Transcribe
<a name="amazon-transcribe-call-analytics-output"></a>

 Ogni record Amazon Transcribe contiene `UtteranceEvent` un o `CategoryEvent` un, ma non entrambi. `CategoryEvents`ne ho uno`detail-type`. `TranscribeCallAnalyticsCategoryEvent` 

L'esempio seguente mostra il formato di output dei metadati monouso per Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string", // siprec metadata in JSON (converted from above XML) 
    
    // If PostcallSettings are enabled for Amazon Transcribe Call Analytics
    "s3RecordingUrl": "string", 
    "s3RecordingUrlRedacted": "string"
}
 
// inviteHeaders object
{
    "string": "string"
}
```

 L'esempio seguente mostra il formato di output di Amazon Transcribe Call Analytics. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "TranscribeCallAnalytics",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceConnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    },
    "UtteranceEvent": {
        "UtteranceId": "string",
        "ParticipantRole": "string",
        "IsPartial": boolean,
        "BeginOffsetMillis": number,
        "EndOffsetMillis": number,
        "Transcript": "string",
        "Sentiment": "string",
        "Items": [{
            "Content": "string",
            "Confidence": number,
            "VocabularyFilterMatch": boolean,
            "Stable": boolean,
            "ItemType": "string",
            "BeginOffsetMillis": number,
            "EndOffsetMillis": number,
        }, ]
        "Entities": [{
            "Content": "string",
            "Confidence": number,
            "Category": "string", // Only PII is supported currently
            "Type": "string",
            "BeginOffset": number,
            "EndOffset": number,
        }, ],
        "IssuesDetected": [{
            "CharacterOffsets": {
                "Begin": number,
                "End": number
            }
        }]
    },
    "CategoryEvent": {
        "MatchedCategories": ["string"],
        "MatchedDetails": {
            "string": {
                "TimestampRanges": [{
                    "BeginOffsetMillis": number,
                    "EndOffsetMillis": number
                }]
            }
        }
    }
}
```

## Lo streaming di Amazon Chime SDK Voice Connector aggiorna i metadati
<a name="cvc-stream-update-metadata"></a>

Se la configurazione di analisi delle chiamate è associata a un connettore vocale Amazon Chime SDK, il seguente payload di aggiornamento del connettore vocale verrà inviato quando è disponibile un aggiornamento in streaming di [Voice](https://docs.aws.amazon.com/chime-sdk/latest/ag/automating-chime-with-cloudwatch-events.html) Connector.

L'esempio seguente mostra un formato di metadati di aggiornamento per il processore Amazon Transcribe e il processore Transcribe Call Analytics.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// sipHeaders object
{
    "string": "string"
}
```

L'esempio seguente mostra un formato di metadati di aggiornamento per Call Analytics Amazon S3 Recording.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",
    "callevent-type": "Update",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Metadati di registrazione delle chiamate SIP
<a name="sip-update-metadata"></a>

Gli esempi seguenti mostrano i metadati per la registrazione di una chiamata SIP tra due persone, Alice e Bob. Entrambi i partecipanti inviano e ricevono audio e video. Per semplicità, l'esempio contiene solo frammenti di SIP e SDP e SRC registra i flussi di ogni partecipante su SRS senza mixarli.

```
INVITE sip:recorder@example.com SIP/2.0
   Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
   From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
   To: <sip:recorder@example.com>
   Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
   Session-ID: ab30317f1a784dc48ff824d0d3715d86
    ;remote=00000000000000000000000000000000
   CSeq: 101 INVITE
   Max-Forwards: 70
   Require: siprec
   Accept: application/sdp, application/rs-metadata,
   application/rs-metadata-request
   Contact: <sip:2000@src.example.com>;+sip.src
   Content-Type: multipart/mixed;boundary=boundary
   Content-Length: [length]

   Content-Type: application/SDP
   ...
   m=audio 49170 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:96
   a=sendonly
   ...
   m=video 49174 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:97
   a=sendonly
   ...
   m=audio 51372 RTP/AVP 0
   a=rtpmap:0 PCMU/8000
   a=label:98
   a=sendonly
   ...
   m=video 49176 RTP/AVPF 96
   a=rtpmap:96 H.264/90000
   a=label:99
   a=sendonly
   ....

Content-Type: application/rs-metadata
Content-Disposition: recording-session

<?xml version="1.0" encoding="UTF-8"?>
<recording xmlns='urn:ietf:params:xml:ns:recording:1'>
  <datamode>complete</datamode>
        <group group_id="7+OTCyoxTmqmqyA/1weDAg==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
                <!-- Standardized extension -->
                <call-center xmlns='urn:ietf:params:xml:ns:callcenter'>
                        <supervisor>sip:alice@atlanta.com</supervisor>
                </call-center>
                <mydata xmlns='http://example.com/my'>
                        <structure>structure!</structure>
                        <whatever>structure</whatever>
                </mydata>
        </group>
        <session session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <sipSessionID>ab30317f1a784dc48ff824d0d3715d86;
                                      remote=47755a9de7794ba387653f2099600ef2</sipSessionID>
                <group-ref>7+OTCyoxTmqmqyA/1weDAg==
                </group-ref>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </session>
        <participant
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <nameID aor="sip:alice@atlanta.com">
                        <naSRCme xml:lang="it">Alice</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <participant
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <nameID aor="sip:bob@biloxy.com">
                        <name xml:lang="it">Bob</name>
                </nameID>
                <!-- Standardized extension -->
                <mydata xmlns='http://example.com/my'>
                        <structure>FOO!</structure>
                        <whatever>bar</whatever>
                </mydata>
        </participant>
        <stream stream_id="UAAMm5GRQKSCMVvLyl4rFw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>96</label>
        </stream>
        <stream stream_id="i1Pz3to5hGk8fuXl+PbwCw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>97</label>
        </stream>
        <stream stream_id="8zc6e0lYTlWIINA6GR+3ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>98</label>
        </stream>
        <stream stream_id="EiXGlc+4TruqqoDaNE76ag=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <label>99</label>
        </stream>
        <sessionrecordingassoc session_id="hVpd7YQgRW2nD22h7q60JQ==">
            <associate-time>2010-12-16T23:41:07Z</associate-time>
        </sessionrecordingassoc>
        <participantsessionassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w=="
              session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantsessionassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw=="
               session_id="hVpd7YQgRW2nD22h7q60JQ==">
                <associate-time>2010-12-16T23:41:07Z</associate-time>
        </participantsessionassoc>
        <participantstreamassoc
              participant_id="srfBElmCRp2QB23b7Mpk0w==">
                <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
                <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
                <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
                <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
        </participantstreamassoc>
        <participantstreamassoc
               participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
                <send>8zc6e0lYTlWIINA6GR+3ag==</send>
                <send>EiXGlc+4TruqqoDaNE76ag==</send>
                <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
                <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
        </participantstreamassoc>
</recording>
```

L'esempio seguente mostra i metadati aggiornati quando un partecipante alla chiamata mette in attesa l'altro. In questo caso, riceve `participant_id srfBElmCRp2QB23b7Mpk0w==` solo flussi multimediali e non invia alcun file multimediale, quindi l'elemento `send` XML viene omesso. Al contrario, `participant_id zSfPoSvdSDCmU3A3TRDxAw==` invia file multimediali all'altro partecipante ma non riceve file multimediali dall'altro partecipante, pertanto l'elemento `recv` XML viene omesso.

```
INVITE sip:recorder@example.com SIP/2.0
            Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....

   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
             </participantstreamassoc>
           </recording>
```

L'esempio seguente mostra l'aggiornamento dei metadati quando la chiamata riprende. Il payload ora contiene gli elementi e XML. `send` `recv`

```
INVITE sip:recorder@example.com SIP/2.0
      Via: SIP/2.0/TCP src.example.com;branch=z9hG4bKdf6b622b648d9
      From: <sip:2000@example.com>;tag=35e195d2-947d-4585-946f-09839247
      To: <sip:recorder@example.com>
      Call-ID: d253c800-b0d1ea39-4a7dd-3f0e20a
      Session-ID: ab30317f1a784dc48ff824d0d3715d86
       ;remote=f81d4fae7dec11d0a76500a0c91e6bf6
      CSeq: 101 INVITE
      Max-Forwards: 70
      Require: siprec
      Accept: application/sdp, application/rs-metadata,
      application/rs-metadata-request
      Contact: <sip:2000@src.example.com>;+sip.src
      Content-Type: multipart/mixed;boundary=foobar
      Content-Length: [length]

      Content-Type: application/SDP
      ...
      m=audio 49170 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:96
      a=sendonly
      ...
      m=video 49174 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:97
      a=sendonly
      ...
      m=audio 51372 RTP/AVP 0
      a=rtpmap:0 PCMU/8000
      a=label:98
      a=sendonly
      ...
      m=video 49176 RTP/AVPF 96
      a=rtpmap:96 H.264/90000
      a=label:99
      a=sendonly
      ....
    
   Content-Type: application/rs-metadata
   Content-Disposition: recording-session

      <?xml version="1.0" encoding="UTF-8"?>
        <recording xmlns='urn:ietf:params:xml:ns:recording:1'>
          <datamode>partial</datamode>
            <participantstreamassoc
             participant_id="srfBElmCRp2QB23b7Mpk0w==">
             <send>i1Pz3to5hGk8fuXl+PbwCw==</send>
             <send>UAAMm5GRQKSCMVvLyl4rFw==</send>
             <recv>8zc6e0lYTlWIINA6GR+3ag==</recv>
             <recv>EiXGlc+4TruqqoDaNE76ag==</recv>
            </participantstreamassoc>
            <participantstreamassoc
             participant_id="zSfPoSvdSDCmU3A3TRDxAw==">
              <send>8zc6e0lYTlWIINA6GR+3ag==</send>
              <send>EiXGlc+4TruqqoDaNE76ag==</send>
              <recv>i1Pz3to5hGk8fuXl+PbwCw==</recv>
             <recv>UAAMm5GRQKSCMVvLyl4rFw==</recv>
             </participantstreamassoc>
           </recording>
```

## Destinazioni dei processori Amazon Transcribe
<a name="amazon-transcribe-processors"></a>

Lavelli supportati:. `KinesisDataStreamSink`

Non puoi combinare questo processore con l'analisi delle chiamate di Amazon Transcribe. *Per ulteriori informazioni sull'input e sull'output di Amazon Transcribe, consulta Transcribe [streaming audio nella Amazon Transcribe Developer Guide](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html).*

La sessione di analisi delle chiamate con Amazon Transcribe utilizza l'input di dati audio da Kinesis Video Stream.
+ Supportato MediaEncoding: audio little-endian a 16 bit con firma PCM.
+ Frequenze di MediaSampleRate campionamento supportate: tra 8.000 Hz e 48.000 Hz.

 `StreamConfiguration`input per i processori Amazon Transcribe: 
+ È necessario specificare il valore `KinesisVideoStreamArn` per ogni stream.
+ (Facoltativo) KVS`FragmentNumber`: avvia un processo di analisi delle chiamate con il blocco dopo un frammento specifico. Se non viene fornito, utilizzerà il blocco più recente disponibile su Kinesis Video Stream.
+ `StreamChannelDefinition`Amazon Transcribe attualmente supporta l'audio con due canali. È necessario specificare il valore `NumberOfChannels` in fase di esecuzione. `StreamChannelDefinition` Inoltre, è necessario passare il `ChannelId` se si invia audio mono su due canali separati. Nella trascrizione, ai canali vengono assegnate le etichette `ch_0` e `ch_1`. L'esempio seguente mostra l'ingresso KVS per lo streaming di un canale audio mono.

```
"StreamChannelDefinition" : {"
    NumberOfChannels" : 1
}
```

 L'esempio seguente mostra l'ingresso KVS per due ingressi audio mono in due flussi diversi. 

```
KVS-1:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 0
            }
        ]
    }
KVS-2:
    "StreamChannelDefinition" : {
        "NumberOfChannels"  : 1
        "ChannelDefinitions": [
            {
                "ChannelId": 1
            }
        ]
    }
```

**Nota**  
Per il Voice Connector creato `MediaInsightsPipeline` con un processore Amazon Transcribe, viene assegnato l'audio leg dell'account Voice Connector e l'audio leg PSTN `channel-0` a. `channel-1`  
Per Voice Connector SIPREC, ci affidiamo ai metadati SIPREC. Nella maggior parte dei casi, viene assegnata l'etichetta stream con il valore lessicografico più basso. `channel-0`  
Per i processori di analisi delle chiamate Amazon Transcribe e Amazon Transcribe, se trasmetti due flussi Kinesis Video e ogni flusso contiene un canale audio mono, associamo entrambi i canali a un unico flusso audio prima di elaborare i dati di analisi delle chiamate Transcribe o Transcribe.

## Output di Amazon Transcribe
<a name="amazon-transcribe-output"></a>

L'esempio seguente mostra un formato di output di metadati monouso per Amazon Transcribe.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "CallAnalyticsMetadata",
    "mediaInsightsPipelineId": "string",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "oneTimeMetadata": "string" // JSON encoded string of oneTimeMetadata object
}
 
// onetimeMetadata object
{
    "inviteHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}
 
// inviteHeaders object
{
    "string": "string"
}
```

L'esempio seguente mostra il formato di output di Amazon Transcribe. 

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Transcribe",
    "mediaInsightsPipelineId": "string",
    "metadata": {
        "voiceconnectorId": "string",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "direction": "string"
    }
    "TranscriptEvent": {
        "Transcript": {
            "Results": [{
                "Alternatives": [{
                    "Entities": [{
                        "Category": "string",
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "StartTime": number,
                        "Type": "string"
                    }],
                    "Items": [{
                        "Confidence": number,
                        "Content": "string",
                        "EndTime": number,
                        "Speaker": "string",
                        "Stable": boolean,
                        "StartTime": number,
                        "Type": "string",
                        "VocabularyFilterMatch": boolean
                    }],
                    "Transcript": "string"
                }],
                "ChannelId": "string",
                "EndTime": number,
                "IsPartial": boolean,
                "LanguageCode": "string",
                "LanguageIdentification": [{
                    "LanguageCode": "string",
                    "Score": number
                }],
                "ResultId": "string",
                "StartTime": number
            }]
        }
    }
}
```

## Destinazioni dei processori di analisi vocale
<a name="voice-analytics-processor"></a>

 Lavandini supportati:`KinesisDataStreamSink`, `SqsQueueSink``SnsTopicSink`, e`LambdaFunctionSink`. 

 Puoi combinare questo processore con il processore di analisi delle chiamate Amazon Transcribe, il processore Amazon Transcribe o la registrazione delle chiamate. È necessario utilizzare [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)o per richiamare un [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs processore di analisi vocale. Per ulteriori informazioni sull'uso dell'analisi vocale, consulta [Uso dell'analisi vocale di Amazon Chime SDK](https://docs.aws.amazon.com/chime-sdk/latest/dg/voice-analytics.html). 

## Utilizzo di Kinesis Data Stream come sink
<a name="kinesis-data-stream-destination"></a>

I record Kinesis Data Stream (KDS) generati dall'analisi delle chiamate includono l'ID della pipeline multimediale, il tipo di dettaglio, i metadati e le sezioni specifiche del processore. *Per informazioni sul consumo di dati da un Kinesis Data Stream, consulta la sezione [Lettura dei dati da Amazon Kinesis Data Streams, nella guida per sviluppatori](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html) di Amazon Kinesis Streams.* Per creare una configurazione con questo sink, devi disporre dell'`kinesis:DescribeStream`autorizzazione per lo stream specificato. 

 **Metadati**

 La `metadata` sezione dei record KDS generati contiene tutte le coppie chiave-valore specificate `CallAnalyticsRuntimeMetadata` durante la [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)chiamata API. Se una sessione di analisi delle chiamate è stata avviata da un Voice Connector, la sezione dei metadati viene compilata automaticamente con i seguenti parametri: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 Oltre ai parametri mostrati sopra, la sezione dei metadati per le sessioni di analisi delle chiamate avviate da Voice Connector verrà compilata con un campo che contiene: `oneTimeMetadata` 
+ `inviteHeaders`
+ `siprecMetadata`

Questo file viene pubblicato su Kinesis Data Streams una sola volta all'inizio della sessione e `detail-type` ha un valore di. `CallAnalyticsMetadata`

Puoi inserire identificatori univoci `MediaInsightsRuntimeMetadata` per ogni chiamata [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API in modo da identificare in modo univoco l'origine di ogni record inviato a Kinesis Data Stream.

## Registrazione delle chiamate Amazon S3
<a name="amazon-s3-call-recording"></a>

 La registrazione di analisi delle chiamate legge l'audio da un flusso KVS, lo registra come file audio e carica il file nel bucket Amazon S3 specificato. Dopo la registrazione, l'analisi delle chiamate invia anche i metadati della chiamata insieme alla posizione del file a KDS. Se abiliti un data warehouse, i metadati delle chiamate (inclusi i metadati SIPREC se è stato utilizzato SIPREC) vengono inviati al data warehouse in un set di tabelle Parquet su cui puoi interrogare.

Come qualsiasi altro processore di analisi delle chiamate, devi prima creare una configurazione per la pipeline. Puoi utilizzare la console Amazon Chime SDK o la CLI per creare la configurazione. Si utilizza quindi la CLI per creare la pipeline. Per ulteriori informazioni sull'utilizzo della console per creare configurazioni di registrazione, fare riferimento a[Creazione di configurazioni di analisi delle chiamate per l'SDK Amazon Chime](creating-ca-configuration.md), all'inizio di questa sezione. Per ulteriori informazioni sull'utilizzo dei flussi di lavoro di registrazione, fare riferimento a[Comprensione dei flussi di lavoro per la registrazione delle chiamate per l'SDK Amazon Chime](recording-workflows.md), all'inizio di questa sezione.

 **Per utilizzare la CLI per creare una configurazione**

 Esegui il comando seguente: 

```
aws chime-sdk-media-pipeline create-media-insights-pipeline-configuration --cli-input-json file://configuration.json 
```

 L'esempio seguente mostra un file JSON di configurazione con la sola registrazione abilitata: 

```
{
    "MediaInsightsPipelineConfigurationName": configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": "arn:aws:s3:::kvs-recording-testing",
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }         
    ]
}
```

Ricorda quanto segue:
+ Per abilitare la registrazione delle chiamate tramite Kinesis Video Streams, l'audio deve essere little-endian a 16 bit firmato PCM. La frequenza KHz di campionamento deve essere 8. 
+ I costruttori devono impostare un periodo di conservazione dei dati sufficientemente lungo per Kinesis Video Stream per garantire che i frammenti vengano conservati e utilizzabili dall'analisi delle chiamate. 
+ Se abiliti la registrazione delle chiamate, da sola o in combinazione con altri processori, devi fornire due Kinesis Video Stream ARNs per la registrazione. La registrazione delle chiamate non supporta un singolo ingresso audio stereo. 

## Uscita dei metadati per la registrazione delle chiamate Amazon S3
<a name="s3-recording-metadata-output"></a>

L'esempio seguente mostra il formato di output dei metadati per la registrazione di Amazon S3 per l'analisi delle chiamate.

```
{
    "time": "string", // ISO8601 format
    "service-type": "CallAnalytics",
    "detail-type": "Recording",   
    "mediaInsightsPipelineId": "string",
    "s3MediaObjectConsoleUrl": "string",
    "recordingDurationSeconds": "number",
    "metadata": "string" // JSON encoded string of the metadata object
}

// metadata object
{
    "voiceConnectorId": "string",
    "callId": "string",
    "transactionId": "string",
    "fromNumber": "string",
    "toNumber": "string",
    "direction": "string",
    "startTime": "string", // ISO8601 format
    "endTime": "string", // ISO8601 format
    "oneTimeMetadata": "string" // JSON encoded in string of oneTimeMetadata object
}

// onetimeMetadata object
{
    "sipHeaders": "string", // JSON encoded string of SIP Invite headers key-value pair
    "siprecMetadata": "string", // siprec metadata in XML 
    "siprecMetadataJson": "string" // siprec metadata in JSON (converted from above XML) 
}

// sipHeaders object
{
    "string": "string"
}
```

## Abilita il miglioramento della voce
<a name="voice-enhancement-sink"></a>

Per abilitare il miglioramento della voce, includi un `VoiceEnhancementSinkConfiguration` elemento in una chiamata API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)

Questo esempio mostra un elemento tipico.

```
{
  "Type":"VoiceEnhancementSink",
  "VoiceEnhancementSinkConfiguration": {
       "Disabled": Boolean (string) // FALSE ==> Voice Enhancement will be performed
}
```

Per aggiornare una configurazione, aggiungi l'`VoiceEnhancementSinkConfiguration`elemento a una chiamata [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineConfiguration.html)API. Quando lo fai, l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetMediaInsightsPipelineConfiguration.html)API include l'`VoiceEnhancementSinkConfiguration`elemento nei risultati.

Questa richiesta di esempio mostra come abilitare Voice Enhancement e la registrazione su Amazon S3.

```
POST /media-insights-pipeline-configurations HTTP/1.1
Content-type: application/json

{
   "MediaInsightsPipelineConfigurationName":"media_insights_configuration_name",
   "ResourceAccessRoleArn":"arn:aws:iam::account_id:role/resource_access_role",
   "Elements":[
      {
         "Type":"S3RecordingSink",
         "S3RecordingSinkConfiguration":{
            "Destination":"arn:aws:s3:::input_bucket_path",
            "RecordingFileFormat":"Wav"
         }
      },
      {
         "Type":"VoiceEnhancementSink",
         "VoiceEnhancementSinkConfiguration": {
            "disabled":"false"
         }
      }
   ],
   "ClientRequestToken":"client_request_token"
}
```

**Nota**  
L'`VoiceEnhancementSink`elemento richiede sempre un `S3RecordingSink` elemento in una configurazione di analisi delle chiamate.

# Combinazione della trascrizione con i sink di registrazione per l'SDK Amazon Chime
<a name="combining-recording-transcription"></a>

Puoi combinare i processori Amazon Transcribe e Amazon Transcribe Call Analytics con un sink di registrazione Amazon S3. I costruttori possono passare un S3 RecordingSinkConfiguration oltre ai processori Amazon Transcribe in [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html)una chiamata API o utilizzando la console.

Oltre al sink di registrazione Amazon S3, puoi utilizzare un processore Amazon Transcribe o un processore Amazon Transcribe Call Analytics, ma mai entrambi. Puoi anche aggiungere l'analisi vocale alla stessa configurazione oltre a un sink di registrazione, con o senza un processore di trascrizione.

**Nota**  
È possibile abilitare la registrazione con uno qualsiasi dei processori sopra elencati. Tuttavia, se abiliti Amazon Transcribe Call Analytics insieme alla registrazione delle chiamate Amazon S3, devi fornire due flussi video Kinesis e riceverai file di registrazione duplicati, uno da Amazon Transcribe Call Analytics e uno dalla registrazione delle chiamate Amazon S3.

Ricorda quanto segue:
+ È necessario utilizzare un file univoco. `MediaInsightsPipelineConfigurationName`
+ Per informazioni su`ResourceAccessRoleArn`, fare riferimento [Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-resource-access-role.md) a questa guida.
+ Il `Destination` valore deve essere un ARN del percorso S3. Il bucket Amazon S3 deve appartenere allo stesso account.
+ Se utilizzi una configurazione con Transcribe and recording per creare una pipeline, le pause e le riprese appaiono solo negli approfondimenti generati da un flusso di Kinesis Data. Tutti i dati negli stream KVS vengono registrati e caricati su Amazon S3.
+ Se una configurazione utilizza Amazon transcribe o transcribe call analytics (TCA) oltre alla registrazione, la pipeline Media Insights fornisce informazioni sulla trascrizione o Transcribe Call Analytics in tempo reale, seguite dalla registrazione di Amazon S3 al termine della chiamata. Se i servizi di trascrizione falliscono durante l'analisi della chiamata, il processo di registrazione S3 tenta comunque di funzionare. Al contrario, un errore di registrazione su Amazon S3 non influisce sulle informazioni di trascrizione, poiché viene eseguito dopo il completamento della trascrizione.

Questo esempio mostra una configurazione con un processore Amazon Transcribe e un sink di registrazione Amazon S3. L'esempio consente anche la stabilizzazione parziale dei risultati, che può ridurre la latenza in uscita, ma può influire sulla precisione. *Per ulteriori informazioni, consulta la sezione [Stabilizzazione dei risultati parziali](https://docs.aws.amazon.com/transcribe/latest/dg/streaming-partial-results.html#streaming-partial-result-stabilization), nella Amazon Transcribe Developer Guide.*

```
{
    "MediaInsightsPipelineConfigurationName": unique_configuration_name,
    "ResourceAccessRoleArn": role_arn,
    "Elements": [{
            "AmazonTranscribeProcessorConfiguration": {
                "ContentIdentificationType": "string",
                "ContentRedactionType": "string",
                "EnablePartialResultsStabilization": boolean, //Enables partial result stabilization. Can reduce latency. May impact accuracy. 
                "FilterPartialResults": boolean, //To control partial utterance events
                "LanguageCode": "string",
                "LanguageModelName": "string",
                "PartialResultsStability": "string",
                "PiiEntityTypes": "string",
                "ShowSpeakerLabel": boolean,
                "VocabularyFilterMethod": "string",
                "VocabularyFilterName": "string",
                "VocabularyName": "string"
            },
            "Type": "AmazonTranscribeProcessor"
        },
        {
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": KDS_arn //Where recording and insights live metadata will be delivered.
            },
            "Type": "KinesisDataStreamSink"
        },
        {
            "S3RecordingSinkConfiguration": {
                "Destination": S3_Arn,
                "RecordingFileFormat": file_format // Specify "Opus" or "WAV" as the recording file format.
            },
            "Type": "S3RecordingSink"
        }
    ]
}
```

# Utilizzo EventBridge delle notifiche Amazon per l'SDK Amazon Chime
<a name="using-eventbridge-notifications"></a>

Amazon Chime SDK Call Analytics supporta l'invio di eventi al EventBridge bus predefinito quando lo stato della pipeline di Media Insights cambia o quando vengono soddisfatte le condizioni di avviso in tempo reale di analisi delle chiamate. Per gli aggiornamenti sullo stato degli errori della pipeline di Media Insights, ti consigliamo di configurare un EventBridge obiettivo per avvisarti se le tue risorse si guastano in modo asincrono. Le notifiche di analisi delle chiamate hanno una fonte aws.chime e vari tipi di dettagli, che sono condivisi nelle sezioni seguenti. Per ulteriori informazioni, consulta la [Amazon EventBridge User Guide](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html).

**Topics**
+ [Aggiornamenti di stato](#status-updates)
+ [Avvisi in tempo reale](#realtime-alerts)

## Aggiornamenti di stato
<a name="status-updates"></a>

 Le pipeline di Media Insights inviano EventBridge notifiche man mano che una sessione di analisi delle chiamate procede e termina correttamente o rileva errori. Riceverai una EventBridge notifica con il tipo di dettaglio «Media Insights State Change» quando: 
+ Lo stato di una pipeline di Media Insights cambia.
+ Lo stato di un elemento della pipeline di Media Insights cambia.
+ Qualsiasi elemento della pipeline viene interrotto.
+ Qualsiasi elemento della pipeline non funziona.

La sezione dei dettagli include sempre i seguenti campi:
+ `version`
+ `mediaInsightsPipelineArn`
+ `eventType`

La sezione dei dettagli include anche un `mediaInsightsPipelineElementStatuses` campo se la pipeline di Media Insights contiene più elementi, come processori di analisi e data sink. Questo campo indica lo stato di ogni elemento nella pipeline. Lo stato possibile per ogni elemento della pipeline potrebbe essere:
+ `NotStarted`
+ `InProgress`
+ `Stopped`
+ `Failed`

 La sezione dei dettagli include anche tutte le coppie chiave-valore specificate `MediaInsightsRuntimeMetadata` durante la [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)chiamata API. Se una sessione di analisi delle chiamate è stata avviata da un Voice Connector, la sezione dei metadati viene compilata automaticamente con i seguenti parametri: 
+ `transactionId`
+ `fromNumber`
+ `toNumber`
+ `callId`
+ `voiceConnectorId`
+ `direction`

 I seguenti tipi di eventi possono apparire ogni volta che una pipeline di Media Insights contiene un singolo elemento. Espandi ogni sezione per ottenere ulteriori informazioni.

### Approfondimenti multimediali su Amazon Chime SDK in corso
<a name="insights-in-progress"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsInProgress",
        "version": "0",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Gli approfondimenti multimediali dell'SDK Amazon Chime sono stati sospesi
<a name="insights-paused"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPaused",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Gli approfondimenti multimediali dell'SDK Amazon Chime sono stati interrotti
<a name="insights-stoppped"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsStopped",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Errore temporaneo di Amazon Chime SDK Media Insights
<a name="insights-temp-failure"></a>

Indica che il servizio ha riscontrato un errore temporaneo e tenterà di riprovare. Non è richiesta alcuna azione da parte tua.

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string"
    }
}
```

### Errore permanente di Amazon Chime SDK Media Insights
<a name="insights-perm-failure"></a>

Indica un errore che richiede un intervento da parte tua. Utilizzare il `failureReason` per risolvere il problema. I guasti tipici potrebbero includere quanto segue:
+ Autorizzazioni insufficienti per il ruolo di accesso alle risorse
+ Risorse mancanti o eliminate
+ Limitazione da parte di un AWS servizio che richiama le chiamate di analisi per tuo conto, come Amazon Transcribe o Amazon Kinesis.
+ Formati multimediali incompatibili negli stream KVS

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": {
        "version": "0",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsPermanentFailure",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string"              
    }
}
```

**Nota**  
Il campo `failureReason` è facoltativo. Ad esempio, un motivo tipico potrebbe essere`Access denied when assuming resource access role`.

I seguenti tipi di eventi possono apparire ogni volta che viene creata una pipeline di Media Insights, o il tentativo di creazione fallisce, per una sessione di analisi delle chiamate avviata da un Amazon Chime SDK Voice Connector. Espandi ogni sezione per ottenere ulteriori informazioni.

### Creazione di approfondimenti multimediali sull'SDK Amazon Chime
<a name="vc-pipeline-created"></a>

Questo esempio mostra un tipico evento di successo.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "mediaInsightsPipelineArn": "string",
        "eventType": "chime:MediaInsightsCreated",
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
    }
}
```

### Creazione non riuscita degli approfondimenti multimediali dell'SDK Amazon Chime
<a name="vc-pipeline-failed"></a>

Questo esempio mostra un tipico evento di errore.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights State Change",     
    "source": "aws.chime", 
    "account": number,
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "resources": [] 
    "detail": 
    {
        "version": "0",
        "mediaInsightsPipelineConfigurationArn": "string",
        "eventType": "chime:MediaInsightsCreateFailed", 
        "callId": "string",
        "transactionId": "string",
        "fromNumber": "string",
        "toNumber": "string",
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureOrigin": "Voice Connector",
        "httpStatusCode": "string",
        "failureReason": "string"
    }
}
```

I seguenti tipi di eventi possono apparire quando una pipeline di Media Insights contiene più elementi. Le notifiche di esempio sono da `AmazonTranscribeProcessor` `S3RecordingSink` abbinare a. Espandi ogni sezione per ottenere ulteriori informazioni. 

### AmazonTranscribeProcessor è in corso e S3 non RecordingSink è stato avviato
<a name="processor-running-sink-not-started"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "InProgress",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor è riuscito e S3 RecordingSink è in corso
<a name="processor-success-sink-in-progress"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor non è riuscito e S3 RecordingSink è in corso
<a name="processor-fail-sink-in-process"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsInProgress",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "InProgress",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor ha fallito e S3 RecordingSink ha avuto successo
<a name="processor-fail-record-finish"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Failed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor ha avuto successo e S3 RecordingSink ha fallito
<a name="processor-success-recording-fail"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPermanentFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Failed",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string",
        "failureReason": "string" 
    } 
}
```

### AmazonTranscribeProcessor è in pausa e S3 non RecordingSink è stato avviato
<a name="processor-pause-recording-no-start"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsPaused",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Paused",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor è temporaneamente fallito e S3 non RecordingSink è stato avviato
<a name="processor-temp-fail-recording-no-start"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsTemporaryFailure",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "TemporarilyFailed",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "NotStarted",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### AmazonTranscribeProcessor e S3 ha avuto successo RecordingSink
<a name="processor-sink-success"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
    "version": "0", 
    "id": "string",
    "detail-type": "Media Insights State Change", 
    "source": "aws.chime", 
    "account": number, 
    "region": "string",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail": {
        "version": "0", 
        "mediaInsightsPipelineArn": "string", 
        "eventType": "chime:MediaInsightsStopped",
        "mediaInsightsPipelineElementStatuses": [
            { 
                "type": "AmazonTranscribeProcessor", 
                "status": "Stopped",
                "updatedOn": 1686184070655             
            },
            { 
                "type": "S3RecordingSink", 
                "status": "Stopped",
                "updatedOn": 1686184070655 
            }
        ] 
        "callId": "string", 
        "transactionId": "string", 
        "fromNumber": "string", 
        "toNumber": "string", 
        "voiceConnectorId": "string", 
        "direction": "string" 
    } 
}
```

### S3 RecordingSink è riuscito ed VoiceEnhancement è in corso
<a name="voice-enhancement-sink-inprogress"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsInProgress",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancementSink",
        "status": "InProgress",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink ha avuto successo e VoiceEnhancement non è riuscito a causa di chiamate di durata superiore a 30 minuti
<a name="voice-enhancement-sink-fail-longerthan30minutes"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsStopped",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "NotSupported",
        "updatedOn": 1686184070655,
        "statusDetail": "Unsupported recording length"
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

### S3 RecordingSink ha avuto successo e VoiceEnhancement non è riuscito a causa di chiamate inferiori a 30 minuti
<a name="voice-enhancement-sink-fail-lessthan30minutes"></a>

Questo esempio mostra una tipica struttura di eventi.

```
{
  "version": "0",
  "id": "string",
  "detail-type": "Media Insights State Change",
  "source": "aws.chime",
  "account": number,
  "time": "yyyy-mm-ddThh:mm:ssZ",
  "region": "string",
  "detail": {
    "mediaInsightsPipelineArn": "string",
    "eventType": "chime:MediaInsightsPermanentFailure",
    "version": "0",
    "mediaInsightsPipelineElementStatuses": [
      {
        "type": "VoiceEnhancement",
        "status": "Failed",
        "updatedOn": 1686184070655
      },
      {
        "type": "S3RecordingSink",
        "status": "Stopped",
        "updatedOn": 1686184070655
      }
    ]
  }
}
```

## Avvisi in tempo reale
<a name="realtime-alerts"></a>

**Nota**  
Solo i processori Amazon Transcribe e Amazon Transcribe Call Analytics supportano avvisi in tempo reale.

 L'analisi delle chiamate di Amazon Chime SDK consente agli sviluppatori di configurare regole per l'invio di avvisi in tempo reale tramite un processore durante una sessione di analisi. Gli avvisi vengono inviati ad Amazon EventBridge con il tipo di `Media Insights Rules Matched` dettaglio. EventBridge supporta l'integrazione con servizi downstream come Lambda, Amazon SQS e Amazon SNS per attivare notifiche per l'utente finale o avviare altre logiche aziendali personalizzate.

 Gli avvisi in tempo reale vengono configurati come parte del campo per. `RealTimeAlertConfiguration` `MediaInsightsPipelineConfiguration` Puoi utilizzare la console Amazon Chime SDK per configurare il campo oppure puoi chiamare o. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipelineConfiguration.html) APIs 

 Questo esempio mostra come creare o aggiornare una configurazione di avvisi in tempo reale tramite l'API. 

```
{
    "MediaInsightsPipelineConfigurationName": "config_name",
    "ResourceAccessRoleArn": "arn:aws:iam::account_id:role/role_name",
    "RealTimeAlertConfiguration": {
        "Disabled": false,
        "Rules": [{
                "Type": "KeywordMatch",
                "KeywordMatchConfiguration": {
                    "RuleName": "rule_name_1",
                    "Keywords": [
                        "hello",
                        "thank you"
                    ],
                    "Negate": false
                }
            },
            {
                "Type": "Sentiment",
                "RuleName": "rule_name_2",
                "SentimentType": "NEGATIVE",
                "TimePeriod": 60
            },
            {
                "Type": "IssueDetection",
                "RuleName": "rule_name_3"
            }
        ]
    },
    "Elements": [{
            "Type": "AmazonTranscribeCallAnalyticsProcessor",
            "AmazonTranscribeCallAnalyticsProcessorConfiguration": {
                "LanguageCode": "en-US"
            }
        },
        {
            "Type": "KinesisDataStreamSink",
            "KinesisDataStreamSinkConfiguration": {
                "InsightsTarget": "arn:aws:kinesis:us-east-1:account_id:stream/stream_name"
            }
        }
    ]
}
```

Ogni regola in una configurazione di avviso in tempo reale viene attivata indipendentemente. È possibile ricevere più EventBridge notifiche se vengono soddisfatte più condizioni della regola contemporaneamente. Per creare un elenco di regole per i tuoi avvisi, puoi selezionare tra i seguenti tipi di regole:

Keyword Match  
Avvisa quando una determinata serie di parole chiave o frasi trova corrispondenza in un evento di enunciazione o trascrizione. È possibile configurare l'avviso in modo che emetta un evento se:  
+ Tutte le parole chiave specificate vengono pronunciate e `Negate` sono impostate su. `false`
+ Tutte le parole chiave specificate non vengono pronunciate per l'intera chiamata, se `Negate` è impostata su. `true`
Amazon Transcribe e Amazon Transcribe Analytics supportano questo tipo di regola.

Analisi delle emozioni  
Avvisa quando un particolare tipo di sentimento persiste per un periodo di tempo variabile. Solo Transcribe Call Analytics supporta questa regola.

Rilevamento dei problemi  
Avvisa quando viene rilevato un problema in un evento di enunciazione. Solo Transcribe Call Analytics supporta questo tipo di regola.

L'esempio seguente mostra un evento di avviso in tempo reale per una `KeywordMatch` regola.

```
{
    "version": "0",
    "id": "string",
    "detail-type": "Media Insights Rules Matched", 
    "source": "aws.chime", 
    "account": number,
    "region": "us-east-1",
    "time": "yyyy-mm-ddThh:mm:ssZ", 
    "resources": [],
    "detail":   {
        "version": "0",
        "sourceMetadata": {}
        "ruleName": "string"
        "utteranceId": "string",
        "beginTimestamp": "yyyy-mm-ddThh:mm:ssZ",
    }
}
```

Alcuni EventBridge campi sono specifici del tipo di regola corrispondente:

**Campi di corrispondenza tra parole chiave**  
`utteranceId`: ID della trascrizione che contiene una parola chiave corrispondente se utilizzi Amazon Transcribe Call Analytics. Solo per la corrispondenza di parole chiave vocali.  
`resultId`: ID della trascrizione che contiene una parola chiave corrispondente se utilizzi Amazon Transcribe. Solo per la corrispondenza di parole chiave vocali.  
`beginTimestamp`: ora di inizio della trascrizione che contiene una parola chiave corrispondente. Solo per la corrispondenza di parole chiave vocali.

**Campi di analisi del sentiment**  
`beginTimestamp`: Ora di inizio della finestra scorrevole per il sentimento corrispondente.  
`endTimestamp`: Ora di fine della finestra scorrevole per il sentimento corrispondente.

# Creazione di un data lake SDK Amazon Chime
<a name="ca-data-lake"></a>

Il data lake di analisi delle chiamate SDK di Amazon Chime ti consente di trasmettere in streaming le informazioni basate sull'apprendimento automatico e tutti i metadati da Amazon Kinesis Data Stream al tuo bucket Amazon S3. Ad esempio, utilizzando il data lake per accedere alle registrazioni. URLs Per creare il data lake, distribuisci un set di AWS CloudFormation modelli dalla console Amazon Chime SDK o utilizzando programmaticamente il. AWS CLI Il data lake ti consente di interrogare i metadati delle chiamate e i dati di analisi vocale facendo riferimento alle tabelle di dati AWS Glue in Amazon Athena.

**Topics**
+ [Prerequisiti](#data-lake-prereqs)
+ [Terminologia e concetti relativi al data lake](#data-lake-terms)
+ [Creazione di più data lake](#creating-multiple-data-lakes)
+ [Disponibilità regionale del data lake](#data-lake-regions)
+ [Architettura del data lake](#data-lake-architecture)
+ [Configurazione del data lake](#data-lake-setup)

## Prerequisiti
<a name="data-lake-prereqs"></a>

È necessario disporre dei seguenti elementi per creare un lake Amazon Chime SDK:
+ Un flusso di dati Amazon Kinesis. Per ulteriori informazioni, consulta [Creating a Stream tramite la Console di gestione AWS](https://docs.aws.amazon.com/streams/latest/dev/how-do-i-create-a-stream.html) nella *Amazon Kinesis Streams* Developer Guide.
+ Un bucket S3. Per ulteriori informazioni, consulta la sezione [Crea il tuo primo bucket Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html) nella *Amazon* S3 User Guide.

## Terminologia e concetti relativi al data lake
<a name="data-lake-terms"></a>

Utilizza i seguenti termini e concetti per comprendere come funziona il data lake.

**Amazon Kinesis Data Firehose**  
Un servizio di estrazione, trasformazione e caricamento (ETL) che acquisisce, trasforma e fornisce dati in streaming in modo affidabile a data lake, data store e servizi di analisi. Per ulteriori informazioni, consulta What Is Amazon Kinesis Data Firehose?

**Amazon Athena**  
Amazon Athena è un servizio di query interattivo che consente di analizzare i dati in Amazon S3 utilizzando SQL standard. Athena è serverless, quindi non hai alcuna infrastruttura da gestire e paghi solo per le query che esegui. Per usare Athena, punta ai tuoi dati in Amazon S3, definisci lo schema e usa query SQL standard. Puoi anche utilizzare i gruppi di lavoro per raggruppare gli utenti e controllare le risorse a cui hanno accesso durante l'esecuzione delle query. I gruppi di lavoro consentono di gestire la concorrenza delle query e di assegnare priorità all'esecuzione delle query tra diversi gruppi di utenti e carichi di lavoro.

**Catalogo dati Glue**  
In Amazon Athena, le tabelle e i database contengono i metadati che descrivono in dettaglio uno schema per i dati di origine sottostanti. Per ogni set di dati, deve esistere una tabella in Athena. I metadati nella tabella indicano ad Athena la posizione del tuo bucket Amazon S3. Inoltre, specifica la struttura dei dati, come i nomi delle colonne, i tipi di dati e il nome della tabella. I database contengono solo i metadati e le informazioni sullo schema di un set di dati.

## Creazione di più data lake
<a name="creating-multiple-data-lakes"></a>

È possibile creare più data lake fornendo un nome di database Glue univoco per specificare dove archiviare le informazioni sulle chiamate. Per un determinato AWS account, possono esserci diverse configurazioni di analisi delle chiamate, ognuna con un data lake corrispondente. Ciò significa che la separazione dei dati può essere applicata per determinati casi d'uso, come la personalizzazione della politica di conservazione e della politica di accesso sulla modalità di archiviazione dei dati. Possono essere applicate diverse politiche di sicurezza per l'accesso a informazioni dettagliate, registrazioni e metadati.

## Disponibilità regionale del data lake
<a name="data-lake-regions"></a>

Il data lake Amazon Chime SDK è disponibile nelle seguenti regioni.


| Region | Tabella Glue | Rapido | 
| --- | --- | --- | 
| us-east-1 | Disponibilità | Disponibilità | 
| us-west-2 | Disponibilità | Disponibilità | 
| eu-central-1 | Disponibilità | Disponibilità | 

## Architettura del data lake
<a name="data-lake-architecture"></a>

Il diagramma seguente mostra l'architettura del data lake. I numeri nel disegno corrispondono al testo numerato riportato di seguito.

![\[Il programma scorre attraverso un data lake.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/call-analytics-data-lake-architecture.png)


Nel diagramma, dopo aver utilizzato la AWS console per distribuire il CloudFormation modello dal flusso di lavoro di configurazione della pipeline di Media Insights, i seguenti dati fluiscono verso il bucket Amazon S3:

1. L'analisi delle chiamate dell'SDK Amazon Chime inizierà a trasmettere dati in tempo reale al Kinesis Data Stream del cliente. 

1. Amazon Kinesis Firehose memorizza nel buffer questi dati in tempo reale fino a quando non accumulano 128 MB o trascorsi 60 secondi, a seconda dell'evento che si verifica per primo. Firehose utilizza quindi il file contenuto `amazon_chime_sdk_call_analytics_firehose_schema` nel Glue Data Catalog per comprimere i dati e trasforma i record JSON in un file parquet.

1. Il file parquet si trova nel tuo bucket Amazon S3, in un formato partizionato.

1. Oltre ai dati in tempo reale, al tuo Amazon S3 Bucket vengono inviati anche i file.wav di riepilogo di Amazon Transcribe Call Analytics post-chiamata (redatti e non redatti, se specificato nella configurazione) e i file.wav di registrazione delle chiamate. 

1. Puoi utilizzare Amazon Athena e SQL standard per interrogare i dati nel bucket Amazon S3.

1. Il CloudFormation modello crea anche un Glue Data Catalog per interrogare questi dati di riepilogo post-chiamata tramite Athena.

1. Tutti i dati sul bucket Amazon S3 possono essere visualizzati anche con Quick. QuickSight crea una connessione con un bucket Amazon S3 utilizzando Amazon Athena.

La tabella Amazon Athena utilizza le seguenti funzionalità per ottimizzare le prestazioni delle query:

**Partizionamento dei dati**  
Il partizionamento divide la tabella in parti e mantiene insieme i dati correlati in base ai valori delle colonne come data, paese e regione. Le partizioni agiscono come colonne virtuali. In questo caso, il CloudFormation modello definisce le partizioni al momento della creazione della tabella, il che aiuta a ridurre la quantità di dati scansionati per query e migliora le prestazioni. È inoltre possibile filtrare per partizione per limitare la quantità di dati analizzati da una query. *Per ulteriori informazioni, consulta la sezione [Partizionamento dei dati in Athena nella Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/partitions.html) User Guide.*  
Questo esempio mostra la struttura di partizionamento con una data del 1° gennaio 2023:  

1. 

   ```
   s3://example-bucket/amazon_chime_sdk_data_lake
                               /serviceType=CallAnalytics/detailType={DETAIL_TYPE}/year=2023
                               /month=01/day=01/example-file.parquet
   ```

1. dove `DETAIL_TYPE` è uno dei seguenti:

   1. `CallAnalyticsMetadata`

   1. `TranscribeCallAnalytics`

   1. `TranscribeCallAnalyticsCategoryEvents`

   1. `Transcribe`

   1. `Recording`

   1. `VoiceAnalyticsStatus`

   1. `SpeakerSearchStatus`

   1. `VoiceToneAnalysisStatus`

**Ottimizza la generazione di archivi dati colonnari**  
Apache Parquet utilizza la compressione a colonne, la compressione in base al tipo di dati e il pushdown dei predicati per archiviare i dati. Rapporti di compressione migliori o saltare blocchi di dati significa leggere meno byte dal tuo bucket Amazon S3. Ciò si traduce in migliori prestazioni di query e costi ridotti. Per questa ottimizzazione, la conversione dei dati da JSON a parquet è abilitata in Amazon Kinesis Data Firehose.

**Proiezione delle partizioni**  
Questa funzionalità di Athena crea automaticamente partizioni per ogni giorno per migliorare le prestazioni delle query basate sulla data.

## Configurazione del data lake
<a name="data-lake-setup"></a>

Utilizza la console Amazon Chime SDK per completare i seguenti passaggi.

1. **Avvia la console Amazon Chime SDK ([ https://console.aws.amazon.com/chime-sdk/home](https://console.aws.amazon.com/chime-sdk/home)) e nel pannello di navigazione, in **Call Analytics**, scegli Configurazioni.**

1. Completa il passaggio 1, scegli **Avanti** e nella pagina Passaggio 2, seleziona la casella di controllo **Voice Analytics**.

1. In **Dettagli di output**, seleziona la casella di controllo **Data warehouse per eseguire l'analisi storica**, quindi scegli il link **Deploy CloudFormation stack.**

   Il sistema ti rimanda alla pagina **Quick create stack nella console**. CloudFormation 

1. Immettete un nome per lo stack, quindi inserite i seguenti parametri:

   1. `DataLakeType`— Scegli **Create Call Analytics DataLake**.

   1. `KinesisDataStreamName`— Scegli il tuo stream. Dovrebbe essere lo stream utilizzato per lo streaming di analisi delle chiamate.

   1. `S3BucketURI`— Scegli il tuo bucket Amazon S3. L'URI deve avere il prefisso `s3://bucket-name`

   1. `GlueDatabaseName`— Scegli un nome univoco per AWS Glue Database. Non è possibile riutilizzare un database esistente nell' AWS account.

1. **Scegli la casella di controllo di conferma, quindi scegli Crea data lake.** Attendi 10 minuti affinché il sistema crei il lago.

### Configurazione del data lake utilizzando AWS CLI
<a name="data-lake-setup-using-cli"></a>

Si usa AWS CLI per creare un ruolo con i permessi per chiamare lo CloudFormation stack di creazione. Segui la procedura seguente per creare e configurare i ruoli IAM. Per ulteriori informazioni, consulta [Creating a stack](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/using-cfn-cli-creating-stack.html) nella *Guida per l'AWS CloudFormation utente*.

1. Crea un ruolo chiamato *AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role e allega al ruolo* una politica di fiducia che consenta di assumere il ruolo. CloudFormation 

   1. Crea una policy di fiducia IAM utilizzando il seguente modello e salva il file in formato.json.

------
#### [ JSON ]

****  

      ```
      {
          "Version":"2012-10-17",		 	 	 
          "Statement": [
              {
                  "Effect": "Allow",
                  "Principal": {
                      "Service": "cloudformation.amazonaws.com"
                  },
                  "Action": "sts:AssumeRole",
                  "Condition": {}
              }
          ]
      }
      ```

------

   1. Esegui il **aws iam create-role** comando e passa la policy di fiducia come parametro.

      ```
                                          aws iam create-role \
          --role-name AmazonChimeSdkCallAnalytics-Datalake-Provisioning-Role
          --assume-role-policy-document file://role-trust-policy.json
      ```

   1. Annota il *ruolo arn* restituito dalla risposta. *role arn* è richiesto nel passaggio successivo.

1. Crea una policy con il permesso di creare uno CloudFormation stack.

   1. Crea una policy IAM utilizzando il seguente modello e salva il file in formato.json. Questo file è necessario quando si chiama create-policy.

------
#### [ JSON ]

****  

      ```
      {  
          "Version":"2012-10-17",		 	 	   
          "Statement": [  
              {  
                  "Sid": "DeployCloudFormationStack",  
                  "Effect": "Allow",  
                  "Action": [  
                      "cloudformation:CreateStack"
                  ],
                  "Resource": "*"
              }
          ]
      }
      ```

------

   1. Esegui **aws iam create-policy** e passa la policy create stack come parametro.

      ```
                                      aws iam create-policy --policy-name testCreateStackPolicy 
      --policy-document file://create-cloudformation-stack-policy.json
      ```

   1. Annota il *ruolo arn* restituito dalla risposta. *role arn* è richiesto nel passaggio successivo.

1. Collegare la policy **aws iam attach-role-policy** al ruolo.

   ```
                               aws iam attach-role-policy --role-name {Role name created above}
   --policy-arn {Policy ARN created above}
   ```

1. Crea uno CloudFormation stack e inserisci i parametri richiesti:. **aws cloudformation create-stack**

   Fornisci i valori dei parametri per ogni ParameterKey utilizzo ParameterValue.

   ```
                               aws cloudformation create-stack  --capabilities CAPABILITY_NAMED_IAM 
   --stack-name testDeploymentStack 
   --template-url https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKDataLake.yaml 
   --parameters  ParameterKey=S3BucketURI,ParameterValue={S3 URI}
   ParameterKey=DataLakeType,ParameterValue="Create call analytics datalake" 
   ParameterKey=KinesisDataStreamName,ParameterValue={Name of Kinesis Data Stream}
   --role-arn {Role ARN created above}
   ```

#### Risorse create dalla configurazione del data lake
<a name="cf-resources"></a>

La tabella seguente elenca le risorse create durante la creazione di un data lake.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/ca-data-lake.html)

# Configurazione di un pannello di controllo rapido per l'SDK Amazon Chime
<a name="quicksight-setup-setup"></a>

Una volta configurato il data lake, puoi configurare una dashboard Quick con metriche predefinite che visualizzano i tuoi dati. Puoi utilizzare i seguenti dashboard:
+ **Trascrivi Call Analytics \$1 Voice Analytics**. Le metriche includono immagini riepilogative e dettagliate per turn-by-turn trascrizioni, problemi rilevati, risultati, rilevamento delle entità e corrispondenza degli ID dei profili vocali.
+ **Trascrivi** \$1 Analisi vocale. Le metriche includono riepiloghi e immagini dettagliate per le turn-by-turn trascrizioni, le corrispondenze del vocabolario, il tono della voce e le corrispondenze degli ID dei profili vocali.

I seguenti argomenti spiegano come configurare un account Quick se non ne hai già uno e come configurare una dashboard.

**Topics**
+ [Creare un QuickSight account](#create-quicksight-account)
+ [Configurazione del tuo account QuickSight](#configure-qs-acct)
+ [Creazione di una dashboard QuickSight](#create-qs-dashboard)

## Creare un QuickSight account
<a name="create-quicksight-account"></a>

I passaggi di questa sezione spiegano come creare un account Quick. Se hai già un account, puoi passare a[Creazione di una dashboard QuickSight](#create-qs-dashboard).

Puoi creare un QuickSight account tramite:
+ Utilizzo dei CloudFormation modelli Amazon.
+ Utilizzando la console Amazon Chime SDK.

### Prerequisiti
<a name="qs-account-prereqs"></a>

Raccogli le seguenti informazioni prima di iniziare:
+ Il nome del tuo bucket Amazon S3 per l'analisi delle chiamate.
+ Un indirizzo e-mail di notifica. Il sistema invia QuickSight notifiche a questo indirizzo.

### Utilizzo CloudFormation di modelli per creare un account
<a name="account-by-cft"></a>

I passaggi seguenti spiegano come creare un account Quick distribuendo un CloudFormation modello Amazon. Il processo ti iscrive solo a un account Enterprise. Per informazioni sui prezzi, consulta [Quick Pricing](https://aws.amazon.com/quicksight/pricing/).

**Per distribuire il modello**

1. Avvia la AWS console e accedi al tuo account AWS.

1. Incolla il seguente URL nella barra degli indirizzi del browser. Assicurati di inserire la tua regione come indicato.

   `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightSubscription.yaml`.

1. Nella pagina **Quick create stack**, inserisci quanto segue:

   1. In **Stack name inserisci un nome** per il tuo account.

   1. Sotto **QuickSightNotificationEmail**l'indirizzo email che hai raccolto in precedenza.

   1. In **QuickSightSubscriptionForDataVisualization**, scegli **Crea nuovo AWS QuickSight account**.

   1. In **S3 BucketName**, inserisci il nome del tuo bucket Amazon S3.

   1. Seleziona l'opzione **Riconosco che AWS CloudFormation potrebbe creare risorse IAM.** casella di controllo.

1. Seleziona **Crea stack**.

   Il sistema impiega circa 10 minuti per creare lo stack.

1. Al termine della creazione, scegli **Vai a Quick** e inserisci il tuo indirizzo e-mail per accedere al tuo account.

### Utilizzo della console per creare un account
<a name="account-by-console"></a>

I passaggi seguenti spiegano come utilizzare la console Amazon Chime SDK per creare un account Quick. È necessario utilizzare un account Enterprise o Enterprise \$1 Q.

**Per utilizzare la console**

1. Avvia la console Amazon Chime SDK da [ https://console.aws.amazon.com/chime-sdk/casa](https://console.aws.amazon.com/chime-sdk/home)**QuickSight**, cerca e nei risultati della ricerca scegli. **QuickSight**  
![\[Un risultato di ricerca che rimanda a Quick.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/quicksightsetup-1.png)

1. Scegli **Iscriviti per QuickSight**. 

1. Scegli **Enterprise** o **Enterprise \$1 Q**, quindi scegli **Continua**.

1. Inserisci nome, cognome, numero di telefono e l'indirizzo email che hai raccolto in precedenza, quindi scegli **Continua**.

1. Esegui questa operazione:

   1. In **Metodo di autenticazione**, scegli un'opzione. 
**Nota**  
Se scegli l'opzione con utenti federati, hai bisogno delle autorizzazioni IAM corrette. Per ulteriori informazioni, consulta la sezione [Registrazione di un abbonamento rapido nella Guida rapida per](https://docs.aws.amazon.com/quicksight/latest/user/signing-up.html) *l'utente*.

   1. In **QuickSight Regione**, seleziona una regione.

   1. In **Informazioni sull'account**, inserisci un nome per l'account e l'indirizzo email che hai raccolto in precedenza.

   1. Nella sezione **QuickSight Accesso ai servizi AWS**, utilizza il ruolo predefinito oppure scegli **Usa un ruolo esistente** e seleziona un ruolo dall'elenco.

   1. (Facoltativo) Se necessario, in **Consenti l'accesso e l'individuazione automatica per queste risorse**, scegli risorse aggiuntive.

   1. Al termine, scegli **Fine.**

   1. Al termine della creazione, scegli **Vai a Quick** e inserisci il tuo indirizzo email per accedere al tuo account.

## Configurazione del tuo account QuickSight
<a name="configure-qs-acct"></a>

Dopo aver effettuato l'accesso al tuo QuickSight account, devi configurare la sicurezza e aggiungerti a un gruppo creato dal processo di configurazione.

**Per configurare la sicurezza**

1. Scegli l'icona del profilo nell'angolo in alto a destra, quindi scegli **Gestisci QuickSight dal menu** risultante.  
![\[Un menu con il comando Gestisci. QuickSight\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Nel riquadro di navigazione, scegli **Sicurezza e autorizzazioni**.

1. In **QuickSight Accesso ai AWS servizi**, scegli **Gestisci** e assicurati che siano selezionati i seguenti servizi.
   + Amazon Redshift
   + Amazon RDS
   + Simple Storage Service (Amazon S3)
   + Amazon Athena
   +  IAM

1. Scegli il link **Select Amazon S3 bucket**.

1. Seleziona la casella di controllo accanto al tuo bucket Amazon S3, quindi seleziona la casella di controllo a destra, nella colonna **Autorizzazione di scrittura per Athena** Workgroup.

1. Scegli **Fine**.

1. Scegli **Save** (Salva).

**Per aggiungerti al gruppo**

1. Nel riquadro di navigazione, scegli **Gestisci gruppi**, quindi scegli il gruppo con **amministratori** nel nome. **Ad esempio, *S3 BucketName* — Amministratori.**

1. Scegli **Aggiungi utente**, quindi inserisci il tuo alias email nella casella che appare.

   Il tuo nome appare come **Amministratore (*your-alias***).

1. Scegliere **Aggiungi**.

## Creazione di una dashboard QuickSight
<a name="create-qs-dashboard"></a>

Dopo aver creato un data lake, puoi creare una QuickSight dashboard che visualizza i tuoi dati. Puoi utilizzare un CloudFormation modello Amazon o la console Amazon Chime SDK per creare la dashboard. I passaggi seguenti spiegano entrambi i metodi.

**Per utilizzare un modello**

1. Avvia la CloudFormation console Amazon.

1. Incolla il seguente link nella barra degli indirizzi del browser: `https://region.console.aws.amazon.com/cloudformation/home?region=region#/stacks/quickcreate?templateURL=https://chime-sdk-assets.s3.amazonaws.com/public_templates/AmazonChimeSDKQuickSightDashboards.yaml`

1. Nella pagina **Quick create stack**, sotto **Stack name**, inserisci un nome per l'account.

1. **In **ActiveQuickSightAccount**, scegli True.**

1. In **QuicksightDashboardSelection**, scegli **Call Analytics — Transcribe Call Analytics and Voice Analytics dashboard o Call Analytics** **— Trascrivi** e Voice Analytics.

1. In **Amazon S3 BucketName**, inserisci l'URI del tuo bucket Amazon S3.

1. In **GlueDatabaseName**, inserisci il database Glue su cui desideri distribuire la QuickSight dashboard.

1. Seleziona la casella di controllo **Riconosco che AWS CloudFormation potrebbe creare risorse IAM**, quindi scegli **Create stack**.

**Per configurare manualmente un QuickSight pannello di controllo**

1. Accedi al tuo QuickSight account.

1. Nell'angolo in alto a destra scegli l'icona del profilo, quindi scegli **Gestisci QuickSight**.  
![\[La finestra di dialogo QuickSight dell'account e il QuickSight comando Gestisci.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/quicksightsetup-1-a.png)

1. Nel riquadro di navigazione, scegli **Gestisci gruppi**, quindi scegli il gruppo creato dal processo di configurazione.

1. Scegli **Aggiungi utente**, inserisci il tuo indirizzo email, quindi scegli **Aggiungi**.

   Il sistema impiega 10 minuti per implementare la pagina.

1. Usa la console Amazon Chime SDK per accedere al tuo QuickSight account e utilizzare la dashboard.

# Modello di dati di analisi delle chiamate per l'SDK Amazon Chime
<a name="ca-data-model"></a>

Le informazioni in questa sezione elencano e descrivono il modello di dati di analisi delle chiamate di Amazon Chime SDK, un insieme di tabelle in un catalogo di dati AWS Glue.

**Topics**
+ [Comprendere la struttura delle tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime](ca-data-model-diagram.md)
+ [Comprendere le tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime](glue-tables.md)
+ [Estrazione di dati dal catalogo AWS Glue dati per l'analisi delle chiamate dell'SDK Amazon Chime](ca-data-model-queries.md)

# Comprendere la struttura delle tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime
<a name="ca-data-model-diagram"></a>

Il diagramma seguente mostra la struttura delle tabelle del catalogo di dati AWS Glue creato per le sessioni di analisi delle chiamate e di analisi vocale di Amazon Chime SDK.

![\[Le tabelle nel catalogo dati di Call Analytics Glue.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/glue-cat-diag-12-03.jpg)


La sezione successiva elenca e descrive le tabelle e i campi del catalogo. 

# Comprendere le tabelle del catalogo AWS Glue dati per l'SDK Amazon Chime
<a name="glue-tables"></a>

Le tabelle seguenti elencano e descrivono le colonne, i tipi di dati e gli elementi in un catalogo di dati Glue di analisi delle chiamate di Amazon Chime SDK.

**Topics**
+ [call\$1analytics\$1metadata](#ca-glue-metadata)
+ [call\$1analytics\$1recording\$1metadata](#ca-glue-analytics-recording)
+ [transcribe\$1call\$1analytics](#ca-glue-transcribe-ca)
+ [transcribe\$1call\$1analytics\$1category\$1events](#ca-glue-transcribe-ca-events)
+ [transcribe\$1call\$1analytics\$1post\$1call](#ca-glue-transcribe)
+ [transcribe](#ca-glue-transcribe)
+ [voice\$1analytics\$1status](#ca-glue-va-status)
+ [speaker\$1search\$1status](#ca-glue-speaker-status)
+ [voice\$1tone\$1analysis\$1status](#ca-glue-tone-status)

## call\$1analytics\$1metadata
<a name="ca-glue-metadata"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## call\$1analytics\$1recording\$1metadata
<a name="ca-glue-analytics-recording"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics
<a name="ca-glue-transcribe-ca"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1category\$1events
<a name="ca-glue-transcribe-ca-events"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## transcribe\$1call\$1analytics\$1post\$1call
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## transcribe
<a name="ca-glue-transcribe"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## voice\$1analytics\$1status
<a name="ca-glue-va-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## speaker\$1search\$1status
<a name="ca-glue-speaker-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

## voice\$1tone\$1analysis\$1status
<a name="ca-glue-tone-status"></a>

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/glue-tables.html)

# Estrazione di dati dal catalogo AWS Glue dati per l'analisi delle chiamate dell'SDK Amazon Chime
<a name="ca-data-model-queries"></a>

Usa queste query di esempio per estrarre e organizzare i dati nel catalogo di dati Glue per l'analisi delle chiamate dell'SDK Amazon Chime. 

**Nota**  
Per informazioni sulla connessione ad Amazon Athena e sull'interrogazione del catalogo dati Glue, consulta [Connessione ad Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/connect-with-odbc.html) con ODBC.

Espandi ogni sezione in base alle esigenze.

## Estrazione di valori dai metadati (tipo di dati STRING) nella tabella call\$1analytics\$1metadata
<a name="qry-insights-metadata"></a>

`call_analytics_metadata`ha il campo in formato stringa JSON. `metadata` Usa la [funzione json\$1extract\$1scalar](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) in Athena per interrogare gli elementi di questa stringa.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
```

## Interrogazione degli aggiornamenti nella tabella call\$1analytics\$1metadata SIPRECMetadata
<a name="qry-insights-siprec-metadata"></a>

Il campo contiene il `call_analytics_metadata` campo dei metadati in formato stringa JSON. `metadata`ha un altro oggetto annidato chiamato`oneTimeMetadata`, questo oggetto contiene SIPRec metadati in formato XML originale e JSON trasformato. Usa la `json_extract_scalar` funzione in Athena per interrogare gli elementi di questa stringa.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadata') AS "siprec Metadata XML",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.siprecMetadataJson') AS "Siprec Metadata JSON",
    json_extract_scalar(json_extract_scalar(metadata,'$.oneTimeMetadata'),'$.inviteHeaders') AS "Invite Headers"
FROM 
    "GlueDatabaseName"."call_analytics_metadata"
WHERE 
    callevent-type = "update";
```

## Estrazione di valori dai metadati (tipo di dati STRING) nella tabella call\$1analytics\$1recording\$1metadata
<a name="qry-recording-metadata"></a>

`call_analytics_recording_metadata`ha il campo dei metadati in formato stringa JSON. Usa la [funzione json\$1extract\$1scalar](https://docs.aws.amazon.com/athena/latest/ug/extracting-data-from-JSON.html) in Athena per interrogare gli elementi di questa stringa.

```
SELECT
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID"
FROM 
    "GlueDatabaseName"."call_analytics_recording_metadata"
WHERE 
    detail-subtype = "Recording"
```

## Estrazione di valori dal dettaglio (tipo di dati STRUCT) nella tabella voice\$1analytics\$1status
<a name="qry-va-status"></a>

`voice_analytics_status`ha un campo di dettagli nel `struct` tipo di dati. L'esempio seguente mostra come interrogare un campo di tipo di `struct` dati:

```
SELECT
    detail.transactionId AS "Transaction ID",
    detail.voiceConnectorId AS "VoiceConnector ID",
    detail.siprecmetadata AS "Siprec Metadata",
    detail.inviteheaders AS "Invite Headers",
    detail.streamStartTime AS "Stream Start Time"
FROM 
    "GlueDatabaseName"."voice_analytics_status"
```

## Unire le tabelle voice\$1analytics\$1status e call\$1analytics\$1metadata
<a name="qry-join-va-meta"></a>

La seguente query di esempio unisce e: `call_analytics_metadata` `voice_analytics_status`

```
SELECT
    a.detail.transactionId AS "Transaction ID",
    a.detail.voiceConnectorId AS "VoiceConnector ID",
    a.detail.siprecmetadata AS "Siprec Metadata",
    a.detail.inviteheaders AS "Invite Headers",
    a.detail.streamStartTime AS "Stream Start Time"
    json_extract_scalar(b.metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(b.metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(b.metadata,'$.callId') AS "Call ID",
    json_extract_scalar(b.metadata,'$.direction') AS Direction
FROM 
    "GlueDatabaseName"."voice_analytics_status" a
INNER JOIN 
    "GlueDatabaseName"."call_analytics_metadata" b
ON a.detail.transactionId = json_extract_scalar(b.metadata,'$.transactionId')
```

## Estrazione delle trascrizioni dalla tabella transcribe\$1call\$1analytics\$1post\$1call
<a name="qry-transcribe-ca-post-call"></a>

transcribe\$1call\$1analytics\$1post\$1call ha un campo di trascrizione in formato struct con array annidati. Utilizzate la seguente query per rimuovere l'annidamento degli array:

```
SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
```

## Unire le tabelle transcribe\$1call\$1analytics\$1post\$1call e call\$1analytics\$1metadata
<a name="qry-va-status"></a>

La seguente query unisce transcribe\$1call\$1analytics\$1post\$1call e call\$1analytics\$1metadata:

```
WITH metadata AS(
  SELECT 
    from_iso8601_timestamp(time) AS "Timestamp",
    date_parse(date_format(from_iso8601_timestamp(time), '%m/%d/%Y %H:%i:%s') , '%m/%d/%Y %H:%i:%s') AS "DateTime",
    date_parse(date_format(from_iso8601_timestamp(time) , '%m/%d/%Y') , '%m/%d/%Y') AS "Date",
    date_format(from_iso8601_timestamp(time) , '%H:%i:%s')  AS "Time",
    mediainsightspipelineid,
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    REGEXP_REPLACE(REGEXP_EXTRACT(json_extract_scalar(metadata,'$.oneTimeMetadata.s3RecordingUrl'), '[^/]+(?=\.[^.]+$)'), '\.wav$', '') AS "SessionID"
  FROM 
    "GlueDatabaseName"."call_analytics_metadata"
),
transcript_events AS(
  SELECT 
    jobstatus,
    languagecode,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.id) AS utteranceId,
    IF(CARDINALITY(m.transcript)=0 OR CARDINALITY(m.transcript) IS NULL, NULL, e.transcript.content) AS transcript,
    accountid,
    channel,
    sessionid,
    contentmetadata.output AS "Redaction"
  FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" m
  CROSS JOIN UNNEST
    (IF(CARDINALITY(m.transcript)=0, ARRAY[NULL], transcript)) AS e(transcript)
)
SELECT 
    jobstatus,
    languagecode,
    a.utteranceId,
    transcript,
    accountid,
    channel,
    a.sessionid,
    "Redaction"
    "Timestamp",
    "DateTime",
    "Date",
    "Time",
    mediainsightspipelineid,
    "To Number",
    "VoiceConnector ID",
    "From Number",
    "Call ID",
    Direction,
    "Transaction ID"
FROM 
    "GlueDatabaseName"."transcribe_call_analytics_post_call" a
LEFT JOIN 
    metadata b
ON 
    a.sessionid = b.SessionID
```

## Interrogazione URLs di un oggetto multimediale per la registrazione delle chiamate con tecnologia Voice Enhancement
<a name="qry-voice-enhancement-call-recording"></a>

La seguente query di esempio unisce l'URL: `Voice enhancement call recording`

```
SELECT 
    json_extract_scalar(metadata,'$.voiceConnectorId') AS "VoiceConnector ID",
    json_extract_scalar(metadata,'$.fromNumber') AS "From Number",
    json_extract_scalar(metadata,'$.toNumber') AS "To Number",
    json_extract_scalar(metadata,'$.callId') AS "Call ID",
    json_extract_scalar(metadata,'$.direction') AS Direction,
    json_extract_scalar(metadata,'$.transactionId') AS "Transaction ID",
    s3MediaObjectConsoleUrl
FROM
    {GlueDatabaseName}."call_analytics_recording_metadata"
WHERE
    detail-subtype = "VoiceEnhancement"
```

# Utilizzo dell'analisi vocale di Amazon Chime SDK
<a name="voice-analytics"></a>

La funzionalità di analisi vocale di Amazon Chime SDK consente di implementare la ricerca degli altoparlanti e l'analisi del tono vocale. La ricerca tra relatori viene utilizzata per identificare e registrare nuovi chiamanti e per identificare quelli che chiamano ripetutamente e assegnare un punteggio di affidabilità a tali identificazioni. Utilizzi l'analisi del tono vocale per prevedere il sentimento di un chiamante come, o. `negative` `neutral` `positive`

Esegui l'analisi vocale come componente opzionale di una sessione di analisi delle chiamate di Amazon Chime SDK.

L'analisi vocale funziona con le pipeline di analisi dei media o le chiamate Amazon Chime SDK Voice Connectors. Ti consigliamo di utilizzare [Media Pipelines SDK](media-pipelines.md) e di richiamare le attività su una pipeline di Media Insights per un controllo più dettagliato e informazioni sulle attività.

Puoi utilizzare Voice Connectors per garantire la compatibilità con le versioni precedenti, ma aggiorniamo la pipeline di Media Insights solo con nuove funzionalità. APIs 

Per ulteriori informazioni sulla creazione e l'utilizzo di connettori vocali, consulta [Managing Amazon Chime SDK Voice Connectors nella *Amazon Chime* SDK](https://docs.aws.amazon.com/chime-sdk/latest/ag/voice-connectors.html) Administrator Guide.

L'analisi vocale fornisce anche:
+ Elaborazione asincrona delle attività. Le attività vengono eseguite indipendentemente l'una dall'altra.
+ Controlla quando elabori le informazioni.

Puoi avviare l'analisi vocale chiamando [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)e [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartVoiceToneAnalysisTask.html) APIs.

I seguenti argomenti spiegano come utilizzare l'analisi vocale.

**Topics**
+ [Comprendere l'architettura di analisi vocale per l'SDK Amazon Chime](va-architecture.md)
+ [Comprendere il flusso di lavoro di ricerca degli altoparlanti per l'SDK Amazon Chime](va-data-flow.md)
+ [Esempio di flusso di lavoro di analisi del tono vocale per l'SDK Amazon Chime](va-tone-flow.md)
+ [Sondaggio dei risultati delle attività per l'SDK Amazon Chime](va-task-result-poll.md)
+ [Comprendere le notifiche per l'SDK Amazon Chime](va-notification-targets.md)
+ [Comprensione delle politiche di archiviazione, opt-out e conservazione dei dati per l'SDK Amazon Chime](va-opt-out.md)
+ [Utilizzo della voce APIs per eseguire analisi vocali per l'SDK Amazon Chime](va-in-voice-namespace.md)

# Comprendere l'architettura di analisi vocale per l'SDK Amazon Chime
<a name="va-architecture"></a>

Gli argomenti di questa sezione forniscono una panoramica dell'architettura di analisi vocale Amazon Chime SDK, inclusi i flussi di dati per ciascuna funzionalità.

Questo diagramma fornisce una visione di alto livello del flusso di dati attraverso l'analisi vocale.

![\[Un diagramma che mostra il flusso di dati di alto livello tramite l'analisi vocale.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/va-architecture-kvs.png)


Nel diagramma:

1. L'audio viene trasmesso in streaming a un Kinesis Video Stream per un chiamante e un agente. A tale scopo, puoi utilizzare un produttore di Kinesis Video Streams o lo streaming di Amazon Chime SDK Voice Connector. *Per ulteriori informazioni, consulta [Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime](ml-based-analytics.md) questa guida e [Streaming dei contenuti multimediali di Amazon Chime SDK Voice Connector su Kinesis nella](https://docs.aws.amazon.com/chime-sdk/latest/ag/start-kinesis-vc.html) Amazon Chime SDK Administrator Guide.*

1. Un'applicazione o un generatore attiva la ricerca degli altoparlanti, l'analisi del tono vocale o entrambe per lo streaming audio dopo il consenso del chiamante.

1. Durante la chiamata, l'analisi vocale invia notifiche a una destinazione, Amazon Simple Queue Service (SQS), Amazon Simple Notification Service (SNS), Lambda o Amazon Kinesis Data Streams AWS .

Inoltre, l'analisi vocale fornisce questi strumenti per la gestione dei dati generati.

**Profili vocali**  
La combinazione di un incorporamento vocale, l'ID univoco dell'incorporamento e la sua data di scadenza. I profili vocali scadono dopo tre anni per motivi di sicurezza e perché le voci cambiano nel tempo. Per evitare di ricreare i profili vocali, chiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API. Per ulteriori informazioni sulle date di scadenza, consulta[Comprendere la conservazione dei dati per l'analisi vocale dell'SDK Amazon Chime](va-data-retention.md).  
Per registrare un sistema di incorporamento vocale o aggiornare un sistema di incorporamento vocale registrato, è necessario chiamare [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs entro 24 ore dal termine della chiamata. 

**Domini con profili vocali**  
Una raccolta di profili vocali.

# Comprendere il flusso di lavoro di ricerca degli altoparlanti per l'SDK Amazon Chime
<a name="va-data-flow"></a>

In questa sezione, ti mostriamo un esempio di flusso di dati e programmi per un'analisi della ricerca di altoparlanti di Amazon Chime SDK.

La funzione di ricerca degli altoparlanti prevede la creazione di un sistema di incorporamento vocale, che può essere utilizzato per confrontare la voce di un chiamante con i dati vocali precedentemente memorizzati. La raccolta, l'uso, l'archiviazione e la conservazione di identificatori biometrici e informazioni biometriche sotto forma di impronta vocale digitale possono richiedere il consenso informato del chiamante tramite un comunicato scritto. Tale consenso è richiesto in base a varie leggi statali, comprese le leggi sulla biometria in Illinois, Texas, Washington e altre leggi statali sulla privacy. Prima di utilizzare la funzione di ricerca dei relatori, devi fornire tutte le notifiche e ottenere tutti i consensi come richiesto dalla legge applicabile e secondo i [termini del servizio AWS](https://aws.amazon.com/service-terms/) che regolano l'uso della funzionalità. 

Il diagramma seguente mostra un esempio di flusso di dati attraverso un'attività di analisi della ricerca degli oratori. Le descrizioni numerate sotto il diagramma descrivono ogni fase del processo. Il diagramma presuppone che tu abbia già configurato un Amazon Chime SDK Voice Connector con una configurazione di analisi delle chiamate con un. `VoiceAnalyticsProcessor` Per ulteriori informazioni, consulta [Registrazione delle chiamate Voice Connector](record-vc-calls.md).

![\[Un diagramma che mostra il flusso di dati attraverso un'analisi della ricerca degli altoparlanti.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/speaker-search-workflow-2.png)


1. L'utente o un amministratore di sistema creano un dominio di profili vocali per l'archiviazione degli incorporamenti vocali e dei profili vocali. Per ulteriori informazioni sulla creazione di domini con profili vocali, consulta [Creazione di domini di profili vocali, nella Guida](https://docs.aws.amazon.com/chime-sdk/latest/ag/create-vp-domain.html) per l'amministratore di *Amazon Chime SDK*. Puoi anche usare l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfileDomain.html)

1. Un chiamante effettua il login utilizzando un numero di telefono assegnato a un Amazon Chime SDK Voice Connector. Oppure, un agente utilizza un numero di Voice Connector per effettuare una chiamata in uscita.

1. Il servizio Amazon Chime SDK Voice Connector crea un ID di transazione e lo associa alla chiamata.

1. Supponendo che l'applicazione sia abbonata agli EventBridge eventi, richiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API con la configurazione della pipeline with the media insights e la chiamata Kinesis Video Stream ARNs for the Voice Connector.

   Per ulteriori informazioni sull'utilizzo EventBridge, fare riferimento a. [Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime](ml-based-analytics.md)

1. L'applicazione, ad esempio un sistema di risposta vocale interattiva, o l'agente informano il chiamante in merito alla registrazione delle chiamate e all'uso degli incorporamenti vocali per l'analisi vocale e richiede il suo consenso a partecipare.

1. Una volta che il chiamante ha fornito il consenso, l'applicazione o l'agente può chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API tramite [Voice SDK se disponi di un Voice Connector](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) e di un ID di transazione. Oppure, se disponi di un ID pipeline di Media Insights anziché di un ID di transazione, chiami l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API nell'SDK [Media](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) pipelines.

   Una volta che il chiamante fornisce il consenso, l'applicazione o l'agente chiama l'API. `StartSpeakerSearchTask` È necessario trasmettere l'ID del connettore vocale, l'ID della transazione e l'ID di dominio del profilo vocale all'API. Viene restituito un ID dell'attività di ricerca degli altoparlanti per identificare l'attività asincrona.
**Nota**  
Prima di richiamare l'`StartSpeakerSearchTask`API in uno dei due SDKs, devi fornire tutte le notifiche necessarie e ottenere i consensi necessari, come richiesto dalla legge e dai termini del servizio [AWS](https://aws.amazon.com/service-terms/).

1. Il sistema accumula 10 secondi di voce del chiamante. Il chiamante deve parlare almeno per quel periodo di tempo. Il sistema non cattura o analizza il silenzio.

1. La pipeline Media Insights confronta il discorso con i profili vocali del dominio ed elenca i 10 risultati più attendibili. Se non trova una corrispondenza, Voice Connector crea un profilo vocale.

1. Il servizio Media Insights Pipeline invia un evento di notifica agli obiettivi di notifica configurati.

1. Il chiamante continua a parlare e fornisce altri 10 secondi di conversazione senza silenzio.

1. La pipeline Media Insights genera un sistema di incorporamento vocale di registrazione che puoi utilizzare per creare un profilo vocale o aggiornare un profilo vocale esistente.

1. La pipeline di media insights invia una `VoiceprintGenerationSuccessful` notifica agli obiettivi di notifica configurati.

1. L'applicazione chiama [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs per creare o aggiornare il profilo.

1. L'applicazione richiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)API secondo necessità per ottenere lo stato più recente dell'attività di ricerca dei relatori.

# Esempio di flusso di lavoro di analisi del tono vocale per l'SDK Amazon Chime
<a name="va-tone-flow"></a>

**Importante**  
L'analisi del tono vocale prevede la formulazione di previsioni sul sentimento di chi parla sulla base di informazioni linguistiche e tonali. Non devi utilizzare l'analisi del sentiment in alcun modo proibito dalla legge, anche per prendere decisioni su un individuo che potrebbero avere impatti legali o altrettanto significativi su tali individui (ad esempio, in relazione all'occupazione, all'alloggio, all'affidabilità creditizia o alle offerte finanziarie, ecc.). 

L'analisi del tono vocale analizza le voci delle persone che partecipano a una chiamata e prevede il loro sentimento, oppure. `positive` `negative` `neutral`

Il diagramma seguente mostra un esempio di flusso di lavoro per l'analisi del tono vocale. Gli elementi numerati sotto l'immagine descrivono ogni fase del processo.

**Nota**  
Il diagramma presuppone che tu abbia già configurato un Amazon Chime SDK Voice Connector con una configurazione di analisi delle chiamate con un. `VoiceAnalyticsProcessor` Per ulteriori informazioni, consulta [Registrazione delle chiamate Voice Connector](record-vc-calls.md).

![\[Un diagramma che mostra il flusso di dati attraverso un'analisi del tono vocale.\]](http://docs.aws.amazon.com/it_it/chime-sdk/latest/dg/images/voice-tone-workflow-v2.png)


Nel diagramma:

1. Un chiamante effettua il login utilizzando un numero di telefono assegnato a un Amazon Chime SDK Voice Connector. Oppure, un agente utilizza un numero di Voice Connector per effettuare una chiamata in uscita.

1. Il servizio Voice Connector crea un ID di transazione e lo associa alla chiamata.

1. L'applicazione, ad esempio un sistema di risposta vocale interattiva, o l'agente informano il chiamante in merito alla registrazione delle chiamate e all'uso degli incorporamenti vocali per l'analisi vocale e richiede il suo consenso a partecipare.

1. Supponendo che l'applicazione sia abbonata agli EventBridge eventi, richiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_CreateMediaInsightsPipeline.html)API con la configurazione della pipeline with the media insights e la chiamata Kinesis Video Stream ARNs for the Voice Connector.

   Per ulteriori informazioni sull'utilizzo EventBridge, fare riferimento a. [Comprensione dei flussi di lavoro per l'analisi basata sull'apprendimento automatico per l'SDK Amazon Chime](ml-based-analytics.md)

1. Una volta che il chiamante ha fornito il consenso, l'applicazione o l'agente può chiamare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)API tramite [Voice SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html) se disponi di un Voice Connector e di un ID di transazione. Oppure, se disponi di un ID pipeline di Media Insights anziché di un ID di transazione, chiami l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_StartSpeakerSearchTask.html)API nell'SDK [Media](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html) pipelines.

   Una volta che il chiamante fornisce il consenso, l'applicazione o l'agente chiama l'API. `StartSpeakerSearchTask` È necessario trasmettere l'ID del connettore vocale, l'ID della transazione e l'ID di dominio del profilo vocale all'API. Viene restituito un ID dell'attività di ricerca degli altoparlanti per identificare l'attività asincrona.

1. L'utente parla per tutta la durata della chiamata.

1. L'agente parla per tutta la durata della chiamata.

1. Ogni 5 secondi, la pipeline di analisi dei media utilizza un modello di apprendimento automatico per analizzare gli ultimi 30 secondi di discorso e prevedere il tono del chiamante per quell'intervallo e per l'intera chiamata dalla prima chiamata. `StartVoiceToneAnalysisTask`

1. La pipeline di Media Insights invia una notifica con tali informazioni agli obiettivi di notifica configurati. Puoi identificare la notifica in base all'ARN dello stream e all'ID del canale. Per ulteriori informazioni, fare riferimento a[Comprendere le notifiche per l'SDK Amazon Chime](va-notification-targets.md), più avanti in questa sezione.

1. Ripetere i passaggi 9 e 10 fino al termine della chiamata.

1. Al termine della chiamata, la pipeline Media Insights invia un'ultima notifica con la previsione attuale del tono medio degli ultimi 30 secondi, più il tono medio dell'intera chiamata.

1. L'applicazione richiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API in base alle esigenze per ottenere lo stato più recente dell'attività di analisi del tono vocale. 
**Nota**  
L'`GetVoiceToneAnalysisTask`API non trasmette in streaming i dati del tono.

**Nota**  
L'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html)API non restituisce dati sui toni vocali.

# Sondaggio dei risultati delle attività per l'SDK Amazon Chime
<a name="va-task-result-poll"></a>

**Importante**  
Per impostazione predefinita, l'analisi vocale rende disponibili i risultati per 7 giorni, quindi elimina automaticamente i dati. È necessario archiviare i dati delle attività se si desidera utilizzarli per un periodo più lungo o per rispettare le leggi sulla conservazione dei dati. Per ulteriori informazioni[Comprendere la conservazione dei dati per l'analisi vocale dell'SDK Amazon Chime](va-data-retention.md), vedere più avanti in questa guida.

L'analisi vocale cerca di garantire almeno una consegna dei risultati di ogni attività. Tuttavia, i problemi di rete possono aumentare la latenza. [Per risolvere potenziali problemi o se preferisci i processi sincroni, puoi utilizzare quanto segue APIs in [Media pipelines SDK o Voice SDK](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Media_Pipelines.html):](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_Operations_Amazon_Chime_SDK_Voice.html)
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetSpeakerSearchTask.html) 
+  [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_GetVoiceToneAnalysisTask.html)
**Importante**  
L'`GetVoiceToneAnalysisTask`API restituisce solo lo stato di un'attività. Non restituisce i risultati dell'attività. Per visualizzare i risultati, utilizza un target di notifica Amazon SQS, Amazon SNS o AWS Lambda.

L'`GetSpeakerSearchTask`API ottiene gli ultimi risultati in modo sincrono per un ID di attività, per i messaggi ritardati o per i messaggi che arrivano fuori ordine. Tuttavia, consigliamo di utilizzare obiettivi di notifica e l'elaborazione asincrona. In questo modo si consumano meno risorse di elaborazione.

# Comprendere le notifiche per l'SDK Amazon Chime
<a name="va-notification-targets"></a>

L'analisi vocale invia automaticamente gli eventi a un bersaglio all'inizio delle attività di ricerca degli altoparlanti o di analisi del tono vocale, mentre sono in esecuzione e al termine. Gli obiettivi di notifica vengono utilizzati per ricevere tali eventi. Ti consigliamo di utilizzare più obiettivi di notifica se il flusso di lavoro o l'applicazione richiedono un'elevata disponibilità.

Inoltre, devi utilizzare un ruolo IAM con le policy necessarie per accedere ai tuoi obiettivi di notifica. Per ulteriori informazioni, consulta [Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-resource-access-role.md).

**Nota**  
Per Amazon SQS e Amazon SNS, non supportiamo le code. first-in-first-out Di conseguenza, i messaggi potrebbero arrivare fuori servizio. Ti consigliamo di controllare i timestamp per ordinare i messaggi in base alle esigenze e di rendere persistenti i messaggi in un data store come Amazon DynamoDB. Puoi anche utilizzare il comando Get APIs descritto in [Sondaggio dei risultati delle attività per l'SDK Amazon Chime](va-task-result-poll.md) per ricevere i risultati più recenti.

La tabella seguente elenca gli eventi e i tipi di dettaglio corrispondenti.


| Evento di notifica | Tipo di dettaglio | 
| --- | --- | 
| Metadati di analisi vocale | `VoiceAnalyticsStatus` | 
| Ricerca di altoparlanti | `SpeakerSearchStatus` | 
| Analisi del tono vocale | `VoiceToneAnalysisStatus` | 

# Comprensione delle policy IAM per gli obiettivi di notifica per l'SDK Amazon Chime
<a name="va-iam-target-policies"></a>

È necessario utilizzare le policy nel ruolo IAM in una configurazione di Call Analytics che consenta l'accesso ai target di notifica di Amazon SQS, Amazon SNS, AWS Lambda o Amazon KDS. Per ulteriori informazioni sul tagging, consulta [Utilizzo del ruolo di accesso alle risorse di analisi delle chiamate per l'SDK Amazon Chime](call-analytics-resource-access-role.md)in questa guida.

## Eventi di ricerca dei relatori
<a name="va-speaker-search-events"></a>

Gli eventi di ricerca degli altoparlanti hanno il tipo di `SpeakerSearchStatus` dettaglio.

I connettori vocali di Amazon Chime SDK inviano i seguenti eventi di ricerca degli altoparlanti:
+ L'identificazione corrisponde
+ Generazione di incorporamento vocale

Gli eventi possono avere i seguenti stati:
+ `IdentificationSuccessful`— Identificato con successo almeno un ID del profilo vocale corrispondente con un punteggio di affidabilità elevato nel dominio del profilo vocale specificato.
+ `IdentificationFailure`— Impossibile eseguire l'identificazione. Cause: il chiamante non parla per almeno 10 secondi, qualità audio scadente.
+ `IdentificationNoMatchesFound`— Impossibile trovare una corrispondenza ad alta confidenza nel dominio del profilo vocale specificato. Il chiamante potrebbe essere nuovo o la sua voce potrebbe essere cambiata.
+ `VoiceprintGenerationSuccessful`— Il sistema ha generato un incorporamento vocale utilizzando 20 secondi di audio non silenzioso.
+ `VoiceprintGenerationFailure`— Il sistema non è riuscito a generare un incorporamento vocale. Cause: il chiamante non parla per almeno 20 secondi, qualità audio scadente.

### L'identificazione corrisponde
<a name="va-id-matches"></a>

Dopo una determinata chiamata all'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API`transactionId`, il servizio Voice Connector restituisce una notifica di corrispondenza dell'identificazione dopo 10 secondi di conversazione non silenziosa. Il servizio restituisce le prime 10 corrispondenze, insieme a un ID del profilo vocale e a un punteggio di affidabilità compreso tra [0, 1]. Più alto è il punteggio di confidenza, più è probabile che l'oratore della chiamata corrisponda all'ID del profilo vocale. Se il modello di machine learning non trova alcuna corrispondenza, il `detailStatus` campo della notifica contiene`IdentificationNoMatchesFound`.

L'esempio seguente mostra la notifica di un abbinamento riuscito.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

### Generazione di incorporamento vocale
<a name="va-voice-print-generation"></a>

Dopo altri 10 secondi di conversazione non silenziosa, Voice Connector invia una notifica di generazione di incorporamento vocale ai destinatari della notifica. È possibile registrare nuovi incorporamenti vocali in un profilo vocale o aggiornare una stampa già presente in un profilo vocale.

L'esempio seguente mostra la notifica di un abbinamento riuscito, il che significa che puoi aggiornare il profilo vocale associato.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
    }
}
```

## Eventi di analisi del tono vocale
<a name="va-tone-status"></a>

Gli eventi di analisi del tono vocale hanno il tipo di `VoiceToneAnalysisStatus` dettaglio. Le analisi possono restituire questi stati:
+ `VoiceToneAnalysisSuccessful`— Ha analizzato con successo le voci del chiamante e dell'agente in base alle probabilità di sentimento: positivo, negativo o neutro.
+ `VoiceToneAnalysisFailure`— Impossibile eseguire l'analisi del tono. Ciò può accadere se il chiamante si blocca senza parlare per 10 secondi o se la qualità dell'audio diventa troppo scarsa.
+ `VoiceToneAnalysisCompleted`— Ha analizzato con successo le voci degli utenti e degli agenti in base alle probabilità di sentimento per l'intera chiamata. Questo è l'evento finale, inviato al termine dell'analisi del tono vocale.

L'esempio seguente mostra un tipico evento di analisi del tono vocale.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
        "startFragmentNumber": "01234567890123456789",
        "mediaInsightsPipelineId": "87654321-33ca-4dc6-9cdf-abcde6612345",
        "sourceArn": "arn:aws:chime:us-east-1:111122223333:media-pipeline/87654321-33ca-4dc6-9cdf-abcde6612345",
        "streamArn": "arn:aws:kinesisvideo:us-east-1:111122223333:stream/my-stream/0123456789012",
        "channelId": 0
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

## Eventi di riepilogo post-chiamata
<a name="va-post-call-summary-events"></a>

Gli eventi di riepilogo successivi alla chiamata vengono inviati 5 minuti dopo la fine della chiamata. Questi riepiloghi forniscono una panoramica delle attività di ricerca degli interlocutori che si sono svolte durante la chiamata.

L'esempio seguente mostra un riepilogo dopo la chiamata con la migliore corrispondenza del profilo vocale, l'identità confermata dell'oratore e un elenco dei profili vocali creati o aggiornati tramite le chiamate `UpdateVoiceProfile` API `CreateVoiceProfile` e effettuate durante la chiamata.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "VoiceAnalyticsStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",    
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "PostCallVoiceAnalytics",
        "callId": "22e8dee8-bbd7-4f94-927b-2d0ebaeddc1c",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "isCaller": true | false,
        "speakerSearchResults": {
            "bestMatchedVoiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "customerValidatedCallerIdentity": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
            "createVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z"
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ],
            "updateVoiceProfileTransactions": [
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                },
                {
                    "voiceProfileId": "vp-04c25ba1-a059-4fd3-8495-4ac91b55e2bf",
                    "requestTimestamp": "2022-12-14T18:38:38.796Z",
                }
            ]
        }
    }
}
```

# Esempio di analisi vocale: funzione Lambda per l'SDK Amazon Chime
<a name="va-sample-lambda"></a>

Il codice Python nell'esempio seguente elabora le notifiche ricevute da un Voice Connector. È possibile aggiungere il codice a una funzione AWS Lambda. Puoi anche usarlo per attivare la coda Amazon SQS, l'argomento Amazon SNS o Amazon Kinesis Data Stream. È quindi possibile archiviare le notifiche in un file `EventTable` per elaborazioni future. Per i formati di notifica esatti, vedi[Comprendere le notifiche per l'SDK Amazon Chime](va-notification-targets.md).

```
import base64
import boto3
import json
import logging
import time

from datetime import datetime
from enum import Enum

log = logging.getLogger()
log.setLevel(logging.INFO)

dynamo = boto3.client("dynamodb")

EVENT_TABLE_NAME = "EventTable"

class EventType(Enum):
    """
    This example code uses a single Lambda processor to handle either
    triggers from SQS, SNS, Lambda, or Kinesis. You can adapt it to fit your
    desired infrastructure depending on what you prefer. To distinguish
    where we get events from, we use an EventType enum as an
    example to show the different ways of parsing the notifications.
    """
    SQS = "SQS"
    SNS = "SNS"
    LAMBDA = "LAMBDA"
    KINESIS = "KINESIS"


class AnalyticsType(Enum):
    """
    Define the various analytics event types that this Lambda will
    handle.
    """
    SPEAKER_SEARCH = "SpeakerSearch"
    VOICE_TONE_ANALYSIS = "VoiceToneAnalysis"
    ANALYTICS_READY = "AnalyticsReady"
    UNKNOWN = "UNKNOWN"
 
   
class DetailType(Enum):
    """
    Define the  various detail types that Voice Connector's voice
    analytics feature can return.
    """
    SPEAKER_SEARCH_TYPE = "SpeakerSearchStatus"
    VOICE_TONE_ANALYSIS_TYPE = "VoiceToneAnalysisStatus"
    ANALYTICS_READY = "VoiceAnalyticsStatus"
 

def handle(event, context):
    """
    Example of how to handle incoming Voice Analytics notification messages
    from Voice Connector.
    """
    logging.info(f"Received event of type {type(event)} with payload {event}")
    is_lambda = True
    
    # Handle triggers from SQS, SNS, and KDS. Use the below code if you would like
    # to use this Lambda as a trigger for an existing SQS queue, SNS topic or Kinesis
    # stream.
    if "Records" in event:
        logging.info("Handling event from SQS or SNS since Records exists")
        is_lambda = False
        for record in event.get("Records", []):
            _process_record(record)
    
    # If you would prefer to have your Lambda invoked directly, use the
    # below code to have the Voice Connector directly invoke your Lambda.
    # In this scenario, there are no "Records" passed.
    if is_lambda:
        logging.info(f"Handling event from Lambda")
        event_type = EventType.LAMBDA
        _process_notification_event(event_type, event)


def _process_record(record):
    # SQS and Kinesis use eventSource.
    event_source = record.get("eventSource")
    
    # SNS uses EventSource.
    if not event_source:
        event_source = record.get("EventSource")

    # Assign the event type explicitly based on the event source value.
    event_type = None
    if event_source == "aws:sqs":
        event = record["body"]
        event_type = EventType.SQS
    elif event_source == "aws:sns":
        event = record["Sns"]["Message"]
        event_type = EventType.SNS
    elif event_source == "aws:kinesis":
        raw_data = record["kinesis"]["data"]
        raw_message = base64.b64decode(raw_data).decode('utf-8')
        event = json.loads(raw_message)
        event_type = EventType.KINESIS
    else:
        raise Exception(f"Event source {event_source} is not supported")

    _process_notification_event(event_type, event)


def _process_notification_event(
    event_type: EventType,
    event: dict
):
    """
    Extract the attributes from the Voice Analytics notification message
    and store it as a DynamoDB item to process later.
    """
    message_id = event.get("id")
    analytics_type = _get_analytics_type(event.get("detail-type"))
    pk = None
    if analytics_type == AnalyticsType.ANALYTICS_READY.value or analytics_type == AnalyticsType.UNKNOWN.value:
        transaction_id = event.get("detail").get("transactionId")
        pk = f"transactionId#{transaction_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    else:
        task_id = event.get("detail").get("taskId")
        pk = f"taskId#{task_id}#notificationType#{event_type.value}#analyticsType#{analytics_type}"
    logging.info(f"Generated PK {pk}")
    _create_request_record(pk, message_id, json.dumps(event))


def _create_request_record(pk: str, sk: str, body: str):
    """
    Record this notification message into the Dynamo db table
    """
    try:
        # Use consistent ISO8601 date format.
        # 2019-08-01T23:09:35.369156 -> 2019-08-01T23:09:35.369Z
        time_now = (
            datetime.utcnow().isoformat()[:-3] + "Z"
        )
        response = dynamo.put_item(
            Item={
                "PK": {"S": pk},
                "SK": {"S": sk},
                "body": {"S": body},
                "createdOn": {"S": time_now},
            },
            TableName=EVENT_TABLE_NAME,
        )
        logging.info(f"Added record in table {EVENT_TABLE_NAME}, response : {response}")
    except Exception as e:
        logging.error(f"Error in adding record: {e}")


def _get_analytics_type(detail_type: str):
    """
    Get analytics type based on message detail type value.
    """
    if detail_type == DetailType.SPEAKER_SEARCH_TYPE.value:
        return AnalyticsType.SPEAKER_SEARCH.value
    elif detail_type == DetailType.VOICE_TONE_ANALYSIS_TYPE.value:
        return AnalyticsType.VOICE_TONE_ANALYSIS.value
    elif detail_type == DetailType.ANALYTICS_READY.value:
        return AnalyticsType.ANALYTICS_READY.value
    else:
        return AnalyticsType.UNKNOWN.value
```

**Importante**  
È necessario ricevere il consenso prima di chiamare il servizio [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)o [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysis.html) APIs. Ti consigliamo di mantenere gli eventi in un'area di attesa, come Amazon DynamoDB, fino a quando non ricevi il consenso.

# Comprensione delle politiche di archiviazione, opt-out e conservazione dei dati per l'SDK Amazon Chime
<a name="va-opt-out"></a>

L'SDK Amazon Chime utilizza i dati vocali per fornire e migliorare il servizio di ricerca degli altoparlanti. A tale scopo, utilizziamo l'audio di registrazione, gli snippet registrati utilizzati per creare incorporamenti vocali, per addestrare i nostri modelli di apprendimento automatico e intelligenza artificiale. Puoi scegliere di non utilizzare i tuoi dati per addestrare i modelli e gli argomenti di questa sezione spiegano come.

**Topics**
+ [Comprendere l'archiviazione dei dati per la ricerca di altoparlanti per l'SDK Amazon Chime](speaker-search-data-storage.md)
+ [Gestione degli opt-out per la ricerca di altoparlanti per l'SDK Amazon Chime](va-handle-opt-outs.md)
+ [Comprendere la conservazione dei dati per l'analisi vocale dell'SDK Amazon Chime](va-data-retention.md)

# Comprendere l'archiviazione dei dati per la ricerca di altoparlanti per l'SDK Amazon Chime
<a name="speaker-search-data-storage"></a>

L'SDK Amazon Chime memorizza i seguenti dati per la ricerca degli altoparlanti:
+ Gli incorporamenti vocali allegati ai profili vocali che utilizziamo per fornire la funzionalità di ricerca degli altoparlanti.
+ Audio di registrazione, i frammenti di testo registrati utilizzati per creare gli incorporamenti vocali per ogni profilo vocale. Utilizziamo le registrazioni audio di registrazione per:
  + Mantieni aggiornati i modelli di ricerca degli altoparlanti, una parte fondamentale dell'offerta della funzionalità di ricerca degli altoparlanti.
  + Addestra il modello di machine learning per sviluppare e migliorare il servizio. L'uso dell'audio di registrazione per la formazione è facoltativo e puoi disattivarlo selezionando una politica di opt-out come descritto nella sezione seguente.

# Gestione degli opt-out per la ricerca di altoparlanti per l'SDK Amazon Chime
<a name="va-handle-opt-outs"></a>

Puoi gestire gli opt-out per gli utenti finali e per intere organizzazioni. Il rifiuto esplicito ha gli effetti seguenti:
+ Dopo la disattivazione, l'analisi vocale non utilizzerà alcun nuovo audio di registrazione per la formazione dei modelli e non utilizzerà l'audio di registrazione raccolto e archiviato prima della disattivazione.
+ Dopo l'annullamento, l'analisi vocale memorizzerà e utilizzerà l'audio di registrazione per fornire il servizio di ricerca degli oratori.

**avvertimento**  
Le seguenti azioni di opt-out sono irreversibili. Non puoi recuperare i dati eliminati.

**Gestione delle rinunce degli utenti finali**  
Quando gli utenti finali desiderano disattivare la ricerca degli oratori, chiama l'API. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfile.html) Questa azione rimuove il profilo vocale, oltre agli incorporamenti vocali e all'audio di registrazione.

Per eliminare un gruppo di incorporamenti vocali, chiama l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_DeleteVoiceProfileDomain.html)API per rimuovere il dominio. Questa azione elimina *tutti i* profili vocali in un dominio.

**Gestione dell'opt-out a livello organizzativo**  
Per gestire l'opt-out per un'intera organizzazione, utilizza una politica di opt-out di AWS Organizations. Usa il nome del `chimesdkvoiceanalytics` servizio. Per informazioni sulle politiche, consulta le politiche di [opt-out dei servizi AI](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html) nella *AWS Organizations User Guide*.

**Nota**  
Per utilizzare una politica di opt-out, i tuoi AWS account devono essere gestiti centralmente da AWS Organizations. Se non hai ancora creato un'organizzazione per i tuoi AWS account, consulta [Creare e gestire un'organizzazione](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_org.html) nella *AWS Organizations User Guide*.

# Comprendere la conservazione dei dati per l'analisi vocale dell'SDK Amazon Chime
<a name="va-data-retention"></a>

Per impostazione predefinita, l'analisi vocale di Amazon Chime SDK elimina gli incorporamenti vocali dopo 3 anni. Lo facciamo perché la voce delle persone cambia nel tempo e anche per motivi di sicurezza. Puoi utilizzare l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html)API per aggiornare gli incorporamenti vocali scaduti.

I risultati di [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)e [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartVoiceToneAnalysisTask.html)saranno disponibili anche nelle rispettive sedi [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetSpeakerSearchTask.html)e [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_GetVoiceToneAnalysisTask.html) APIs per un massimo di 7 giorni.

Gli incorporamenti vocali generati da a [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask.html)sono disponibili per la persistenza tramite [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_CreateVoiceProfile.html)e [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_UpdateVoiceProfile.html) APIs per 24 ore, dopodiché vengono eliminati e non sono disponibili.

Per rimuovere i risultati e gestire la revoca del consenso dei tuoi clienti, consulta la sezione precedente.

# Utilizzo della voce APIs per eseguire analisi vocali per l'SDK Amazon Chime
<a name="va-in-voice-namespace"></a>

Per motivi di compatibilità con le versioni precedenti, puoi utilizzare Amazon Chime SDK APIs Voice per avviare e gestire l'analisi vocale. Tuttavia, solo la pipeline Media Insights APIs per l'analisi vocale offre nuove funzionalità, quindi consigliamo vivamente di utilizzarle al loro posto.

Le sezioni seguenti spiegano le differenze tra le pipeline APIs di analisi vocali e multimediali.

## Interruzione delle attività
<a name="va-stopping-tasks"></a>

Se utilizzi un Voice Connector per avviare le attività di analisi vocale e quindi utilizzi l'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_media-pipelines-chime_UpdateMediaInsightsPipelineStatus.html)API per sospendere la pipeline, le attività continuano a essere eseguite. Per interrompere le attività, devi chiamare and. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StopSpeakerSearchTask.html) APIs

## Comprendere le differenze tra le notifiche
<a name="va-notification-differences"></a>

Quando usi la voce APIs per eseguire l'analisi vocale, le notifiche sono diverse da quelle generate dalle pipeline di Media Insights.
+ Gli eventi predisposti per l'analisi vocale sono disponibili solo per le attività avviate utilizzando la voce APIs.
+ È necessario utilizzare i `callId` campi `voiceConnectorId``transactionId`, o nelle notifiche per associare un'attività di analisi vocale a una chiamata. Se utilizzi le pipeline di Media Insights per eseguire l'analisi vocale, utilizzi i `channelId` campi `mediaInsightsPipelineId` and `streamArn` o per associare un'attività a una chiamata.

I seguenti argomenti spiegano come utilizzare le notifiche APIs vocali.

**Topics**
+ [Eventi pronti per l'analisi vocale](#va-ready-events)
+ [Eventi di ricerca degli altoparlanti](#va-speaker-search-events)
+ [Eventi di analisi del tono vocale](#va-tone-status)

### Eventi pronti per l'analisi vocale
<a name="va-ready-events"></a>

Gli eventi predisposti per l'analisi vocale hanno il tipo di `VoiceAnalyticsStatus` dettaglio. 

Utilizzi i connettori vocali Amazon Chime SDK per avviare attività di analisi. Quando ricevi un evento pronto per l'analisi vocale, puoi attivare un'attività di ricerca degli altoparlanti o di analisi del tono vocale per la chiamata, identificata dalle seguenti proprietà:
+ `voiceConnectorId`
+ `transactionId`

**Nota**  
Questa notifica viene fornita solo quando disponi di una configurazione della pipeline di Media Insights con l'analisi vocale abilitata e associata a un Voice Connector. Questa notifica NON viene fornita quando i clienti chiamano l'`CreateMediaInsightsPipeline`API e avviano un'attività di ricerca degli altoparlanti o un'attività di analisi del tono vocale tramite Media Pipelines SDK.

Le intestazioni SIP restituite da un Voice Connector contengono il. `transactionId` Se non hai accesso alle intestazioni SIP, l'evento di `AnalyticsReady` notifica contiene anche il comando and. `voiceConnectorId` `transactionId` Ciò consente di ricevere le informazioni in modo programmatico e di chiamare il, o. [https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask) APIs

Quando l'analisi vocale è pronta per l'elaborazione, Voice Connector invia un evento `"detailStatus": "AnalyticsReady"` alla destinazione della notifica come corpo JSON. Se utilizzi Amazon SNS o Amazon SQS, quel corpo viene visualizzato nel campo «Record» del payload Amazon SNS o Amazon SQS.

L'esempio seguente mostra un tipico body JSON.

```
{
    "detail-type": "VoiceAnalyticsStatus",
    "version": "0",
    "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59",
    "source": "aws.chime",
    "account": "123456789012",
    "time": "2022-08-26T17:55:15.563441Z",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "detailStatus": "AnalyticsReady",
        "callDetails": {
            "isCaller": false,
            "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
            "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
        }
    }
}
```

Questa notifica consente di attivare richiami aggiuntivi all'applicazione e di gestire eventuali requisiti legali, come l'avviso e il consenso, prima di richiamare l'attività di analisi vocale. APIs

### Eventi di ricerca degli altoparlanti
<a name="va-speaker-search-events"></a>

Gli eventi di ricerca degli altoparlanti hanno il tipo di `SpeakerSearchStatus` dettaglio.

I connettori vocali di Amazon Chime SDK inviano i seguenti eventi di ricerca degli altoparlanti:
+ L'identificazione corrisponde
+ Generazione di incorporamento vocale

Gli eventi possono avere i seguenti stati:
+ `IdentificationSuccessful`— Identificato con successo almeno un ID del profilo vocale corrispondente con un punteggio di affidabilità elevato nel dominio del profilo vocale specificato.
+ `IdentificationFailure`— Impossibile eseguire l'identificazione. Cause: il chiamante non parla per almeno 10 secondi, qualità audio scadente.
+ `IdentificationNoMatchesFound`— Impossibile trovare una corrispondenza ad alta confidenza nel dominio del profilo vocale specificato. Il chiamante potrebbe essere nuovo o la sua voce potrebbe essere cambiata.
+ `VoiceprintGenerationSuccessful`— Il sistema ha generato un incorporamento vocale utilizzando 20 secondi di audio non silenzioso.
+ `VoiceprintGenerationFailure`— Il sistema non è riuscito a generare un incorporamento vocale. Cause: il chiamante non parla per almeno 20 secondi, qualità audio scadente.

#### L'identificazione corrisponde
<a name="va-id-matches"></a>

Dopo una determinata chiamata all'[https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask](https://docs.aws.amazon.com/chime-sdk/latest/APIReference/API_voice-chime_StartSpeakerSearchTask)API`transactionId`, il servizio Voice Connector restituisce una notifica di corrispondenza dell'identificazione dopo 10 secondi di conversazione non silenziosa. Il servizio restituisce le prime 10 corrispondenze, insieme a un ID del profilo vocale e a un punteggio di affidabilità compreso tra [0, 1]. Più alto è il punteggio di confidenza, più è probabile che l'oratore della chiamata corrisponda all'ID del profilo vocale. Se il modello di machine learning non trova alcuna corrispondenza, il `detailStatus` campo della notifica contiene`IdentificationNoMatchesFound`.

L'esempio seguente mostra la notifica di un abbinamento riuscito.

```
{    
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "uuid",
        "detailStatus": "IdentificationSuccessful",
        "speakerSearchDetails" : {
            "results": [
                {
                    "voiceProfileId": "vp-505e0992-82da-49eb-9d4a-4b34772b96b6",
                    "confidenceScore": "0.94567856",
                },
                {
                    "voiceProfileId": "vp-fba9cbfa-4b8d-4f10-9e41-9dfdd66545ab",
                    "confidenceScore": "0.82783350",
                },
                {
                    "voiceProfileId": "vp-746995fd-16dc-45b9-8965-89569d1cf787",
                    "confidenceScore": "0.77136436",
                }
            ]
        },
        "isCaller": false,
        "voiceConnectorId": "abcdef1ghij2klmno3pqr4",
        "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436"
    }
}
```

#### Generazione di incorporamento vocale
<a name="va-voice-print-generation"></a>

Dopo altri 10 secondi di conversazione non silenziosa, Voice Connector invia una notifica di generazione di incorporamento vocale ai destinatari della notifica. È possibile registrare nuovi incorporamenti vocali in un profilo vocale o aggiornare una stampa già presente in un profilo vocale.

L'esempio seguente mostra la notifica di un abbinamento riuscito, il che significa che puoi aggiornare il profilo vocale associato.

```
{
    "version": "0",
    "id": "12345678-1234-1234-1234-111122223333",
    "detail-type": "SpeakerSearchStatus",
    "service-type": "VoiceAnalytics",
    "source": "aws.chime",
    "account": "111122223333",
    "time": "yyyy-mm-ddThh:mm:ssZ",
    "region": "us-east-1",
    "resources": [],
    "detail": {
        "taskId": "guid",
        "detailStatus": "VoiceprintGenerationSuccess",
        "isCaller": false,
        "transactionId": "12345678-1234-1234",
        "voiceConnectorId": "abcdef1ghij2klmno3pqr"
    }
}
```

### Eventi di analisi del tono vocale
<a name="va-tone-status"></a>

Gli eventi di analisi del tono vocale hanno il tipo di `VoiceToneAnalysisStatus` dettaglio. Le analisi possono restituire questi stati:
+ `VoiceToneAnalysisSuccessful`— Ha analizzato con successo le voci del chiamante e dell'agente in base alle probabilità di sentimento: positivo, negativo o neutro.
+ `VoiceToneAnalysisFailure`— Impossibile eseguire l'analisi del tono. Ciò può accadere se il chiamante si blocca senza parlare per 10 secondi o se la qualità dell'audio diventa troppo scarsa.
+ `VoiceToneAnalysisCompleted`— Ha analizzato con successo le voci degli utenti e degli agenti in base alle probabilità di sentimento per l'intera chiamata. Questo è l'evento finale, inviato al termine dell'analisi del tono vocale.

L'esempio seguente mostra un tipico evento di analisi del tono vocale.

```
{
  "detail-type": "VoiceToneAnalysisStatus",
  "service-type": "VoiceAnalytics",
  "source": "aws.chime",
  "account": "216539279014",
  "time": "2022-08-26T17:55:15.563441Z",
  "region": "us-east-1",
  "detail": {
    "taskId": "uuid",
    "detailStatus": "VoiceToneAnalysisSuccessful",
    "voiceToneAnalysisDetails": {
      "currentAverageVoiceTone": {
          "startTime": "2022-08-26T17:55:15.563Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "neutral",
          "voiceToneScore": {    
            "neutral": "0.83",    
            "positive": "0.13",    
            "negative": "0.04"
          }
      },
      "overallAverageVoiceTone": {
          "startTime": "2022-08-26T16:23:13.344Z",
          "endTime": "2022-08-26T17:55:45.720Z",
          "voiceToneLabel": "positive",
          "voiceToneScore": {    
            "neutral": "0.25",    
            "positive": "0.65",    
            "negative": "0.1"
          }
      }
    },
    "isCaller": true,
    "transactionId": "daaeb6bf-2fe2-4e51-984e-d0fbf2f09436",
    "voiceConnectorId": "fuiopl1fsv9caobmqf2vy7"
  },
  "version": "0",
  "id": "Id-f928dfe3-f44b-4965-8a17-612f9fb92d59"
}
```

# Quote dei servizi di analisi delle chiamate per l'SDK Amazon Chime
<a name="ca-regions"></a>

Le tabelle in questa sezione elencano le quote di servizio per l'analisi delle chiamate dell'SDK Amazon Chime.

Per ulteriori informazioni sulle regioni di analisi delle chiamate, consulta la sezione precedente di [Regioni AWS disponibili per l'SDK Amazon Chime](sdk-available-regions.md) questa guida.

L'analisi delle chiamate e l'analisi vocale di Amazon Chime SDK hanno le seguenti quote di servizio.


| Risorsa | Limite predefinito | Regolabile | 
| --- | --- | --- | 
| Configurazioni della pipeline di Media Insights per regione | 100 | Sì | 
| Pipeline di Active Media Insights per regione | 20 | Sì | 
| Domini con profili vocali per regione | 3 | Sì | 
| Profili vocali per dominio del profilo vocale | 20 | Sì | 
| Attività di ricerca attiva degli altoparlanti per regione | 25 | Sì | 
| Attività di analisi attiva del tono vocale per regione | 25 | Sì | 
| Chiamate con Active Voice Connector con analisi vocale per regione | 25 | Sì | 
| Attività di ricerca di altoparlanti attivi per chiamata Voice Connector per ID transazione | 1 | No | 
| Attività di analisi attiva del tono vocale per chiamata Voice Connector per ID transazione | 1 | No | 
| Numero massimo di chiamate API simultanee per dominio del profilo vocale | 1 | Sì | 
| Numero massimo di chiamate API simultanee per profilo vocale | 1 | Sì | 
| Numero massimo di chiamate API simultanee per attività di ricerca degli altoparlanti | 1 | Sì | 
| Numero massimo di chiamate API simultanee per attività di analisi del tono vocale | 1 | Sì | 

*Per ulteriori informazioni sulle tariffe e le quote delle API, consulta gli [endpoint e le quote dell'SDK Amazon Chime](https://docs.aws.amazon.com/general/latest/gr/chime-sdk.html) nella Guida generale.AWS *

**Nota**  
**Se superi la quota per qualsiasi regione, ricevi l'eccezione Resource Limit Exceeded.** Puoi utilizzare la pagina **Service Quotas** nella AWS console per richiedere un aumento oppure puoi contattare il tuo rappresentante dell'[assistenza clienti](https://docs.aws.amazon.com/awssupport/latest/user/getting-started.html).  
Diverse analisi delle chiamate APIs creano risorse e richieste API per altri AWS servizi. Questi dati aggiuntivi vengono conteggiati nelle quote del tuo account. Se richiedi una quota o un transactions-per-second aumento all'analisi delle chiamate, devi richiedere aumenti anche per questi altri AWS servizi. In caso contrario, le tue richieste potrebbero essere limitate e avere esito negativo.