

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Attivazione della suddivisione dei parlanti in flussi in tempo reale
<a name="conversation-diarization-streaming-med"></a>

Per partizionare gli altoparlanti ed etichettare il loro discorso in uno streaming in tempo reale, usa o una richiesta di streaming. Console di gestione AWS La suddivisione dei parlanti è ottimale per un numero di parlanti compreso tra due e cinque in uno flusso. Sebbene Amazon Transcribe Medical sia in grado di partizionare più di cinque altoparlanti in uno stream, la precisione delle partizioni diminuisce se si supera tale numero.

Per avviare una richiesta HTTP/2, utilizza l'API [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html). Per avviare una WebSocket richiesta, utilizzate un URI prefirmato. L'URI contiene le informazioni per configurare la comunicazione bidirezionale tra l'applicazione e Medical Amazon Transcribe .

## Attivazione della suddivisione dei parlanti nell'audio che viene pronunciato al microfono (Console di gestione AWS)
<a name="conversation-diarization-console"></a>

È possibile utilizzare il Console di gestione AWS per avviare uno streaming in tempo reale di una conversazione tra medico e paziente o un dettato che viene pronunciato nel microfono in tempo reale.

1. Accedi alla [Console di gestione AWS](https://console.aws.amazon.com/transcribe/).

1. **Nel pannello di navigazione, per Amazon Transcribe Medicina scegli Trascrizione in tempo reale.**

1. Per **Tipo di input audio**, scegli il tipo di discorso medico che desideri trascrivere.

1. Per **Impostazioni aggiuntive**, scegli **Suddivisione dei parlanti**.

1. Scegli **Avvia streaming** per iniziare a trascrivere l'audio in tempo reale.

1. Parla nel microfono.

## Abilitazione della suddivisione dei parlanti in un flusso HTTP/2
<a name="conversation-diarization-med-http2"></a>

Per abilitare la suddivisione dei parlanti in un flusso HTTP/2 di una conversazione medica, utilizza l'API [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html) e specifica quanto segue: 
+ Per `LanguageCode`, specifica il codice della lingua che corrisponde alla lingua nel flusso audio. Il valore valido è `en-US`.
+ Per `MediaSampleHertz`, specifica la frequenza di campionamento dell'audio.
+ Per `Specialty`, specifica la specialità medica del dottore.
+ `ShowSpeakerLabel` – `true`

Per ulteriori informazioni sulla configurazione di un flusso HTTP/2 per trascrivere una conversazione medica, consulta [Impostazione di un flusso HTTP/2](streaming-setting-up.md#streaming-http2).

## Abilitazione del partizionamento degli altoparlanti in una richiesta WebSocket
<a name="conversation-diarization-med-websocket"></a>

Per partizionare gli altoparlanti negli WebSocket stream con l'API, utilizzate il seguente formato per creare un URI predefinito su cui avviare una WebSocket richiesta e impostarlo su. `show-speaker-label` `true` 

```
GET wss://transcribestreaming.us-west-2.amazonaws.com:8443/medical-stream-transcription-websocket
?language-code=languageCode
&X-Amz-Algorithm=AWS4-HMAC-SHA256
&X-Amz-Credential=AKIAIOSFODNN7EXAMPLE%2F20220208%2Fus-west-2%2Ftranscribe%2Faws4_request
&X-Amz-Date=20220208T235959Z
&X-Amz-Expires=300
&X-Amz-Security-Token=security-token
&X-Amz-Signature=Signature Version 4 signature 
&X-Amz-SignedHeaders=host
&media-encoding=flac
&sample-rate=16000
&session-id=sessionId
&specialty=medicalSpecialty
&type=CONVERSATION
&vocabulary-name=vocabularyName
&show-speaker-label=boolean
```

Il codice seguente mostra l'esempio di risposta troncata di una richiesta di streaming.

```
{
  "Transcript": {
    "Results": [
      {
        "Alternatives": [
          {
            "Items": [
              {
                "Confidence": 0.97,
                "Content": "From",
                "EndTime": 18.98,
                "Speaker": "0",
                "StartTime": 18.74,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 1,
                "Content": "the",
                "EndTime": 19.31,
                "Speaker": "0",
                "StartTime": 19,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 1,
                "Content": "last",
                "EndTime": 19.86,
                "Speaker": "0",
                "StartTime": 19.32,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
             ...
              {
                "Confidence": 1,
                "Content": "chronic",
                "EndTime": 22.55,
                "Speaker": "0",
                "StartTime": 21.97,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              ...
                "Confidence": 1,
                "Content": "fatigue",
                "EndTime": 24.42,
                "Speaker": "0",
                "StartTime": 23.95,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "EndTime": 25.22,
                "StartTime": 25.22,
                "Type": "speaker-change",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 0.99,
                "Content": "True",
                "EndTime": 25.63,
                "Speaker": "1",
                "StartTime": 25.22,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Content": ".",
                "EndTime": 25.63,
                "StartTime": 25.63,
                "Type": "punctuation",
                "VocabularyFilterMatch": false
              }
            ],
            "Transcript": "From the last note she still has mild sleep deprivation and chronic fatigue True."
          }
        ],
        "EndTime": 25.63,
        "IsPartial": false,
        "ResultId": "XXXXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXXXX",
        "StartTime": 18.74
      }
    ]
  }
}
```

Amazon Transcribe Medical interrompe il flusso audio in entrata in base a segmenti vocali naturali, come un cambio di altoparlante o una pausa nell'audio. La trascrizione viene restituita progressivamente all'applicazione, con ciascuna risposta contenete una parte sempre maggiore del discorso trascritto fino a quando l'intero segmento è completo. Il codice precedente è un esempio troncato di un segmento vocale completamente trascritto. Le etichette dei parlanti vengono visualizzate solo per i segmenti interamente trascritti. 

L'elenco seguente mostra l'organizzazione degli oggetti e dei parametri in un output di trascrizione in streaming.

**`Transcript`**  
Ogni segmento vocale ha il suo oggetto `Transcript`.

**`Results`**  
Ogni oggetto `Transcript` ha il suo oggetto `Results`. Questo oggetto contiene il campo `isPartial`. Quando il suo valore è `false`, i risultati restituiti si riferiscono a un intero segmento vocale.

**`Alternatives`**  
Ogni oggetto `Results` ha un oggetto `Alternatives`.

**`Items`**  
Ogni oggetto `Alternatives` ha il proprio oggetto `Items` che contiene informazioni su ogni parola e segno di punteggiatura nell'output della trascrizione. Quando abiliti il partizionamento degli altoparlanti, ogni parola ha un'`Speaker`etichetta per i segmenti vocali completamente trascritti. Amazon Transcribe Medical utilizza questa etichetta per assegnare un numero intero univoco a ciascun altoparlante dello stream. Il parametro `Type` con un valore di `speaker-change` indica che una persona ha smesso di parlare e che un'altra persona sta per iniziare.

**`Transcript`**  
Ogni oggetto di elementi contiene un segmento vocale trascritto come valore del campo `Transcript`.

Per ulteriori informazioni sulle WebSocket richieste, vedere. [Configurazione di uno WebSocket stream](streaming-setting-up.md#streaming-websocket)