

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Aktivieren der Sprecherpartitionierung
<a name="conversation-diarization-med"></a>

*Um die Lautsprecherpartitionierung in Amazon Transcribe Medical zu aktivieren, verwenden Sie die Lautsprecher-Diarisierung.* So können Sie in der Transkriptionsausgabe sehen, was der Patient und was der Arzt gesagt hat.

Wenn Sie die Lautsprecher-Diarisierung aktivieren, Amazon Transcribe kennzeichnet Medical jede *Sprecheräußerung mit einer* eindeutigen Kennung für jeden Sprecher. Eine *Äußerung* ist eine Sprecheinheit, die normalerweise durch Stille von anderen Äußerungen getrennt ist. Bei der Batch-Transkription könnte eine Äußerung des Arztes das Label `spk_0` und eine Äußerung des Patienten das Label `spk_1`erhalten.

Wenn sich eine Äußerung eines Sprechers mit einer Äußerung eines anderen Sprechers überschneidet, ordnet Amazon Transcribe -Medical sie in der Transkription nach ihren Anfangszeiten. Äußerungen, die in der eingegebenen Audiodatei überlappen, überlappen nicht in der ausgegebenen Transkription.

Sie können die Sprecherdiarisierung aktivieren, wenn Sie eine Audiodatei mit einem Batch-Transkriptionsauftrag oder in einem Echtzeit-Stream transkribieren.

**Topics**
+ [Aktivieren der Sprecherpartitionierung bei Batch-Transkriptionen](conversation-diarization-batch-med.md)
+ [Ermöglichung der Sprecherpartitionierung in Echtzeit-Streams](conversation-diarization-streaming-med.md)

# Aktivieren der Sprecherpartitionierung bei Batch-Transkriptionen
<a name="conversation-diarization-batch-med"></a>

Sie können die Sprecherpartitionierung in einem Batch-Transkriptionsauftrag entweder mit der [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartMedicalTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartMedicalTranscriptionJob.html)-API oder mit AWS-Managementkonsole aktivieren. So können Sie den Text in einem Arzt-Patienten-Gespräch nach Sprechern aufteilen und in der Transkriptionsausgabe feststellen, wer was gesagt hat.

## AWS-Managementkonsole
<a name="conversation-diarization-batch-med-console"></a>

 AWS-Managementkonsole Um die Diarisierung von Sprechern in Ihrem Transkriptionsjob zu aktivieren, aktivieren Sie zunächst die Audioidentifikation und anschließend die Sprecherpartitionierung.

1. Melden Sie sich an der [AWS-Managementkonsole](https://console.aws.amazon.com/transcribe/) an.

1. **Wählen Sie im Navigationsbereich unter Amazon Transcribe Medizinisch die Option Transkriptionsaufträge aus.**

1. Wählen Sie **Job erstellen** aus.

1. Geben Sie auf der Seite **Auftragsdetails angeben** Informationen zu Ihrem Transkriptionsauftrag an.

1. Wählen Sie **Weiter** aus.

1. Aktivieren Sie die **Audio-Identifikation**.

1. Wählen Sie als **Audio-Identifikationstyp** die Option **Sprecherpartitionierung**.

1. Geben Sie bei **Maximale Anzahl der Sprecher** die maximale Anzahl der Sprecher ein, die Ihrer Meinung nach in Ihrer Audiodatei sprechen.

1. Wählen Sie **Erstellen** aus.

## API
<a name="conversation-diarization-batch-med-api"></a>

**So aktivieren Sie die Sprecherpartitionierung in einem Batch-Transkriptionsauftrag (API)**
+ Für die [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartMedicalTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartMedicalTranscriptionJob.html)-API geben Sie Folgendes an.

  1. Geben Sie unter `MedicalTranscriptionJobName`einen Namen an, der in Ihrem AWS-Konto eindeutig ist.

  1. Geben Sie unter `LanguageCode` den Sprachcode an, der der Sprache entspricht, die in der Audiodatei gesprochen wird.

  1. Geben Sie unter `MediaFileUri`-Parameter des `Media`-Objekts den Namen der Audiodatei an, die Sie transkribieren möchten.

  1. Unter `Specialty` können Sie das medizinische Fachgebiet des Arztes angeben, der in der Audiodatei spricht.

  1. Legen Sie für `Type` die Option `CONVERSATION` fest.

  1. Geben Sie für den Amazon S3 Bucket an`OutputBucketName`, in dem die Transkriptionsergebnisse gespeichert werden sollen.

  1. Für das `Settings`-Objekt geben Sie Folgendes an.

     1. `ShowSpeakerLabels` – `true`.

     1. `MaxSpeakerLabels` – Eine ganze Zahl zwischen 2 und 10, um die Anzahl der Sprecher anzugeben, von denen Sie glauben, dass sie in Ihrem Audio sprechen.

Die folgende Anfrage verwendet den AWS SDK für Python (Boto3) , um einen Batch-Transkriptionsauftrag für einen Patientendialog mit einem Arzt in der Grundversorgung zu starten, wobei die Lautsprecherpartitionierung aktiviert ist.

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
job_name = "my-first-transcription-job"
job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
transcribe.start_medical_transcription_job(
    MedicalTranscriptionJobName = job_name,
    Media={
        'MediaFileUri': job_uri
    },
    OutputBucketName = 'amzn-s3-demo-bucket',
    OutputKey = 'my-output-files/', 
    LanguageCode = 'en-US',
    Specialty = 'PRIMARYCARE',
    Type = 'CONVERSATION',
    OutputBucketName = 'amzn-s3-demo-bucket',
Settings = {'ShowSpeakerLabels': True,
         'MaxSpeakerLabels': 2
         }
         )
while True:
    status = transcribe.get_medical_transcription_job(MedicalTranscriptionJobName = job_name)
    if status['MedicalTranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']:
        break
    print("Not ready yet...")
    time.sleep(5)
print(status)
```

Der folgende Beispielcode zeigt die Transkriptionsergebnisse eines Transkriptionsauftrags mit aktivierter Sprecherpartitionierung.

```
{
    "jobName": "job ID",
    "accountId": "111122223333",
    "results": {
        "transcripts": [
            {
                "transcript": "Professional answer."
            }
        ],
        "speaker_labels": {
            "speakers": 1,
            "segments": [
                {
                    "start_time": "0.000000",
                    "speaker_label": "spk_0",
                    "end_time": "1.430",
                    "items": [
                        {
                            "start_time": "0.100",
                            "speaker_label": "spk_0",
                            "end_time": "0.690"
                        },
                        {
                            "start_time": "0.690",
                            "speaker_label": "spk_0",
                            "end_time": "1.210"
                        }
                    ]
                }
            ]
        },
        "items": [
            {
                "start_time": "0.100",
                "end_time": "0.690",
                "alternatives": [
                    {
                        "confidence": "0.8162",
                        "content": "Professional"
                    }
                ],
                "type": "pronunciation"
            },
            {
                "start_time": "0.690",
                "end_time": "1.210",
                "alternatives": [
                    {
                        "confidence": "0.9939",
                        "content": "answer"
                    }
                ],
                "type": "pronunciation"
            },
            {
                "alternatives": [
                    {
                        "content": "."
                    }
                ],
                "type": "punctuation"
            }
        ]
    },
    "status": "COMPLETED"
}
```

## AWS CLI
<a name="diarization-batch-cli"></a>

**Transkription einer Audiodatei eines Gesprächs zwischen einem Arzt, der in der Grundversorgung tätig ist, und einem Patienten (AWS CLI)**
+ Führen Sie folgenden Code aus.

  ```
                      
  aws transcribe start-transcription-job \
  --region us-west-2 \
  --cli-input-json file://example-start-command.json
  ```

  Der folgende Code zeigt den Inhalt von `example-start-command.json`.

  ```
  {
      "MedicalTranscriptionJobName": "my-first-med-transcription-job",       
       "Media": {
            "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-audio-file.flac"
        },
        "OutputBucketName": "amzn-s3-demo-bucket",
        "OutputKey": "my-output-files/", 
        "LanguageCode": "en-US",
        "Specialty": "PRIMARYCARE",
        "Type": "CONVERSATION",
        "Settings":{
            "ShowSpeakerLabels": true,
            "MaxSpeakerLabels": 2
          }
  }
  ```

# Ermöglichung der Sprecherpartitionierung in Echtzeit-Streams
<a name="conversation-diarization-streaming-med"></a>

Verwenden Sie die AWS-Managementkonsole oder eine Streaming-Anfrage, um Sprecher zu partitionieren und ihre Sprache in einem Echtzeit-Stream zu kennzeichnen. Die Sprecherpartitionierung funktioniert am besten bei zwei bis fünf Sprechern in einem Stream. Amazon Transcribe Medical kann zwar mehr als fünf Sprecher in einem Stream partitionieren, aber die Genauigkeit der Partitionen nimmt ab, wenn Sie diese Anzahl überschreiten.

Um eine HTTP/2-Anfrage zu starten, verwenden Sie die [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html)-API. Verwenden Sie eine vorsignierte URI, um eine WebSocket Anfrage zu starten. Der URI enthält die Informationen, die für die Einrichtung der bidirektionalen Kommunikation zwischen Ihrer Anwendung und Amazon Transcribe -Medical erforderlich sind.

## Aktivieren der Sprecherpartitionierung bei Audio, das in Ihr Mikrofon gesprochen wird (AWS-Managementkonsole)
<a name="conversation-diarization-console"></a>

Sie können den verwenden AWS-Managementkonsole , um einen Echtzeit-Stream eines Gesprächs zwischen Arzt und Patient oder ein Diktat zu starten, das in Echtzeit in Ihr Mikrofon gesprochen wird.

1. Melden Sie sich an der [AWS-Managementkonsole](https://console.aws.amazon.com/transcribe/) an.

1. **Wählen Sie im Navigationsbereich für Amazon Transcribe Medizin die Option Echtzeit-Transkription aus.**

1. Wählen Sie unter **Typ der Audioeingabe** die Art der medizinischen Sprache, die Sie transkribieren möchten.

1. Wählen Sie unter **Zusätzliche Einstellungen** die Option **Sprecherpartitionierung**.

1. Wählen Sie **Streaming starten** , um mit der Transkription Ihres Echtzeit-Audios zu beginnen.

1. Sprechen Sie in das Mikrofon.

## Aktivieren der Sprecherpartitionierung in einem HTTP/2-Stream
<a name="conversation-diarization-med-http2"></a>

Um die Sprecherpartitionierung in einem HTTP/2-Stream eines medizinischen Gesprächs zu aktivieren, verwenden Sie die [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_streaming_StartMedicalStreamTranscription.html)-API und geben Sie Folgendes an: 
+ Geben Sie unter `LanguageCode` den Sprachencode an, der der Sprache im Stream entspricht. Der gültige Wert lautet `en-US`.
+ Unter `MediaSampleHertz` geben Sie die Samplerate des Tons an.
+ Unter `Specialty`ist das medizinische Fachgebiet des Arztes anzugeben.
+ `ShowSpeakerLabel` – `true`

Weitere Informationen zum Einrichten eines HTTP/2-Streams zur Transkription eines medizinischen Gesprächs finden Sie unter [Einrichten eines HTTP/2-Streams](streaming-setting-up.md#streaming-http2).

## Aktivieren der Lautsprecherpartitionierung in einer Anfrage WebSocket
<a name="conversation-diarization-med-websocket"></a>

Um Lautsprecher mit der API in WebSocket Streams zu partitionieren, verwenden Sie das folgende Format, um eine vorsignierte URI zu erstellen, um eine WebSocket Anfrage zu starten, und setzen Sie `show-speaker-label` auf. `true` 

```
GET wss://transcribestreaming.us-west-2.amazonaws.com:8443/medical-stream-transcription-websocket
?language-code=languageCode
&X-Amz-Algorithm=AWS4-HMAC-SHA256
&X-Amz-Credential=AKIAIOSFODNN7EXAMPLE%2F20220208%2Fus-west-2%2Ftranscribe%2Faws4_request
&X-Amz-Date=20220208T235959Z
&X-Amz-Expires=300
&X-Amz-Security-Token=security-token
&X-Amz-Signature=Signature Version 4 signature 
&X-Amz-SignedHeaders=host
&media-encoding=flac
&sample-rate=16000
&session-id=sessionId
&specialty=medicalSpecialty
&type=CONVERSATION
&vocabulary-name=vocabularyName
&show-speaker-label=boolean
```

Der folgende Code zeigt die verkürzte Beispielantwort auf eine Streaming-Anfrage.

```
{
  "Transcript": {
    "Results": [
      {
        "Alternatives": [
          {
            "Items": [
              {
                "Confidence": 0.97,
                "Content": "From",
                "EndTime": 18.98,
                "Speaker": "0",
                "StartTime": 18.74,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 1,
                "Content": "the",
                "EndTime": 19.31,
                "Speaker": "0",
                "StartTime": 19,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 1,
                "Content": "last",
                "EndTime": 19.86,
                "Speaker": "0",
                "StartTime": 19.32,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
             ...
              {
                "Confidence": 1,
                "Content": "chronic",
                "EndTime": 22.55,
                "Speaker": "0",
                "StartTime": 21.97,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              ...
                "Confidence": 1,
                "Content": "fatigue",
                "EndTime": 24.42,
                "Speaker": "0",
                "StartTime": 23.95,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "EndTime": 25.22,
                "StartTime": 25.22,
                "Type": "speaker-change",
                "VocabularyFilterMatch": false
              },
              {
                "Confidence": 0.99,
                "Content": "True",
                "EndTime": 25.63,
                "Speaker": "1",
                "StartTime": 25.22,
                "Type": "pronunciation",
                "VocabularyFilterMatch": false
              },
              {
                "Content": ".",
                "EndTime": 25.63,
                "StartTime": 25.63,
                "Type": "punctuation",
                "VocabularyFilterMatch": false
              }
            ],
            "Transcript": "From the last note she still has mild sleep deprivation and chronic fatigue True."
          }
        ],
        "EndTime": 25.63,
        "IsPartial": false,
        "ResultId": "XXXXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXXXX",
        "StartTime": 18.74
      }
    ]
  }
}
```

Amazon Transcribe Medical unterbricht Ihren eingehenden Audiostream auf der Grundlage natürlicher Sprachsegmente, z. B. eines Sprecherwechsels oder einer Audiopause. Die Transkription wird progressiv an Ihre Anwendung zurückgegeben, wobei jede Antwort mehr transkribierte Sprachausgabe enthält, bis das gesamte Segment transkribiert ist. Der vorstehende Code ist ein verkürztes Beispiel für ein vollständig transkribiertes Sprachsegment. Sprecherbeschriftungen erscheinen nur für vollständig transkribierte Segmente. 

Die folgende Liste zeigt die Organisation der Objekte und Parameter in einer Streaming-Transkriptionsausgabe.

**`Transcript`**  
Jedes Sprachsegment hat sein eigenes `Transcript`-Objekt.

**`Results`**  
Jedes `Transcript`-Objekt hat sein eigenes `Results`-Objekt. Dieses Objekt enthält das Feld `isPartial`. Wenn der Wert `false` ist, werden die Ergebnisse für ein ganzes Sprachsegment zurückgegeben.

**`Alternatives`**  
Zu jedem `Results`-Objekt gehört ein `Alternatives`-Objekt.

**`Items`**  
Jedes `Alternatives`-Objekt hat sein eigenes `Items`-Objekt, das Informationen über jedes Wort und Satzzeichen in der Transkriptionsausgabe enthält. Wenn Sie die Sprecherpartitionierung aktivieren, hat jedes Wort eine `Speaker` Bezeichnung für vollständig transkribierte Sprachsegmente. Amazon Transcribe Medical verwendet diese Bezeichnung, um jedem Sprecher im Stream eine eindeutige Ganzzahl zuzuweisen. Der Parameter `Type` mit dem Wert `speaker-change` zeigt an, dass eine Person aufgehört hat zu sprechen und dass eine andere Person beginnen wird.

**`Transcript`**  
Jedes Item-Objekt enthält ein transkribiertes Sprachsegment als Wert des Feldes `Transcript` .

Weitere Informationen zu WebSocket Anfragen finden Sie unter[Einen WebSocket Stream einrichten](streaming-setting-up.md#streaming-websocket).