

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Planung eines MediaLive Workflows
<a name="container-planning-workflow"></a>

Aus Sicht von AWS Elemental MediaLive handelt es sich um einen Live-Streaming-Workflow, der drei Systeme MediaLive umfasst: 
+ Ein *Upstream-System*, das die Videoinhalte bereitstellt. MediaLive
+ MediaLive, das den Inhalt aufnimmt und den Inhalt transkodiert.
+ Ein *nachgeschaltetes System*, das das Ziel für die Ausgabe ist, die MediaLive produziert.

Sie sollten diesen Workflow planen, bevor Sie mit der Erstellung des Kanals beginnen. In der ersten Phase dieser Planung müssen Sie die vor- und nachgelagerten Systeme einrichten. In der zweiten Phase müssen Sie den Kanal selbst planen: Identifizieren Sie die Inhalte, die aus den Quellinhalten extrahiert werden sollen, und planen Sie die zu produzierenden Ausgaben.

**Wichtig**  
In diesem Verfahren wird beschrieben, wie Sie den Workflow von der Ausgabe bis zur Eingabe planen. Dies ist die effektivste Methode, einen Workflow zu planen.

**Topics**
+ [Vorbereitung der vor- und nachgelagerten Systeme in einem Workflow](container-planning-uss-dss.md)
+ [Planung der Ausgaben im Kanal](planning-the-channel-in-workflow.md)

# Vorbereitung der vor- und nachgelagerten Systeme in einem Workflow
<a name="container-planning-uss-dss"></a>

In der ersten Phase der Planung des Workflows müssen Sie die vor- und nachgelagerten Systeme einrichten. 

**Wichtig**  
Dieses Verfahren beschreibt die Planung des Workflows von der Ausgabe bis zur Eingabe. Dies ist die effektivste Methode zur Planung eines Workflows.

**Um den Workflow zu planen**

1. Identifizieren Sie anhand der nachgeschalteten Systeme die Output-Gruppen, die Sie produzieren müssen MediaLive. Siehe [Identifizieren Sie die Ausgabegruppentypen für das Downstream-System](identify-downstream-system.md).

1. Identifizieren Sie die Anforderungen für die Video- und Audiokodierungen, die Sie in jede Ausgabegruppe aufnehmen werden. Siehe [Identifizieren Sie die Codierungsanforderungen für die Ausgabegruppen](identify-dss-video-audio.md).

1. Entscheiden Sie sich für die Kanalklasse: Entscheiden Sie, ob Sie einen Standardkanal, der Redundanz unterstützt, oder einen Single-Pipeline-Kanal, der keine Redundanz unterstützt, erstellen möchten. Siehe [Identifizieren Sie die Resilienzanforderungen](plan-redundancy.md).

1. Prüfen Sie den Quellinhalt, um sicherzustellen, dass er mit MediaLive und mit den zu erstellenden Ausgaben kompatibel ist. Stellen Sie beispielsweise sicher, dass der Quellinhalt über einen Videocodec verfügt, der dies MediaLive unterstützt. Siehe [Beurteilen Sie das Upstream-System](evaluate-upstream-system.md).

   Nachdem Sie diese vier Schritte ausgeführt haben, wissen Sie, ob Ihre MediaLive Transcodierungsanfrage bearbeitet werden kann.

1. Erfassen Sie Kennungen für den Quellinhalt. Fragen Sie beispielsweise den Bediener im Upstream-System nach den Kennungen für die verschiedenen Audiosprachen, die Sie aus dem Inhalt extrahieren möchten. Siehe [Sammeln Sie Informationen über den Quellinhalt](planning-content-extract.md).

1. Stimmen Sie sich mit dem oder den nachgelagerten Systemen ab, um ein Ziel für die Ausgabegruppen bereitzustellen, die produzieren MediaLive werden. Siehe [Koordinieren Sie mit nachgelagerten Systemen](setting-up-downstream-system.md).

# Identifizieren Sie die Ausgabegruppentypen für das Downstream-System
<a name="identify-downstream-system"></a>

Der erste Schritt bei der Planung eines AWS Elemental MediaLive Elemental-Workflows besteht darin, zu bestimmen, welche Arten von [*Ausgabegruppen*](what-is-terminology.md) Sie auf der Grundlage der Anforderungen und Fähigkeiten der MediaLive nachgeschalteten Systeme erstellen müssen.

Führen Sie diese Arbeit mit dem Downstream-System durch, bevor Sie das [Upstream-System](evaluate-upstream-system.md) bewerten. Die Entscheidungsfindung in einem Workflow beginnt mit dem nachgelagerten System und geht dann zurück zum vorgelagerten System.

**Wichtig**  
Für diesen Workflow sollten Sie bereits das oder die nachgelagerten Systeme identifiziert haben, an die Sie die MediaLive Ausgabe senden möchten. Wenn Sie das nachgelagerte System noch nicht identifiziert haben, müssen Sie einige Nachforschungen anstellen, bevor Sie mit der Vorbereitung Ihres Workflows fortfahren können. Dieser Leitfaden kann Ihnen nicht dabei helfen, Ihr nachgelagertes System zu identifizieren. Wenn Sie wissen, was Ihre Downstream-Systeme sind, kehren Sie zu diesem Abschnitt zurück.

**Um die Ausgangsgruppe zu identifizieren**

1. Besorgen Sie sich die folgenden Informationen von Ihrem Downstream-System.
   + Die erforderlichen Ausgabeformate. Zum Beispiel HLS.
   + Das Anwendungsprotokoll für jeden. Zum Beispiel HTTP.

1. Entscheiden Sie sich für den Liefermodus für Ihre Ausgaben.
   + Möglicherweise haben Sie eine Ausgabe, die sich auf einem Server befindet, der sich auf Ihrer EC2-Instance in Ihrer VPC befindet. Oder Sie haben vielleicht eine Ausgabe, die sich in Amazon S3 befindet. Wenn eine oder beide dieser Situationen zutreffen, sollten Sie die Lieferung über Ihre VPC einrichten. Weitere Informationen finden Sie unter [Bereitstellung von Ausgaben über Ihre VPC](delivery-out-vpc.md).
   + Wenn Sie über keine dieser Ausgabetypen verfügen, werden Sie auf reguläre Weise liefern.

1. Stellen Sie sicher, dass eine *Ausgabegruppe MediaLive * enthalten ist, die das Ausgabeformat und das Protokoll unterstützt, die das nachgelagerte System benötigt. Siehe [Unterstützte Ausgabetypen in MediaLive](outputs-supported-containers.md). 

1. Wenn es sich bei Ihrem bevorzugten Downstream-System um einen anderen AWS Mediendienst handelt, finden [Sie hier Informationen zur Auswahl des Dienstes](dss-choose-service.md). 

1. Wenn Ihr Downstream-System Microsoft Smooth Streaming unterstützt, finden Sie [Optionen für den Umgang mit Microsoft Smooth-Ausgaben](downstream-system-for-mss.md) Optionen unter.

1. Wenn Sie Ihre Ausgabe vor der Verteilung an andere AWS Regionen oder an andere AWS Konten senden möchten, sollten Sie in Erwägung ziehen, eine MediaConnect Router-Ausgabegruppe zu erstellen. MediaConnect Router ist eine hervorragende Wahl für Workflows, die eine regionsübergreifende oder kontenübergreifende Verteilung erfordern.

1. Entscheiden Sie, ob Sie eine Archivausgabegruppe erstellen möchten, um eine Archivdatei mit dem Inhalt zu erstellen. Eine Archivdatei ist eine Ergänzung zum Streaming; sie ist selbst keine Streaming-Ausgabe. In der Regel erstellen Sie eine Archivdatei als permanente Dateiversion der Streaming-Ausgabe. 

1. Entscheiden Sie, ob Sie eine Frame-Capture-Ausgabegruppe erstellen möchten, um eine Frame-Capture-Ausgabe zu erzeugen. Eine Frame-Capture-Ausgabe ist eine Ergänzung zum Streaming; sie ist selbst keine Streaming-Ausgabe. Diese Art der Ausgabe kann für Ihren Arbeitsablauf nützlich sein. Sie können beispielsweise eine Frame-Capture-Ausgabe verwenden, um Miniaturansichten des Inhalts zu erstellen. 

1. Notieren Sie sich die Ausgabegruppen, die Sie erstellen möchten.

   Nachdem Sie diese Schritte ausgeführt haben, könnten Sie beispielsweise diese Liste von Ausgabegruppen haben:
   + Eine HLS-Ausgabegruppe AWS Elemental MediaPackage als nachgeschaltetes System. 
   + Eine RTMP-Ausgabegruppe, die an das nachgelagerte System einer Social-Media-Site sendet.
   + Eine Archivausgabegruppe als Datensatz.

**Topics**
+ [Wählen Sie zwischen den AWS Mediendiensten](dss-choose-service.md)
+ [Wählen Sie zwischen der HLS-Output-Gruppe und der MediaPackage Output-Gruppe](hls-choosing-hls-vs-emp.md)
+ [Optionen für den Umgang mit Microsoft Smooth-Ausgaben](downstream-system-for-mss.md)

# Wählen Sie zwischen den AWS Mediendiensten
<a name="dss-choose-service"></a>

Wenn es sich bei Ihrem bevorzugten Downstream-System um einen anderen AWS Mediendienst handelt, finden Sie im Folgenden einige nützliche Tipps zur Auswahl des zu verwendenden Dienstes: 
+ Wenn Sie zwischen AWS Elemental MediaPackage oder AWS Elemental MediaStore für HLS-Ausgaben wählen müssen, folgen Sie diesen Richtlinien: 
  + Entscheiden Sie, ob Sie Ihre Inhalte mit einer DRM-Lösung (Digital Rights Management) schützen möchten. DRM verhindert, dass unbefugte Personen auf die Inhalte zugreifen. 
  + Entscheiden Sie, ob Sie Werbung in Ihren Inhalt einfügen möchten. 

  Wenn Sie eine oder beide dieser Funktionen nutzen möchten, sollten Sie sich für den ursprünglichen Dienst entscheiden MediaPackage , da Sie die Ausgabe neu verpacken müssen. 

  Wenn Sie keine dieser Funktionen möchten, können Sie MediaPackage oder AWS Elemental MediaStore wählen. AWS Elemental MediaStore ist im Allgemeinen eine einfachere Lösung als Origin-Dienst, aber es fehlen ihm die Funktionen zum Umpacken von MediaPackage. 
+ Wenn Sie sich AWS Elemental MediaPackage als Ursprungsdienst identifiziert haben, entscheiden Sie, ob Sie die HLS-Ausgabe mithilfe einer HLS-Ausgabegruppe oder einer MediaPackage Ausgabegruppe erstellen möchten. Richtlinien, wie Sie diese Wahl treffen können, finden Sie im [nächsten](hls-choosing-hls-vs-emp.md) Abschnitt.

# Wählen Sie zwischen der HLS-Output-Gruppe und der MediaPackage Output-Gruppe
<a name="hls-choosing-hls-vs-emp"></a>

Wenn Sie HLS-Ausgabe an liefern möchten, müssen Sie entscheiden AWS Elemental MediaPackage, ob Sie eine HLS-Ausgabegruppe oder eine MediaPackage Ausgabegruppe erstellen möchten. 

## Lieferung an Version 2 MediaPackage
<a name="hls-choose-empv2"></a>

Wenn Sie an einen MediaPackage Kanal liefern, der MediaPackage v2 verwendet, müssen Sie eine HLS-Ausgabegruppe erstellen. Der MediaPackage Operator kann Ihnen sagen, ob der Kanal Version 2 der API verwendet. Ein Anwendungsfall für die Verwendung von Version 2 ist die Implementierung eines Workflows mit glass-to-glass niedriger Latenz, der MediaLive sowohl als auch umfasst MediaPackage.

## Lieferung nach Standard MediaPackage (v1)
<a name="hls-choose-emp"></a>

Es gibt Unterschiede in der Konfiguration der einzelnen Typen von Ausgangsgruppen:
+ Für die MediaPackage Ausgabe ist weniger Einrichtung erforderlich. AWS Elemental MediaLive ist bereits mit den meisten Informationen eingerichtet, die es benötigt, um die Ausgabe zu verpacken und an den von Ihnen angegebenen AWS Elemental MediaPackage Kanal zu senden. Diese einfachere Einrichtung hat Vorteile, aber auch Nachteile, da Sie einige Konfigurationen nicht kontrollieren können. Informationen zum Einrichten einer MediaPackage Ausgabegruppe finden Sie unter[Ergebnis dieses Verfahrens](mediapackage-create-result.md). MediaLive 
+ Für eine MediaPackage Ausgabe müssen sich der MediaLive Kanal und der AWS Elemental MediaPackage Kanal in derselben AWS Region befinden.
+ In einer MediaPackage Ausgabe gibt es einige Einschränkungen beim Einrichten von ID3 Metadaten. Details hierzu finden Sie unter [Mit ID3 Metadaten arbeiten](id3-metadata.md). 

# Optionen für den Umgang mit Microsoft Smooth-Ausgaben
<a name="downstream-system-for-mss"></a>

Wenn Sie an einen Microsoft Smooth Streaming-Server liefern, hängt die Einrichtung davon ab, ob Sie Ihre Inhalte mit einer DRM-Lösung (Digital Rights Management) schützen möchten. DRM verhindert, dass unbefugte Personen auf die Inhalte zugreifen. 
+ Wenn Sie DRM nicht implementieren möchten, erstellen Sie eine Microsoft Smooth-Ausgabegruppe. 
+ Wenn Sie DRM implementieren möchten, können Sie eine HLS- oder MediaPackage Ausgabegruppe erstellen, an die die Ausgabe gesendet und dann DRM AWS Elemental MediaPackage hinzugefügt werden AWS Elemental MediaPackage soll. Anschließend richten Sie die Lieferung AWS Elemental MediaPackage an den Microsoft Smooth-Ursprungsserver ein.

# Identifizieren Sie die Codierungsanforderungen für die Ausgabegruppen
<a name="identify-dss-video-audio"></a>

Nachdem Sie die Ausgabegruppen identifiziert haben, die Sie erstellen müssen, müssen Sie die Anforderungen für die Video- und Audiocodierungen ermitteln, die Sie in jede Ausgabegruppe aufnehmen werden. Das nachgeschaltete System steuert diese Anforderungen.

Führen Sie diese Arbeit mit dem Downstream-System durch, bevor Sie das [Upstream-System](evaluate-upstream-system.md) bewerten. Die Entscheidungsfindung in einem Workflow beginnt mit dem nachgelagerten System und geht dann zurück zum vorgelagerten System.

**Um die Video- und Audiocodecs in jeder Ausgangsgruppe zu identifizieren**

Führen Sie dieses Verfahren für jede Ausgabegruppe aus, die Sie identifiziert haben.

1. Rufen Sie die folgenden Videoinformationen von Ihrem Downstream-System ab:
   + Der oder die Videocodec oder die Codecs, die sie unterstützen. 
   + Die maximale Bitrate und maximale Auflösung, die sie unterstützen können.

1. Rufen Sie die folgenden Audioinformationen von Ihrem Downstream-System ab:
   + Der oder die unterstützten Audiocodec oder die unterstützten Audiocodecs.
   + Die unterstützten Audiocodierungsmodi (z. B. 2.0) in jedem Codec.
   + Die maximal unterstützte Bitrate für Audio.
   + Bei einem HLS- oder Microsoft Smooth-Ausgabeformat, unabhängig davon, ob das Downstream-System verlangt, dass das Audio zusammen mit dem Video gebündelt wird oder dass jedes Audio in seiner eigenen Wiedergabeversion angezeigt wird. Sie benötigen diese Informationen, wenn Sie die Elemente in den Ausgaben organisieren. MediaLive

1. Besorgen Sie sich die folgenden Untertitelinformationen von Ihrem nachgeschalteten System.
   + Die Untertitelformate, die sie unterstützen.

1. Überprüfen Sie das Video. Vergleichen Sie die Videocodecs, die Ihr Downstream-System benötigt, mit den Videocodecs, die diese MediaLive Ausgangsgruppe unterstützen. Die Tabellen finden Sie unter. [Unterstützte Codecs nach Ausgabetyp](outputs-supported-codecs.md) Stellen Sie sicher, dass mindestens einer der vom Downstream-System angebotenen Codecs unterstützt wird. 

1. Überprüfen Sie das Audio. Vergleichen Sie die Audiocodecs, die Ihr Downstream-System benötigt, mit den Videocodecs, die diese MediaLive Ausgangsgruppe unterstützen. Die Tabellen finden Sie unter. [Unterstützte Codecs nach Ausgabetyp](outputs-supported-codecs.md) Stellen Sie sicher, dass mindestens einer der vom Downstream-System angebotenen Codecs unterstützt wird. 

1. Überspringen Sie vorerst die Bewertung der Untertitelformate. Sie werden diese Anforderungen in [einem späteren Abschnitt](assess-uss-captions.md) bewerten.

1. Notieren Sie sich die Video- und Audiocodecs, die Sie für jede Ausgabegruppe erstellen können.

1. Entscheiden Sie, ob Sie einen Trick-Play-Track implementieren möchten. Weitere Informationen finden Sie unter [Implementierung eines Trick-Play-Tracks](trick-play-solutions.md).

**Ergebnis dieses Schritts**

Nachdem Sie dieses Verfahren ausgeführt haben, wissen Sie, welche Ausgabegruppen Sie erstellen werden, und Sie werden wissen, welche Video- und Audiocodecs diese Ausgabegruppen unterstützen können. Daher sollten Sie über Ausgabeinformationen verfügen, die wie in diesem Beispiel aussehen.


**Beispiel**  

|  Ausgabegruppe   |  Downstream-System  |  Videocodecs, die vom Downstream-System unterstützt werden  | Audiocodecs, die vom Downstream-System unterstützt werden | 
| --- | --- | --- | --- | 
|  HLS  |  MediaPackage  |  AVC  | AAC 2.0, Dolby Digital Plus | 
| RTMP | Website für soziale Medien | AVC | AAC 2,0 | 
| Archiv | Amazon S3 | Das nachgelagerte System diktiert den Codec nicht — Sie wählen den Codec, den Sie möchten. | Das nachgelagerte System diktiert den Codec nicht — Sie wählen den gewünschten Codec aus. | 

# Identifizieren Sie die Resilienzanforderungen
<a name="plan-redundancy"></a>

Resilienz ist die Fähigkeit des Kanals, auch dann weiterzuarbeiten, wenn Probleme auftreten. MediaLive umfasst zwei Resilienzfunktionen, die Sie vorerst einplanen müssen. Sie müssen sich entscheiden, welche Funktion Sie implementieren möchten. Diese Entscheidung müssen Sie sofort treffen, da sie sich darauf auswirkt, wie viele Quellen Sie für Ihren Inhalt benötigen. Beraten Sie sich diesbezüglich mit dem Anbieter Ihres Upstream-Systems.

## Pipeline-Redundanz
<a name="decide-resil-pipeline"></a>

In der Regel können Sie einen Kanal mit zwei Pipelines einrichten, um die Stabilität der Kanalverarbeitungspipeline zu gewährleisten. Informationen zu den Anforderungen für die Einrichtung von zwei Pipelines finden Sie unter 

Die Pipeline-Redundanz ist eine Funktion, die für den gesamten Kanal und für alle an den Kanal angeschlossenen Eingänge gilt. Zu Beginn Ihrer Kanalplanung müssen Sie entscheiden, wie Sie die Pipelines einrichten möchten. 

Sie richten die Pipeline-Redundanz ein, indem Sie den Kanal als *Standardkanal* einrichten, sodass er über zwei Kodierungspipelines verfügt. Beide Pipelines nehmen den Quellinhalt auf und erzeugen eine Ausgabe. Wenn die aktuelle Pipeline ausfällt, erkennt das Downstream-System, dass es keinen Inhalt mehr empfängt, und wechselt zur anderen Ausgabe. Das nachgelagerte System wird nicht gestört. MediaLive startet die zweite Pipeline innerhalb weniger Minuten neu.

Weitere Hinweise zur Pipeline-Redundanz finden Sie unter. [Implementierung von Pipeline-Redundanz](plan-redundancy-mode.md)

## Automatisches Failover für Eingaben
<a name="decide-resil-aif"></a>

Bei einigen Eingängen können Sie zwei Eingänge als automatisches *Eingangs-Failover-Paar* einrichten, um Stabilität für einen Eingang im Kanal zu gewährleisten.

Das automatische Eingangs-Failover ist eine Funktion, die für einzelne Eingänge gilt. Sie müssen bei der Kanalplanung keine Entscheidung über die Implementierung des automatischen Eingangs-Failovers treffen. Sie können es später implementieren, wenn Sie einen neuen Eingang anhängen oder wenn Sie einen vorhandenen Eingang aktualisieren möchten, sodass er ein automatisches Eingabe-Failover implementiert. 

Um den automatischen Eingabe-Failover einzurichten, richten Sie zwei Eingänge (die exakt denselben Quellinhalt haben) als *Eingangs-Failover-Paar* ein. Bei dieser Art der Einrichtung erhalten Sie im Falle eines Ausfalls im Upstream-System oder zwischen dem Upstream-System und dem Channel Ausfallsicherheit. 

*Im Eingangspaar ist einer der Eingänge der *aktive* Eingang und einer befindet sich im Standby-Modus.* MediaLive nimmt beide Eingänge auf, um immer bereit zum Umschalten zu sein, verwirft aber normalerweise den Standby-Eingang sofort. Wenn die aktive Eingabe ausfällt, wird MediaLive sofort ein Failover durchgeführt und die Verarbeitung von der Standby-Eingabe aus gestartet, anstatt sie zu verwerfen.

Sie können ein automatisches Eingabe-Failover in einem Kanal implementieren, der für Pipeline-Redundanz eingerichtet ist (ein Standardkanal), oder in einem Kanal ohne Pipeline-Redundanz (ein einzelner Pipeline-Kanal). 

Weitere Informationen über das automatische Failover für die Eingabe finden Sie unter [Implementierung eines automatischen Eingangs-Failovers](automatic-input-failover.md).

## Vergleich der beiden Funktionen
<a name="resil-compare-features"></a>

Im Folgenden finden Sie einen Vergleich zwischen Pipeline-Redundanz und automatischem Eingangs-Failover.
+ Es gibt einen Unterschied in der Art des Fehlers, mit dem sich die einzelnen Funktionen befassen:

  Die Pipeline-Redundanz bietet Ausfallsicherheit im Falle eines Fehlers in der MediaLive Encoder-Pipeline.

  Der automatische Eingangs-Failover sorgt für Ausfallsicherheit im Falle eines vorzeitigen Ausfalls MediaLive, entweder im Upstream-System oder in der Netzwerkverbindung zwischen dem Upstream-System und dem Eingang. MediaLive 
+ Für beide Funktionen sind zwei Instanzen der Inhaltsquelle erforderlich. In beiden Fällen muss Ihr Upstream-System also in der Lage sein, zwei Instanzen bereitzustellen. 

  Bei der Pipeline-Redundanz können die beiden Quellen aus demselben Encoder stammen. 

  Beim automatischen Eingangs-Failover müssen die Quellen von unterschiedlichen Encodern stammen. Andernfalls fallen beide Quellen gleichzeitig aus und der Eingangs-Failover-Switch fällt aus.
+ Die Pipeline-Redundanz gilt für den gesamten Kanal. Daher sollten Sie bei der Kanalplanung entscheiden, ob Sie sie implementieren möchten. Das automatische Eingangs-Failover gilt nur für bestimmte Eingangstypen. Daher könnten Sie sich beispielsweise dafür entscheiden, das automatische Eingabe-Failover nur dann zu implementieren, wenn Sie Ihre wichtigsten Eingaben anhängen.
+ Ein automatisches Eingangs-Failover setzt voraus, dass das nachgeschaltete System in der Lage ist, zwei Instanzen der Ausgabe zu verarbeiten und von einer Instanz (wenn sie ausfällt) zur anderen zu wechseln. MediaPackagekann beispielsweise zwei Instanzen verarbeiten.

  Wenn in Ihrem Downstream-System diese Logik nicht integriert ist, können Sie kein automatisches Eingabe-Failover implementieren.

# Beurteilen Sie das Upstream-System
<a name="evaluate-upstream-system"></a>

Im Rahmen der Planung des MediaLive Workflows müssen Sie das vorgelagerte System, aus dem der Inhalt stammt, bewerten, um sicherzustellen, dass es kompatibel ist mit MediaLive. Anschließend müssen Sie den Quellinhalt überprüfen, um sicherzustellen, dass er Formate enthält, MediaLive die aufgenommen und in die gewünschten Ausgaben aufgenommen werden MediaLive können. 

Sie beziehen den *Quellinhalt* von einem *Inhaltsanbieter*. Der Quellinhalt wird Ihnen von einem *Upstream-System* zur Verfügung gestellt, das der Inhaltsanbieter kontrolliert. In der Regel haben Sie den Inhaltsanbieter bereits identifiziert. Weitere Informationen zu Quellinhalten und vorgelagerten Systemen finden Sie unter[Wie MediaLive funktioniert](how-medialive-works-channels.md).

**Zur Bewertung des Upstream-Systems**

1. Wenden Sie sich an den Inhaltsanbieter, um Informationen über das Upstream-System zu erhalten. Anhand dieser Informationen können Sie beurteilen, ob eine Verbindung MediaLive zum Upstream-System hergestellt werden kann und ob die Quellinhalte aus diesem Upstream-System verwendet werden können. MediaLive 

   Einzelheiten zu den Informationen, die Sie abrufen und bewerten müssen, finden Sie in den folgenden Abschnitten:
   + [Beurteilen Sie die Quellformate und die Verpackung](uss-obtain-info.md)
   + [Beurteilen Sie den Videoinhalt](assess-uss-source.md)
   + [Beurteilen Sie den Audioinhalt](assess-uss-audio.md)
   + [Beurteilen Sie Bildunterschriften](assess-uss-captions.md)

1. Notieren Sie sich den MediaLive Eingabetyp, den Sie für den Quellinhalt angeben.

1. Notieren Sie sich die folgenden drei Merkmale des Quell-Streams. Sie benötigen diese Informationen[, wenn Sie den Kanal einrichten](input-specification.md):
   + Video-Codec
   + Die Auflösung des Videos — SD, HD oder UHD
   + Maximale Eingabe-Bitrate 

**Ergebnis dieses Schritts**

Am Ende dieses Schritts können Sie sicher sein, dass Sie den Inhalt aufnehmen MediaLive können. Darüber hinaus werden Sie Folgendes identifiziert haben:
+ Die Art der MediaLive Eingabe, die Sie erstellen werden, um den Quellinhalt aufzunehmen.
+ Die Informationen, die Sie zum Extrahieren von Video, Audio und Untertiteln aus der Quelle (aus der MediaLive Eingabe) benötigen. Beispiel:

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/evaluate-upstream-system.html)

# Beurteilen Sie die Quellformate und die Verpackung
<a name="uss-obtain-info"></a>

In der folgenden Tabelle finden Sie Informationen zur Bewertung der Quellformate und der Verpackung. Lesen Sie sich jede Zeile durch.


****  

| Zu beschaffende Informationen | Überprüfen Sie Folgendes | 
| --- | --- | 
| Anzahl der Quellen, die der Inhaltsanbieter bereitstellen kann. | Wenn Sie planen, eine [Resilienzfunktion](plan-redundancy.md) zu implementieren, stellen Sie sicher, dass Ihr Inhaltsanbieter die erforderlichen Eingaben liefern kann:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/uss-obtain-info.html) | 
| Lieferformate und -protokolleDie Art der MediaLive Eingabe, die für das von Ihnen angegebene Format gilt | Finden Sie heraus, welches Format und Protokoll das Upstream-System für die Lieferung unterstützt. Stellen Sie sicher, dass dieses Format in der Tabelle unter aufgeführt ist[Eingabetypen, Protokolle und Upstream-Systeme](inputs-supported-formats.md). [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/uss-obtain-info.html)Beachten Sie, dass Sie diese Informationen nicht für Inhalte überprüfen müssen, die über CDI bereitgestellt wurden, oder für Inhalte, die von einem AWS Elemental Link bereitgestellt wurden. MediaLive kann mit diesen Eingabetypen immer umgehen. | 
| Ob das Upstream-System das neueste SDK verwendet | Stellen Sie sicher, dass der Inhaltsanbieter die neueste Version des [AWS CDI SDK](https://aws.amazon.com/media-services/resources/cdi/) auf seinem Upstream-CDI-Quellgerät verwendet. | 
| Ob es sich bei dem Quellinhalt um einen Stream oder ein VOD-Asset handelt | Finden Sie heraus, ob es sich bei dem Quellinhalt um einen Live-Stream oder ein VOD-Asset handelt.Stellen Sie sicher, dass die Bereitstellung für das von Ihnen angegebene Format MediaLive unterstützt wird. Die Tabelle finden Sie in[Support für Live- und Dateiquellen](inputs-live-vs-file.md).  | 
| Ob der Inhalt verschlüsselt ist | MediaLive kann verschlüsselte Inhalte nur aus HLS-Inhalten aufnehmen.Wenn es sich bei dem Quellinhalt um HLS handelt und dieser verschlüsselt ist, stellen Sie sicher, dass er in einem Format verschlüsselt ist, das dies unterstützt. MediaLive Siehe [Umgang mit verschlüsselten Quellinhalten in einer HLS-Quelle](planning-hls-input-encrypted.md). Falls MediaLive das verfügbare Verschlüsselungsformat nicht unterstützt wird, finden Sie heraus, ob Sie den Inhalt in unverschlüsselter Form abrufen können. | 
| Nur wenn es sich bei dem Quellinhalt um RTP handelt, ob er FEC enthält. |  Wir empfehlen, dass der Quellinhalt FEC enthält, da es weniger wahrscheinlich ist, dass die Ausgabe visuell beeinträchtigt wird.  | 

# Umgang mit verschlüsselten Quellinhalten in einer HLS-Quelle
<a name="planning-hls-input-encrypted"></a>

MediaLive kann eine HLS-Quelle aufnehmen, die gemäß der HTTP-Live-Streaming-Spezifikation verschlüsselt ist.

**Unterstütztes Verschlüsselungsformat**

MediaLive unterstützt das folgende Format für verschlüsselte HLS-Quellen:
+ Der Quellinhalt ist mit AES-128 verschlüsselt. MediaLive unterstützt AES-SAMPLE nicht. 
+ Der Quellinhalt wird entweder mit statischen oder rotierenden Schlüsseln verschlüsselt.
+ Das Manifest enthält das `#EXT-X-KEY ` Tag mit den folgenden Attributen:
  + Das `METHOD` Attribut spezifiziert AES-128.
  + Der URI gibt den Lizenzserver für den Verschlüsselungsschlüssel an.
  + Das IV ist leer oder gibt den zu verwendenden Initialisierungsvektor (IV) an. Wenn IV leer ist, wird der Wert im `#EXT-X-MEDIA-SEQUENCE` Tag als IV MediaLive verwendet.
+ Wenn sowohl das Upstream-System als auch der Lizenzserver Authentifizierungsdaten (Benutzername und Passwort) benötigen, stellen Sie sicher, dass auf beiden Servern dieselben Anmeldeinformationen verwendet werden. MediaLive unterstützt nicht, unterschiedliche Anmeldeinformationen für diese beiden Server zu verwenden.

**Wie funktioniert die Entschlüsselung**

Der Inhaltseigentümer richtet das Hauptmanifest so ein, dass es die Methode (AES-128), die URL zum Lizenzserver und den Initialisierungsvektor (IV) enthält. `#EXT-X-KEY` Der Inhaltseigentümer platziert die Verschlüsselungsschlüssel auf dem Lizenzserver. Wenn der MediaLive Kanal, der diese Quelle verwendet, gestartet MediaLive wird, wird das Hauptmanifest abgerufen und das `#EXT-X-KEY ` Tag für die URL des Lizenzservers gelesen. 

MediaLive stellt eine Verbindung zum Lizenzserver her und ruft den Verschlüsselungsschlüssel ab. MediaLive beginnt mit dem Abrufen des Inhalts aus dem Upstream-System und entschlüsselt den Inhalt mithilfe des Verschlüsselungsschlüssels und der IV. 

# Beurteilen Sie den Videoinhalt
<a name="assess-uss-source"></a>

In der folgenden Tabelle finden Sie Informationen zur Bewertung der Videoquelle. Lesen Sie sich jede Zeile durch.

**Anmerkung**  
Sie müssen das Video, das über CDI oder von einem AWS Elemental Link Gerät aus übertragen wird, nicht bewerten. Diese Quellen sind immer akzeptabel für. MediaLive


****  

| Zu beschaffende Informationen | Überprüfen Sie Folgendes | 
| --- | --- | 
| Die verfügbaren Videocodecs oder -formate. | Stellen Sie sicher, dass mindestens einer der Videocodecs in der Liste der Videocodecs für das Paketformat enthalten ist. Siehe [Unterstützte Codecs nach Eingangstyp](inputs-supported-codecs-by-input-type.md). Wenn der Inhalt in mehr als einem unterstützten Codec verfügbar ist, entscheiden Sie, welchen einzelnen Videocodec Sie verwenden möchten. Sie können nur ein Video-Asset aus dem Quellinhalt extrahieren. | 
| Die maximal erwartete Bitrate. | Stellen Sie sicher, dass die Bandbreite zwischen dem Upstream-System und dem Upstream-System MediaLive ausreicht, um die erwartete maximale Bitrate des Quellinhalts zu verarbeiten.Wenn Sie Standardkanäle einrichten (um [Pipeline-Redundanz](plan-redundancy.md) zu implementieren), stellen Sie sicher, dass die Bandbreite doppelt so hoch ist wie die erwartete maximale Bitrate, da es zwei Pipelines gibt. | 
| Ob sich die Videoeigenschaften in der Mitte des Streams ändern.  | Die besten Ergebnisse erzielen Sie, wenn Sie sicherstellen, dass sich die Videoeigenschaften der Videoquelle in der Mitte des Streams nicht ändern. Beispielsweise sollte sich der Codec nicht ändern. Die Bildrate sollte sich nicht ändern. | 

# Beurteilen Sie den Audioinhalt
<a name="assess-uss-audio"></a>

In der folgenden Tabelle finden Sie Informationen zur Bewertung der Audioquelle. Lesen Sie sich jede Zeile durch.

**Anmerkung**  
Sie müssen keine Bewertung der Audiodaten vornehmen, die über CDI oder von einem AWS Elemental Link Gerät übertragen werden. Diese Quellen sind immer akzeptabel für. MediaLive


****  

| Zu beschaffende Informationen | Überprüfen Sie Folgendes | 
| --- | --- | 
| Die verfügbaren Audiocodecs oder -formate. | Stellen Sie sicher, dass mindestens einer der Audiocodecs in der Liste der Audiocodecs in enthalten ist. [Unterstützte Codecs nach Eingangstyp](inputs-supported-codecs-by-input-type.md)  | 
| Die verfügbaren Sprachen für jeden Codec. Zum Beispiel Englisch, Französisch. | Identifizieren Sie die Sprachen, die Sie anbieten möchten. Ermitteln Sie, welche dieser Sprachen der Inhaltsanbieter anbieten kann.  | 
| Die verfügbaren Codierungsmodi (z. B. 2.0 und 5.1) für jeden Codec. |  Identifizieren Sie die Audiocodierungsmodi, die Sie für jede Audiosprache bevorzugen. Ermitteln Sie, welche dieser Codierungsmodi der Inhaltsanbieter bereitstellen kann. Weitere Informationen finden Sie im [Abschnitt nach dieser Tabelle](#coding).   | 
| Ob sich die Audioeigenschaften in der Mitte des Streams ändern.  |  Die besten Ergebnisse erzielen Sie, wenn Sie sicherstellen, dass sich die Audioeigenschaften des Quellinhalts in der Mitte des Streams nicht ändern. Beispielsweise sollte sich der Codec der Quelle nicht ändern. Der Codierungsmodus sollte sich nicht ändern. Eine Sprache sollte nicht verschwinden.  | 
| Wenn es sich bei dem Quellinhalt um HLS handelt, unabhängig davon, ob sich die Audio-Assets in einer Audio-Wiedergabegruppe befinden oder mit Video gemultiplext wurden.  |  MediaLive kann Audio-Assets aufnehmen, die sich in einer separaten Wiedergabegruppe befinden oder die zusammen mit dem Video zu einem einzigen Stream gemultiplext wurden.  | 

**Um sich für einen Codierungsmodus zu entscheiden**  
Wenn mehrere Codierungsmodi für dieselbe Sprache verfügbar sind, entscheiden Sie, welchen Modus Sie verwenden möchten. Befolgen Sie diese Richtlinien:
+ Sie können einige Sprachen in einem Codec und Codierungsmodus und andere Sprachen in einem anderen Codec- und Codierungsmodus extrahieren. Beispielsweise möchten Sie möglicherweise, dass eine oder zwei Sprachen im 5.1-Codierungsmodus verfügbar sind, und möchten, dass andere Sprachen im 2.0-Codierungsmodus verfügbar sind. 
+ Sie können dieselbe Sprache mehrmals extrahieren. Beispielsweise möchten Sie möglicherweise eine Sprache sowohl im 5.1-Codierungsmodus als auch im Codierungsmodus 2.0 verwenden.
+ Wenn Sie entscheiden, welcher Codec und welcher Codierungsmodus für eine bestimmte Sprache extrahiert werden sollen, sollten Sie den Codierungsmodus berücksichtigen, den Sie für diese Sprache in der Ausgabe verwenden möchten. Für jede Sprache ist es immer am einfachsten, wenn der Codierungsmodus des Quellinhalts mit dem Codierungsmodus der Ausgabe übereinstimmt, da Sie dann das Audio nicht neu mischen müssen, um den Codierungsmodus zu konvertieren. MediaLiveunterstützt Remix, aber Remixing ist eine fortgeschrittene Funktion, die ein gutes Verständnis von Audio voraussetzt.

In der Ausgabe möchten Sie beispielsweise, dass sich die eine Sprache im Codierungsmodus 5.1 befindet. Möglicherweise möchten Sie, dass andere Sprachen im Codierungsmodus 2.0 verfügbar sind.

Daher könnten Sie sich dafür entscheiden, Folgendes zu extrahieren:
+ Spanisch in Dolby Digital 5.1
+ Französisch und Englisch in AAC 2.0.

# Beurteilen Sie Bildunterschriften
<a name="assess-uss-captions"></a>

Wenn Sie beabsichtigen, Beschriftungen in eine Ausgabegruppe aufzunehmen, müssen Sie festlegen, ob Sie das Untertitelformat in der Quelle verwenden MediaLive können, um das gewünschte Untertitelformat für die Ausgabe zu erzeugen. 

Besorgen Sie sich die folgenden Informationen über die Untertitelquelle.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/assess-uss-captions.html)

**Um die Anforderungen an Bildunterschriften zu beurteilen**

Gehen Sie für jede [Ausgabegruppe, die Sie für Ihren Workflow identifiziert haben,](identify-downstream-system.md) wie folgt vor.

1. Gehen Sie zu dem Abschnitt für die Ausgabegruppe [Untertiteln werden unterstützt in MediaLive](supported-captions.md) und suchen Sie ihn. Suchen Sie zum Beispiel[Untertitelformate, die in HLS oder Ausgaben unterstützt werden MediaPackage](supported-formats-hls-output.md). Lesen Sie in der Tabelle in diesem Abschnitt die erste Spalte nach unten, um das Format (Container) zu finden, das der Inhaltsanbieter bereitstellt. 

1. Lesen Sie bis zur *Eingabespalte Quelltext*, um die Untertitelformate zu finden, die in diesem Quellformat MediaLive unterstützt werden.

1. Lesen Sie dann in der Spalte *Unterstützte Ausgabebeschriftungen* nach, in welche Untertitelformate das Quellformat konvertiert werden MediaLive kann.

   Am Ende erhalten Sie eine Aussage wie: „Wenn Sie eine HLS-Ausgabe erstellen möchten und Ihr Quellinhalt RTMP ist, können Sie eingebettete Untertitel in Burn-In, Embedded oder WebVTT konvertieren.“

1. Stellen Sie sicher, dass der Quellinhalt des Content Providers mit einem der Formate in der Spalte *Unterstützte* Titeleingabe der Tabelle übereinstimmt. Stellen Sie beispielsweise sicher, dass der Quellinhalt eingebettete Beschriftungen enthält.

1. Suchen Sie nach der Liste der Untertitelformate, die das Downstream-System unterstützt. Sie haben diese Liste erhalten, als Sie [die Codierungsanforderungen für die von Ihnen identifizierten Ausgabegruppen](identify-dss-video-audio.md) ermittelt haben. Vergewissern Sie sich, dass mindestens eines dieser Ausgabeformate in der Spalte *Unterstützte Ausgabebeschriftungen* der Tabelle aufgeführt ist.

   Wenn es keine Übereinstimmung im Quellinhalt oder keine Übereinstimmung in der Ausgabe gibt, können Sie keine Beschriftungen in die Ausgabe aufnehmen.

Nehmen wir beispielsweise an, dass Sie eine HLS-Ausgabegruppe erstellen müssen. Gehen Sie davon aus, dass Ihr Inhaltsanbieter Ihnen Inhalte im RTP-Format mit eingebetteten Untertiteln zur Verfügung stellen kann. Gehen Sie davon aus, dass das Downstream-System verlangt, dass für die HLS-Ausgabe die Ausgabe WebVTT-Untertitel enthalten muss.

Folgen Sie den obigen Schritten und lesen Sie die Tabelle für HLS-Ausgaben. In der Containerspalte der Tabelle finden Sie die Zeile für das RTP-Format. Sie lesen bis zur Quellspalte und stellen fest, dass eingebettete Beschriftungen ein unterstütztes Quellformat sind. Sie lesen dann zur Ausgabespalte und stellen fest, dass eingebettete Untertitel in Burn-In-, Embedded- oder WebVTT-Untertitel konvertiert werden können. WebVTT-Untertitel sind das Format, das das Downstream-System benötigt. Sie kommen daher zu dem Schluss, dass Sie Beschriftungen in die HLS-Ausgabe aufnehmen können.

# Sammeln Sie Informationen über den Quellinhalt
<a name="planning-content-extract"></a>

Nachdem Sie den Quellinhalt bewertet und geeignete Video-, Audio- und Untertitelelemente in diesem Inhalt identifiziert haben, müssen Sie Informationen zu diesen Ressourcen einholen. Die Informationen, die Sie benötigen, sind für jeden Quellentyp unterschiedlich. 

Sie benötigen diese Informationen nicht, um [die Eingabe in zu erstellen](medialive-inputs.md) MediaLive. Sie benötigen diese Informationen jedoch, wenn Sie [den Eingang an den Kanaleingang anschließen](creating-a-channel-step2.md) MediaLive.

**Ergebnis dieses Schritts**  
Nachdem Sie die Verfahren in diesem Schritt ausgeführt haben, sollten Sie über Informationen zum Quellinhalt verfügen, die wie in diesem Beispiel aussehen.


**Beispiel**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/planning-content-extract.html)

**Topics**
+ [Identifizieren von Inhalten in einer CDI-Quelle](extract-contents-cdi.md)
+ [Identifizieren von Inhalten in einer Quelle AWS Elemental Link](extract-contents-link.md)
+ [Identifizieren von Inhalten in einer HLS-Quelle](extract-contents-hls.md)
+ [Identifizieren von Inhalten in einer MediaConnect Quelle](extract-content-emx.md)
+ [Identifizieren von Inhalten in einer Quelle MP4](extract-contents-mp4.md)
+ [Identifizieren von Inhalten in einer RTMP-Quelle](extract-contents-rtmp.md)
+ [Identifizieren von Inhalten in einer RTP-Quelle](extract-contents-rtp.md)
+ [Identifizieren von Inhalten in einer SMPTE 2110-Quelle](extract-contents-s2110.md)
+ [Identifizieren von Inhalten in einer SRT-Quelle](extract-contents-srt.md)

# Identifizieren von Inhalten in einer CDI-Quelle
<a name="extract-contents-cdi"></a>

Der Inhalt einer CDI-Quelle besteht immer aus unkomprimiertem Video, unkomprimiertem Audio und Untertiteln. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-contents-cdi.html)

# Identifizieren von Inhalten in einer Quelle AWS Elemental Link
<a name="extract-contents-link"></a>

Der Inhalt einer AWS Elemental Link Quelle ist immer ein Transportstream (TS), der ein Video-Asset, ein Audiopaar und optionale Untertitel enthält. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-contents-link.html)

Besorgen Sie sich außerdem die folgenden Informationen zum Inhalt:
+ Die maximale Bitrate. Sie haben die Möglichkeit, diese Bitrate zu drosseln, wenn Sie das Gerät in MediaLive einrichten. Weitere Informationen finden Sie unter [Einrichten AWS Elemental Link](setup-devices.md). 
+ Gibt an, ob der Inhalt einen eingebetteten Timecode enthält. Wenn dies der Fall ist, können Sie diesen Timecode verwenden. Weitere Informationen finden Sie unter [Timecode-Konfiguration](https://docs.aws.amazon.com/medialive/latest/ug/timecode.html)[Arbeiten mit Timecodes und Zeitstempeln](timecode.md). 
+ Gibt an, ob der Inhalt Werbeinformationen enthält (SCTE-104-Nachrichten, die automatisch in SCTE-35-Nachrichten konvertiert MediaLive werden). Weitere Informationen zu Werbeanzeigen finden Sie unter. [Verarbeitung von SCTE 35-Nachrichten](scte-35-message-processing.md)

# Identifizieren von Inhalten in einer HLS-Quelle
<a name="extract-contents-hls"></a>

Der Inhalt eines HLS-Containers ist immer ein Transportstream (TS), der nur eine Videowiedergabe (Programm) enthält. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  

|  Komponente  |  Details  | Zu beschaffende Informationen | 
| --- | --- | --- | 
| Video | Sie benötigen keine identifizierenden Informationen. MediaLive extrahiert immer das einzelne Video-Asset. |  | 
| Audio | Die Quelle kann mehrere Audiodateien enthalten PIDs. | Besorgen Sie sich die PIDs oder dreistelligen Sprachcodes der gewünschten Sprachen. Wir empfehlen Ihnen, die PIDs für die Audio-Assets zu erwerben. Sie sind eine zuverlässigere Methode zur Identifizierung eines Audio-Assets.  | 
| Untertitel | Eingebettet | Ermitteln Sie die Sprachen in den Kanalnummern. Zum Beispiel „Kanal 1 ist Französisch“ | 

# Identifizieren von Inhalten in einer MediaConnect Quelle
<a name="extract-content-emx"></a>

Der Inhalt einer AWS Elemental MediaConnect Quelle ist immer ein Transportstream (TS). Das TS besteht aus einem Programm (SPTS) oder mehreren Programmen (MPTS). Jedes Programm enthält eine Kombination aus Video, Audio und optionalen Untertiteln.

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-content-emx.html)

# Identifizieren von Inhalten in einer Quelle MP4
<a name="extract-contents-mp4"></a>

Der Inhalt einer MP4 Quelle besteht immer aus einer Videospur, einer oder mehreren Audiospuren und optionalen Untertiteln. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  

|  Komponente  |  Details  | Zu beschaffende Informationen | 
| --- | --- | --- | 
| Video | Sie benötigen keine identifizierenden Informationen. MediaLive extrahiert immer das einzelne Video-Asset. | Keine | 
| Audio | Die Quelle kann mehrere Audiotracks enthalten, in der Regel eine für jede Sprache.  | Besorgen Sie sich die Titelnummern oder dreistelligen Sprachcodes der gewünschten Sprachen. | 
| Untertitel | EingebettetDie Untertitel können in die Videospur oder in eine zusätzliche Spur eingebettet sein. | Ermitteln Sie die Sprachen in den Kanalnummern. Zum Beispiel „Kanal 1 ist Französisch“.  | 

# Identifizieren von Inhalten in einer RTMP-Quelle
<a name="extract-contents-rtmp"></a>

Dieses Verfahren gilt sowohl für RTMP-Push- und -Pull-Eingaben aus dem Internet als auch für RTMP-Eingaben aus Amazon Virtual Private Cloud. Der Inhalt einer RTMP-Eingabe besteht immer aus einem Video, einem Audio und optionalen Untertiteln. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  

|  Komponente  |  Details  | Zu beschaffende Informationen | 
| --- | --- | --- | 
| Video | Sie benötigen keine identifizierenden Informationen. MediaLive extrahiert immer das einzelne Video-Asset. | Keine | 
| Audio | Sie benötigen keine identifizierenden Informationen. MediaLive extrahiert immer das einzelne Audio-Asset | Ermitteln Sie die Nummern und Sprachen der Titel. Zum Beispiel „Track 1 ist Französisch“.  | 
| Untertitel | EingebettetDie Untertitel können in die Videospur oder in eine zusätzliche Spur eingebettet sein. | Ermitteln Sie die Sprachen in den Kanalnummern. Zum Beispiel „Kanal 1 ist Französisch“.  | 

# Identifizieren von Inhalten in einer RTP-Quelle
<a name="extract-contents-rtp"></a>

Dieses Verfahren gilt sowohl für RTP-Eingaben aus dem Internet als auch für Eingaben aus Amazon Virtual Private Cloud. Der Inhalt einer RTP-Eingabe ist immer ein Transport Stream (TS). Der TS besteht aus einem Programm (SPTS) oder mehreren Programmen (MPTS). Jedes Programm enthält eine Kombination aus Video, Audio und optionalen Untertiteln. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-contents-rtp.html)

# Identifizieren von Inhalten in einer SMPTE 2110-Quelle
<a name="extract-contents-s2110"></a>

Der Inhalt einer SMPTE 2110-Quelle besteht immer aus einer Reihe von Streams, die aus einem Video-Asset, null oder mehr Audio-Assets und null oder mehr Untertitel-Assets (Zusatzdaten) bestehen. Jedes Asset befindet sich in einem eigenen Stream. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-contents-s2110.html)

# Identifizieren von Inhalten in einer SRT-Quelle
<a name="extract-contents-srt"></a>

Der Inhalt einer SRT-Eingabe ist immer ein Transport Stream (TS). Der TS besteht aus einem Programm (SPTS) oder mehreren Programmen (MPTS). Jedes Programm enthält eine Kombination aus Video, Audio und optionalen Untertiteln. 

Besorgen Sie sich identifizierende Informationen vom Inhaltsanbieter.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/extract-contents-srt.html)

# Koordinieren Sie mit nachgelagerten Systemen
<a name="setting-up-downstream-system"></a>

Als letzten Schritt bei der Vorbereitung der Downstream- und Upstream-Systeme in Ihrem Arbeitsablauf müssen Sie mit dem Betreiber des Downstream-Systems sprechen und die Informationen koordinieren.

Die *Ausgabe* von MediaLive gilt als *Eingabe* für das nachgelagerte System.

Die Konfiguration ist für jeden Typ von Ausgangsgruppe und nachgeschaltetem System unterschiedlich. Weitere Informationen finden Sie unter [Einrichtung: Ausgabegruppen und Ausgaben erstellen](medialive-outputs.md) und wechseln Sie zu dem Abschnitt über den Typ der Ausgabegruppe, die Sie erstellen. Lesen Sie die Informationen zur Koordination mit dem nachgelagerten System. 

# Planung der Ausgaben im Kanal
<a name="planning-the-channel-in-workflow"></a>

*Sie sollten den AWS Elemental MediaLive Elemental-Kanal als zweite Phase der Planung eines Transcodierungs-Workflows planen.* Sie sollten die erste Phase der Einrichtung der Upstream- und Downstream-Systeme bereits durchgeführt haben, wie unter beschrieben. [Vorbereitung der vor- und nachgelagerten Systeme in einem Workflow](container-planning-uss-dss.md)

Der Kanal bietet die Möglichkeit, verschiedene Eigenschaften der Ausgänge zu konfigurieren und eine Vielzahl von Videofunktionen einzubeziehen. Bevor Sie diese Details planen, sollten Sie jedoch die grundlegenden Funktionen für den Kanal planen.

**Anmerkung**  
Auf der Ausgabeseite bezeichnen wir jeden Video-, Audio- oder Untertitelstream, jeden Titel oder jedes Programm als *Kodierung*.

**Topics**
+ [Identifizieren Sie die Ausgangscodierungen](planning-encodes.md)
+ [Ordnen Sie die Ausgabe-Codierungen den Quellen zu](channel-map-output-source.md)
+ [Entwerfen Sie die Kodierungen](designing-encodes.md)

# Identifizieren Sie die Ausgangscodierungen
<a name="planning-encodes"></a>

Bei der Vorbereitung der Downstream-Systeme haben Sie [die Ausgabegruppen identifiziert](identify-downstream-system.md), die Sie benötigen. Im Rahmen der Kanalplanung müssen Sie nun festlegen, welche Kodierungen in jede Ausgabegruppe aufgenommen werden sollen, die Sie erstellen möchten. Eine *Kodierung* bezieht sich auf die Audio-, Video- oder Untertitelstreams in der Ausgabe.

**Topics**
+ [Identifizieren Sie die Videocodierungen](channel-planning-video-encodes.md)
+ [Identifizieren Sie die Audio-Kodierungen](channel-planning-audio-encodes.md)
+ [Identifizieren Sie die Kodierungen der Untertitel](channel-planning-captions-encodes.md)
+ [Zusammenfassung der Kodierungsregeln für Ausgabegruppen](encode-rules.md)
+ [Beispiel für einen Plan für Ausgabecodierungen](plan-encodes-example.md)

# Identifizieren Sie die Videocodierungen
<a name="channel-planning-video-encodes"></a>

Sie müssen sich für die Anzahl der Videokodierungen und deren Codecs entscheiden. Gehen Sie für jede Ausgabegruppe wie folgt vor. 

1. Ermitteln Sie die maximale Anzahl von Kodierungen, die in der Ausgabegruppe zulässig sind. Die folgenden Regeln gelten für jeden Typ von Ausgabegruppe.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-planning-video-encodes.html)

1. Wenn die Ausgabegruppe mehr als eine Videokodierung zulässt, entscheiden Sie, wie viele Sie möchten. Denken Sie daran, dass Sie aus einer einzigen Videoquelle, die aufgenommen wird, mehrere Ausgangscodierungen erstellen können. MediaLive 

1. Identifizieren Sie den Codec oder die Codecs für die Videocodierung. 
   + [Bei den meisten Typen von Ausgabegruppen gibt das nachgeschaltete System den Codec für jede Videocodierung vor, sodass Sie diese Informationen bei der Identifizierung der Ausgangscodierungen erhalten haben.](#channel-planning-video-encodes) 
   + Bei einer Archivausgabegruppe entscheiden Sie, welcher Codec für Ihre Zwecke geeignet ist.

1. Identifizieren Sie die Auflösung und Bitrate für jede Videokodierung. Möglicherweise haben Sie bei der [Identifizierung der Ausgangscodierungen die Anforderungen oder Empfehlungen von Ihrem nachgeschalteten System eingeholt](#channel-planning-video-encodes).

1. Identifizieren Sie die Bildraten für jede Videokodierung. Wenn Sie mehr als eine Videokodierung verwenden, können Sie die Kompatibilität sicherstellen, indem Sie Ausgabe-Frameraten wählen, die ein Vielfaches der niedrigsten verwendeten Bildrate sind. 

   Beispiele:
   + 29,97 und 59,94 Bilder pro Sekunde sind kompatible Bildraten.
   + 15, 30 und 60 Bilder pro Sekunde sind kompatible Bildraten.
   + 29,97 und 30 Bilder pro Sekunde sind *keine* kompatiblen Bildraten.
   + 30 und 59,94 Bilder pro Sekunde sind *keine* kompatiblen Bildraten. 

    

# Identifizieren Sie die Audio-Kodierungen
<a name="channel-planning-audio-encodes"></a>

Sie müssen sich für die Anzahl der Audiocodierungen entscheiden. Gehen Sie für jede Ausgangsgruppe wie folgt vor. 

1. Ermitteln Sie die maximale Anzahl von Kodierungen, die in der Ausgabegruppe zulässig sind. Die folgenden Regeln gelten für jeden Typ von Ausgabegruppe.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-planning-audio-encodes.html)

1. Wenn die Ausgabegruppe mehr als eine Audiocodierung zulässt, entscheiden Sie, wie viele Sie möchten. Es gelten die folgenden Richtlinien:
   + Jede unterschiedliche Kombination aus Ausgabecodec, Codierungsmodus und Sprache ist eine Kodierung.

     MediaLive kann nur dann einen bestimmten Codierungsmodus erzeugen, wenn die Quelle diesen Codierungsmodus oder einen höheren Modus enthält. MediaLive Kann beispielsweise 1.0 aus einer 1.0- oder 2.0-Quelle erstellen. Es kann 5.1 nicht aus einer 2.0-Quelle erstellen. 
   + MediaLive kann eine bestimmte Sprache nur erzeugen, wenn die Quelle diese Sprache enthält. 
   + MediaLive kann mehr als eine Kodierung für eine bestimmte Sprache erzeugen. 

     Sie könnten sich beispielsweise dafür entscheiden, Spanisch in Dolby 5.1 und AAC 2.0 aufzunehmen.
   + Es ist nicht erforderlich, dass die Anzahl der Kodierungen für alle Sprachen gleich ist. Sie könnten beispielsweise zwei Kodierungen für Spanisch und nur eine Kodierung für die anderen Sprachen erstellen.

1. Identifizieren Sie die Bitrate für jede Audiokodierung. Möglicherweise haben Sie bei der [Identifizierung der Ausgangscodierungen die Anforderungen oder Empfehlungen von Ihrem nachgeschalteten System eingeholt](#channel-planning-audio-encodes). 

# Identifizieren Sie die Kodierungen der Untertitel
<a name="channel-planning-captions-encodes"></a>

Sie müssen die Anzahl der codierten Untertitel festlegen. Gehen Sie für jede Ausgabegruppe wie folgt vor. 

1. Ermitteln Sie die maximale Anzahl von Untertitelcodierungen, die in der Ausgabegruppe zulässig sind. Die folgenden Regeln gelten für jeden Typ von Ausgabegruppe.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-planning-captions-encodes.html)

1. Identifizieren Sie die Kategorie, zu der jedes Untertitelformat gehört. Die Liste finden Sie unter[Kategorien von Untertiteln](categories-captions.md). Bei WebVTT-Untertiteln handelt es sich beispielsweise um Sidecar-Untertitel.

1. Verwenden Sie diese Kategorie, um die Anzahl der Untertitelcodierungen zu ermitteln, die Sie in der Ausgabegruppe benötigen.
   + Bei eingebetteten Untertiteln erstellen Sie immer eine Kodierung für Untertitel.
   + Für Beschriftungen im Objektstil und Sidecar-Beschriftungen erstellen Sie für jedes Format und jede Sprache, die Sie einbeziehen möchten, eine einzige Kodierung.

# Zusammenfassung der Kodierungsregeln für Ausgabegruppen
<a name="encode-rules"></a>

 In dieser Tabelle sind die Regeln für Kodierungen für jede Ausgabegruppe zusammengefasst. Suchen Sie in der ersten Spalte die gewünschte Ausgabegruppe und lesen Sie dann die gesamte Zeile durch.


****  

| Typ der Ausgabegruppe | Regel für Videocodierungen | Regel für Audio-Kodierungen | Regel für Kodierungen von Untertiteln | 
| --- | --- | --- | --- | 
| Archiv | Ein oder mehrere Videokodierungen. | Keine oder mehr Audiocodierungen. | Keine oder mehr Untertitel werden codiert. Bei den Beschriftungen handelt es sich entweder um eingebettete Beschriftungen oder um Beschriftungen im Objektstil. | 
| CMAF-Aufnahme | Ein oder mehrere Videokodierungen. In der Regel gibt es mehrere Videocodierungen. | Keine oder mehr Audiocodierungen. In der Regel gibt es mehrere Audiocodierungen.  | Es werden keine oder mehr Untertitel codiert. In der Regel gibt es Untertitelsprachen, die den Audiosprachen entsprechen. Bei den Untertiteln handelt es sich um eingebettete oder Sidecar-Untertitel. | 
| Frame Capture | Eine Videokodierung. | Keine Audiocodierung. | Keine Bildunterschriften kodiert. | 
| HLS oder MediaPackage | Ein oder mehrere Videokodierungen. In der Regel gibt es mehrere Videocodierungen. | Keine oder mehr Audiocodierungen. In der Regel gibt es mehrere Audiocodierungen.  | Es werden keine oder mehr Untertitel codiert. In der Regel gibt es Untertitelsprachen, die den Audiosprachen entsprechen. Bei den Untertiteln handelt es sich entweder um eingebettete oder um Sidecar-Untertitel. | 
| Microsoft Smooth | Ein oder mehrere Videokodierungen. In der Regel gibt es mehrere Videocodierungen. | Keine oder mehr Audiocodierungen. In der Regel gibt es mehrere Audiocodierungen.  | Es werden keine oder mehr Untertitel codiert. In der Regel gibt es Untertitelsprachen, die den Audiosprachen entsprechen. Bei den Untertiteln handelt es sich immer um Sidecar-Untertitel. | 
| RTMP |  Ein Video kodieren.  | Keine oder eine Audiokodierung.  | Keine oder eine Bildunterschrift kodiert. Bei den Beschriftungen handelt es sich entweder um eingebettete Beschriftungen oder um Beschriftungen im Objektstil. | 
| SRT-Aufrufer |  Ein oder mehrere Videokodierungen.  | Eine oder mehrere Audiocodierungen. | Keine oder mehr Untertitel werden codiert. Bei den Beschriftungen handelt es sich entweder um eingebettete Beschriftungen oder um Beschriftungen im Objektstil. | 
| UDP |  Ein oder mehrere Videokodierungen.   | Eine oder mehrere Audiocodierungen.  | Keine oder mehr Untertitel werden codiert. Bei den Beschriftungen handelt es sich entweder um eingebettete Beschriftungen oder um Beschriftungen im Objektstil. | 

Einige Ausgabegruppen unterstützen auch reine Audioausgaben. Siehe [Die Ausgabe einrichten](audio-only-outputs-and-outputgroups.md).

Einige Ausgabegruppen unterstützen auch Ausgaben, die JPEG-Dateien enthalten, um Trickspiele gemäß der Roku-Spezifikation zu unterstützen. Siehe [Trick-Play-Track mithilfe der Image Media Playlist-Spezifikation](trick-play-roku.md).

# Beispiel für einen Plan für Ausgabecodierungen
<a name="plan-encodes-example"></a>

Nachdem Sie dieses Verfahren durchgeführt haben, sollten Sie über Informationen verfügen, die wie in diesem Beispiel aussehen.


**Beispiel**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/plan-encodes-example.html)

# Ordnen Sie die Ausgabe-Codierungen den Quellen zu
<a name="channel-map-output-source"></a>

Im ersten Schritt der Kanalplanung haben Sie die Anzahl der Codierungen ermittelt, die Sie in jeder Ausgabegruppe benötigen. Sie müssen nun bestimmen, welche Ressourcen aus der Quelle Sie verwenden können, um diese Codierungen zu erzeugen.

**Ergebnis dieses Verfahrens**  
Nachdem Sie dieses Verfahren durchgeführt haben, haben Sie die folgenden Schlüsselkomponenten identifiziert, die Sie im Channel erstellen werden:
+ Die Auswahlschalter für die Videoeingänge 
+ Die Audioeingangswähler
+ Die Eingangswähler für Untertitel

Die Identifizierung dieser Komponenten ist der letzte Schritt bei der Planung der *Eingangsseite* des Kanals. 

**Um die Ausgabe den Quellen zuzuordnen**

1. Besorgen Sie sich die *Liste der Ausgabe-Codierungen*, die Sie erzeugen möchten. Sie haben diese Liste im [vorherigen Schritt](planning-encodes.md) erstellt. Es ist nützlich, diese Liste in einer Tabelle zu organisieren. Beispiel:  
**Beispiel**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-map-output-source.html)

1. Besorgen Sie sich die *Liste der Quellen*, die Sie bei der Bewertung des Quellinhalts und der Erfassung der Identifikatoren erstellt haben. Ein Beispiel für eine solche Liste finden Sie unter[Beurteilen Sie das Upstream-System](evaluate-upstream-system.md).

1. Fügen Sie in der Tabelle der Ausgabekodierungen zwei weitere Spalten mit den Bezeichnungen *Quelle* und *Identifier in Quelle* hinzu. 

1. Suchen Sie für jede Kodierung (Spalte 2) eine Zeile in der *Liste der Quellen*, die diese Kodierung erzeugen können. Fügen Sie den Quellcodec und die Kennung dieses Quellcodecs hinzu. Dieses Beispiel zeigt eine ausgefüllte Tabelle.  
**Beispiel**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-map-output-source.html)

   Sie werden diese Informationen verwenden, wenn Sie den Kanal erstellen:
   + Sie verwenden die Informationen zur Quelle und zur Quellenkennung, wenn Sie [die Eingabeselektoren erstellen](input-video-selector.md).
   + Sie verwenden die Merkmalsinformationen, wenn Sie die [Kodierungen in den Ausgabegruppen erstellen](creating-a-channel-step6.md).

1. Nachdem Sie die Quell-Assets identifiziert haben, gruppieren Sie die Assets, die mehrfach verwendet werden, um die Duplikate zu entfernen.

1. Benennen Sie jedes Asset nach seinem Typ — Video, Audio oder Untertiteln.  
**Beispiel**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/channel-map-output-source.html)

## Beispiel für eine Kartierung
<a name="channel-map-example"></a>

Die folgenden Diagramme veranschaulichen die Zuordnung der ausgegebenen Codierungen zurück zu den Quell-Assets. Das erste Diagramm zeigt die Ausgaben (oben) und die Quellen (unten). Die anderen drei Diagramme zeigen dieselben Ausgänge und Quellen mit den Zuordnungen für Video, Audio und Untertitel.

**Kodierungen und Ressourcen**

![\[Diagram showing HLS, RTMP, and Archive sections with various video, audio, and caption sources.\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/images/channel-design-map-in-out.png)


**Zuordnen von Videocodierungen zu Assets**

![\[Diagram showing video, audio, and caption sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/images/channel-design-map-in-out-V.png)


**Zuordnen von Audiocodierungen zu Assets**

![\[Diagram showing audio and video sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/images/channel-design-map-in-out-A.png)


**Zuordnung von Untertitelcodierungen zu Assets**

![\[Diagram showing video, audio, and caption sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/images/channel-design-map-in-out-C.png)


# Entwerfen Sie die Kodierungen
<a name="designing-encodes"></a>

Im ersten Schritt der Kanalplanung haben Sie die Video-, Audio- und Untertitelcodierungen [identifiziert](planning-encodes.md), die in jeder Ausgabegruppe enthalten sein sollen. Im zweiten Schritt haben Sie diese Kodierungen in Ausgaben in jeder Ausgabegruppe organisiert. 

In diesem dritten Schritt müssen Sie nun die Konfigurationsparameter für jede Kodierung planen. Im Rahmen dieses Plans identifizieren Sie Möglichkeiten für die gemeinsame Nutzung von Kodierungen zwischen Ausgängen in derselben Ausgabegruppe im Kanal und zwischen Ausgaben in verschiedenen Ausgabegruppen im Kanal.

**Ergebnis dieses Verfahrens**  
Nachdem Sie dieses Verfahren durchgeführt haben, steht Ihnen eine Liste mit Video-, Audio- und Untertitel-Codierungen zur Verfügung, die Sie erstellen müssen.

**Topics**
+ [Planen Sie die Kodierungen](plan-encodes.md)
+ [Identifizieren Sie Möglichkeiten zum gemeinsamen Verschlüsseln](plan-encode-sharing.md)

# Planen Sie die Kodierungen
<a name="plan-encodes"></a>

In [Ordnen Sie die Ausgabe-Codierungen den Quellen zu](channel-map-output-source.md) haben Sie einen Plan für die Kodierungen skizziert, die Sie in jeder Ausgabegruppe erstellen möchten. Im Folgenden finden Sie ein Beispiel für den Plan aus diesem Schritt, der die Ausgaben und Kodierungen sowie die Quellen für diese Kodierungen zeigt.

Irgendwann müssen Sie die Details für die Kodierungen in der zweiten und dritten Spalte dieser Tabelle eingeben. Sie haben die Wahl:
+ Sie können diese Details jetzt festlegen. 
+ Sie können die Details später festlegen, wenn Sie den Kanal tatsächlich erstellen. Wenn Sie sich dafür entscheiden, empfehlen wir Ihnen, trotzdem die Verfahren nach der Tabelle zu lesen, um eine Vorstellung davon zu bekommen, was bei der Definition einer Kodierung erforderlich ist.


**Beispiel**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/medialive/latest/ug/plan-encodes.html)

**Entwerfen Sie die Details für jede Videokodierung**

Für jede Videokodierung in Ihrer Tabelle haben Sie bereits das Quell-Asset, den Codec, die Auflösung und die Bitrate identifiziert. Sie müssen jetzt alle anderen Kodierungsparameter identifizieren, die Sie festlegen müssen.

Folgen Sie diesem Verfahren für jede einzelne Videokodierung.

1. Sehen Sie sich die Felder im Abschnitt zur Videokodierung jeder Ausgabe an. Gehen Sie wie folgt vor, um diese Felder anzuzeigen. Machen Sie sich keine Sorgen, dass Sie nicht alle Abschnitte ausfüllen. Sie möchten nur die Felder für die Videokodierung anzeigen und dann den Kanal kündigen.
   + Wählen Sie auf der MediaLive Startseite die Option **Kanal erstellen** und wählen Sie im Navigationsbereich **Kanäle** aus. 

     Wenn Sie zuvor einen Channel erstellt haben, wird die Startseite nicht angezeigt. Wählen Sie in diesem Fall im MediaLive Navigationsbereich **Kanäle** und dann **Kanal erstellen** aus.
   + Wählen Sie auf der Seite **Create channel** (Channel erstellen) unter **Output groups** (Ausgabegruppen) die Option **Add** (Hinzufügen) aus. 

     Mach dir keine Sorgen, dass du noch keinen der vorherigen Abschnitte im Channel abgeschlossen hast. Sie versuchen nur, alle Felder für die Videokodierung anzuzeigen.
   + **Wählen **Sie im Abschnitt Ausgabegruppe hinzufügen** die Option **HLS** und dann Bestätigen aus.**
   + Wählen Sie unter dieser Ausgabegruppe **Ausgabe 1** aus.
   + Gehen Sie im Abschnitt **Ausgabe** zum Abschnitt **Stream-Einstellungen** und wählen Sie den Link **Video** aus. 
   + Wählen Sie im Feld **Codec-Einstellungen** den Codec aus, den Sie für diese Videokodierung verwenden möchten. Es werden weitere Felder angezeigt. Wählen Sie die Feldbeschriftungen für alle Abschnitte aus, um alle Felder anzuzeigen.

1. Stellen Sie in jedem Abschnitt fest, ob Sie die Standardeinstellungen ändern müssen. 
   + Viele der Felder haben Standardwerte, was bedeutet, dass Sie den Feldwert unverändert lassen können. Weitere Informationen zu einem Feld und seinem Standardwert erhalten Sie, wenn Sie auf den Link **Info** neben dem Feld klicken.
   + Es gibt einige Felder, die Sie möglicherweise gemäß den Anweisungen Ihres Downstream-Systems einrichten müssen, um den Erwartungen des Downstream-Systems zu entsprechen.
   + In einigen Feldern wirkt sich der eingegebene Wert auf die Ausgangskosten für diesen Kanal aus. Dies sind:
     + Die Felder **Breite** und **Höhe** (die die Videoauflösung definieren).
     + Die **Framerate-Felder.**
     + Die Felder zur **Steuerung der Rate**.

     Informationen zu den Gebühren finden Sie [in der MediaLive Preisliste](https://aws.amazon.com/medialive/pricing/).
   + In den folgenden Abschnitten können Sie sich über einige der Felder informieren:
     + Informationen über die **Color space (Farbraum)**-Felder finden Sie im [Umgang mit komplexen Farbraumkonvertierungen](color-space.md).
     + Weitere Informationen zu den Feldern mit den zusätzlichen Kodierungseinstellungen finden Sie unter [Einrichten des erweiterten VQ-Modus](video-enhancedvq.md).
     + Informationen zu den Feldern für die **Rate control (Ratensteuerung)** finden Sie unter [Einstellung des Ratensteuerungsmodus](video-encode-ratecontrol.md). In diesem Abschnitt gibt es Felder, die sich auf die Ausgangsgebühren für diesen Kanal auswirken. Weitere Informationen zu Gebühren finden Sie in [der MediaLive Preisliste](https://aws.amazon.com/medialive/pricing/).
     + Informationen zu den **Timecode-Feldern** finden Sie unter [Arbeiten mit Timecodes und Zeitstempeln](timecode.md).

1. Machen Sie sich detaillierte Notizen zu den Werten für alle Felder, die Sie ändern möchten. Tun Sie dies für jede Videokodierung, die Sie identifiziert haben.

**Entwerfen Sie die Details für jede Audiocodierung**

Für jede Audiocodierung in Ihrer Tabelle haben Sie bereits das Quell-Asset, den Codec und die Bitrate identifiziert. Sie müssen jetzt alle anderen Kodierungsparameter identifizieren, die Sie festlegen müssen.

Folgen Sie diesem Verfahren für jede einzelne Audiokodierung.

1. Sehen Sie sich die Felder im Abschnitt zur Audiokodierung jeder Ausgabe an. Um diese Felder anzuzeigen, gehen Sie genauso vor wie bei den Videocodierungen, wählen Sie jedoch den Link **Audio 1.** 

   Bei Audiocodierungen gibt es nicht viele Felder für jeden Code. Die Felder für die Codecs unterscheiden sich jedoch stark voneinander.

1. Studiere die Felder und mache dir Notizen. 

**Entwerfen Sie die Details für jede Kodierung mit den Untertiteln**

Für jede Kodierung in Ihrer Tabelle haben Sie bereits die Quellbeschriftungen, das Format und die Sprache identifiziert. Sie müssen jetzt alle anderen Kodierungsparameter identifizieren, die Sie festlegen müssen.

Folgen Sie diesem Verfahren für jede einzelne Kodierung von Untertiteln.

1. Sehen Sie sich die Felder im Abschnitt zur Untertitelcodierung jeder Ausgabe an. Gehen Sie zum Anzeigen dieser Felder genauso vor wie bei den Videocodierungen, wählen Sie jedoch Bildunterschrift hinzufügen, um einen Abschnitt mit Untertiteln hinzuzufügen, da es standardmäßig keinen Abschnitt mit Untertiteln gibt. 

   Bei der Kodierung von Untertiteln gibt es nicht viele Felder für jedes Untertitelformat. Die Felder für die Formate unterscheiden sich jedoch stark voneinander.

1. Studieren Sie die Felder und machen Sie sich Notizen. 

# Identifizieren Sie Möglichkeiten zum gemeinsamen Verschlüsseln
<a name="plan-encode-sharing"></a>

Wenn Sie die Details für alle Ausgabecodierungen bereits identifiziert haben, können Sie jetzt Möglichkeiten für die gemeinsame Nutzung von Kodierungen identifizieren. 

Wenn Sie beabsichtigen, Details zu einem späteren Zeitpunkt zu identifizieren, empfehlen wir Ihnen, zu diesem Abschnitt zurückzukehren, um Möglichkeiten zu identifizieren. 

Weitere Informationen zum Teilen von Kodieren und Klonen finden Sie unter. [Kodierungen zwischen Ausgängen teilen](feature-share-encode.md)

Bei der Erstellung der Kodierungen im Channel verwendest du die gemeinsame Nutzung und das Klonen von Kodierungen, beginnend mit. [Richten Sie die Videokodierung ein](creating-a-channel-step6.md)
+ Wenn du eine vollständige Liste hast, vergleiche die Werte für die Kodierungen:
  + Wenn Sie zwei (oder mehr) Kodierungen mit identischen Werten haben, können Sie die Kodierung gemeinsam nutzen. Wenn Sie den Kanal erstellen, können Sie diese Kodierung einmal in einer Ausgabe erstellen. Sie können diese Kodierung dann in anderen Ausgaben wiederverwenden. Das Verfahren zum Erstellen der Kodierung enthält detaillierte Anweisungen zur Wiederverwendung.

    Beachten Sie, dass zwei Kodierungen nur dann identisch sind, wenn sie in allen Bereichen identisch sind, einschließlich der gemeinsamen Nutzung derselben Videoquelle. In der Beispieltabelle weiter oben in diesem Abschnitt verwenden beispielsweise die erste Videokodierung für HLS und die Videokodierung für RTMP dieselbe Videoquelle.
  + Wenn Sie zwei (oder mehr) Kodierungen mit nahezu identischen Werten haben, können Sie eine Kodierung klonen, um eine zweite Kodierung zu erstellen, und dann bestimmte Felder in der zweiten Kodierung ändern. Das Verfahren zum Erstellen der Kodierung enthält detaillierte Anweisungen zum Klonen.

  Identifizieren Sie dann die Möglichkeiten zum Teilen, genauso wie Sie es bei den Videocodierungen getan haben. Denken Sie daran, dass zwei Kodierungen nur dann identisch sind, wenn sie in allen Bereichen identisch sind, einschließlich der gemeinsamen Nutzung derselben Audioquelle. 

  Identifizieren Sie die Videocodierungen, die Sie teilen möchten, sorgfältig, indem Sie sich die Ausgänge und Ausgangsgruppen notieren, zu denen die einzelnen Ausgänge und Ausgabegruppen gehören.

Identifizieren Sie dann die Möglichkeiten zum Teilen, genauso wie Sie es bei den Videocodierungen getan haben. Denken Sie daran, dass zwei Kodierungen nur dann identisch sind, wenn sie in allen ihren Feldern identisch sind, einschließlich der gemeinsamen Nutzung derselben Untertitelquelle. 

**Beispiel**

In Anlehnung an das Beispiel aus den vorherigen Schritten in diesem Abschnitt zur Kanalplanung könnten Sie entscheiden, dass Sie diese Möglichkeiten in den letzten beiden Spalten dieser Tabelle aufgeführt haben.


****  

| Kodieren Sie den Spitznamen |  Eigenschaften des Kodierers  | Quelle | Gelegenheit | Action | 
| --- | --- | --- | --- | --- | 
| Video A |  AVC 1920x1080, 5 Mbit/s  | HEVC  |  | Erstellen Sie diese Kodierung von Grund auf neu. | 
| VideoB |  AVC 1280 x 720, 3 Mbit/s  | HEVC  | Klonen | Klonen Sie VideoA und ändern Sie die Bitrate. Vielleicht auch andere Bereiche. | 
| VideoC | AVC 320 x 240, 750 Kbit/s | HEVC  | Klonen | Klonen Sie VideoA und ändern Sie die Bitrate und möglicherweise andere Felder. | 
| AudioA | AAC 2.0 in Englisch mit 192000 bps | AAC 2.0 |  | Erstellen Sie diese Kodierung von Grund auf neu. | 
| AudioB | AAC 2.0 auf Französisch mit 192000 bps | AAC 2.0  | Klonen | Klonen Sie AudioA und ändern Sie den Audiowähler (den Verweis auf die Quelle) auf den Selektor für Französisch. Vielleicht auch andere Felder ändern. | 
| Bildunterschriften A |  WebVTT (Objektstil) konvertiert von Embedded, in Englisch  | Eingebettet |  | Erstellen Sie diese Kodierung von Grund auf neu. | 
| Bildunterschriften B | WebVTT (Objektstil) konvertiert von Embedded, auf Französisch | Eingebettet | Klonen | Klonen Sie CaptionsC und ändern Sie die Untertitelauswahl (den Verweis auf die Quelle) in die Auswahl für Französisch. Vielleicht auch andere Felder ändern. | 
| VideoD | AVC 1920x1080, 5 Mbit/s  | HEVC  | Freigeben | Video teilen A | 
| AudioC | Dolby Digital 5.1 auf Spanisch | Dolby Digital 5.1  |  | Erstellen Sie diese Kodierung von Grund auf neu. | 
| Bildunterschriften C | RTMP CaptionInfo (konvertiert von Embedded) auf Spanisch | Eingebettet | Klonen | Klonen Sie CaptionSA und ändern Sie die Untertitelauswahl (der Verweis auf die Quelle) auf die Auswahl für Spanisch. Vielleicht auch andere Felder ändern. | 
| VideoE | AVC, 1920x1080, 5 Mbit/s | HEVC  | Freigeben | Video teilen A | 
| AudioD | Dolby Digital 2.0 auf Spanisch  | AAC 2.0 |  | Erstellen Sie diese Kodierung von Grund auf neu. Obwohl die Quelle mit Aa identisch ist, ist ihr Ausgabecodec unterschiedlich, was bedeutet, dass alle Konfigurationsfelder unterschiedlich sind. Daher hat das Klonen keinen Vorteil. | 
| Audio E | Dolby Digital 2.0 auf Französisch | AAC 2.0  | Klonen | Klonen Sie AudioD und ändern Sie den Audio-Selektor (den Verweis auf die Quelle) auf den Selektor für Französisch. Vielleicht auch andere Felder ändern.Klonen Sie AudiOB nicht, da AudioB und AudioA unterschiedliche Ausgangscodecs haben. Daher hat das Klonen keinen Vorteil. | 
| AudioF | Dolby Digital 2.0 auf Englisch | AAC 2.0 | Klonen | Klonen Sie AudioIod und ändern Sie den Audiowähler (den Verweis auf die Quelle) auf den Selektor für Englisch. Vielleicht auch andere Felder ändern.Klonen Sie AudioB nicht, da AudioB und AudioF unterschiedliche Ausgabecodecs haben. Daher hat das Klonen keinen Vorteil. | 
| Bildunterschriften D | DVB-Sub (Objektstil), konvertiert aus Teletext, in 6 Sprachen.  | Teletext |  | Erstellen Sie diese Kodierung von Grund auf neu. | 