

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# MediaLive ワークフローを計画します
<a name="container-planning-workflow"></a>

AWS Elemental MediaLive から見ると、MediaLive を含むライブストリーミングワークフローには 3 つのシステムが含まれています。
+ MediaLive に動画コンテンツを提供する*アップストリームシステム*。
+ MediaLive: コンテンツを取り込み、コンテンツのコードを変換します。
+ MediaLive が生成する出力の送信先となる*ダウンストリームシステム*。

チャンネルの作成を開始する前に、そのワークフローを計画する必要があります。計画の第一段階として、アップストリームおよびダウンストリームシステムを設定する必要があります。第 2 段階では、チャンネル自体を計画する必要があります。ソースコンテンツから抽出すべきコンテンツを特定し、生成する出力を計画します。

**重要**  
この手順では、出力から遡ってワークフローを計画してから、入力に戻って作業する方法について説明します。これは、ワークフローを計画するにあたって最も効果的な方法です。

**Topics**
+ [ワークフローでのアップストリームおよびダウンストリームシステムの準備](container-planning-uss-dss.md)
+ [チャネルでの出力の計画](planning-the-channel-in-workflow.md)

# ワークフローでのアップストリームおよびダウンストリームシステムの準備
<a name="container-planning-uss-dss"></a>

ワークフローを計画する最初の段階として、上流と下流のシステムを設定しなければならない。

**重要**  
この手順では、出力から遡ってワークフローを計画してから、入力に戻って作業する方法について説明します。これは、ワークフローを計画するにあたって最も効果的な方法です。

**ワークフローを計画するには**

1. MediaLive のダウンストリームにあるシステムに基づいて、生成する必要がある出力グループを特定します。「[ダウンストリームシステムの出力グループのタイプを特定する](identify-downstream-system.md)」を参照してください。

1. HLS 出力グループ内で必要なビデオエンコードを指定します。「[出力グループのエンコード要件を特定する](identify-dss-video-audio.md)」を参照してください。

1. チャンネルクラスを決定する - 冗長性をサポートする標準チャンネルを作成するか、冗長性をサポートしない単一パイプラインチャンネルを作成するかを指定します。「[回復性要件の特定](plan-redundancy.md)」を参照してください。

1. ソースコンテンツを評価して、MediaLive および作成する必要のある出力と互換性があることを確認します。例えば、ソースコンテンツに MediaLive がサポートするビデオコーデックがあることを確認します。「[アップストリームシステムを評価する](evaluate-upstream-system.md)」を参照してください。

   これらの 4 つのステップの実行後に、MediaLive でコード変換リクエストを処理できるかどうかがわかります。

1. ソースコンテンツの識別子を収集します。例えば、コンテンツから抽出したいさまざまなオーディオ言語の識別子について、アップストリームシステムのオペレータに問い合わせます。「[ソースコンテンツに関する情報を収集する](planning-content-extract.md)」を参照してください。

1. ダウンストリームシステムと調整を図り、MediaLive が生成する出力グループの送信先を用意します。「[ダウンストリームシステムとの調整](setting-up-downstream-system.md)」を参照してください。

# ダウンストリームシステムの出力グループのタイプを特定する
<a name="identify-downstream-system"></a>

AWS Elemental MediaLive ワークフローを計画する最初のステップは、MediaLive のダウンストリームにあるシステムの要件と機能に基づいて、生成する必要がある[*出力グループの*](what-is-terminology.md)タイプを決定することです。

[アップストリームシステム](evaluate-upstream-system.md)を評価する前に、ダウンストリームシステムでこの作業を実行してください。ワークフローでの意思決定は、ダウンストリームシステムから始まり、アップストリームシステムに戻ります。

**重要**  
このワークフローでは、MediaLive の出力を送信するダウンストリームシステムを既に特定しておく必要があります。ダウンストリームシステムをまだ特定していない場合は、ワークフローの準備を続ける前に調査を行う必要があります。このガイドでは、ダウンストリームのシステムを特定することはできません。ダウンストリームシステムが何であるかを知ったら、このセクションに戻ります。

**出力グループを特定するには**

1. ダウンストリームシステムから次の情報を取得します。
   + 必要な出力形式。例えば、HLS。
   + それぞれのアプリケーションプロトコル。例えば、HTTP のように指定します。

1. 出力の配信モードを決定します。
   + 出力は、VPC の EC2 インスタンスにあるサーバーにある可能性があります。または、出力が Amazon S3 にある可能性があります。これらの状況のいずれか、または両方が当てはまる場合は、VPC 経由での配信を設定することをお勧めします。詳細については、「[VPC 経由で出力を配信する](delivery-out-vpc.md)」を参照してください。
   + これらの出力タイプがない場合は、通常の方法で配信されます。

1. ダウンストリームシステムに必要とされる出力形式とプロトコルをサポートする*出力グループ*が MediaLive に含まれていることを確認します。「[MediaLive でサポートされている出力タイプ](outputs-supported-containers.md)」を参照してください。

1. 希望するダウンストリームシステムが別の AWS メディアサービスである場合は、[これをお読みになり、サービスの選択に関する情報を確認してください](dss-choose-service.md)。

1. ダウンストリームシステムが Microsoft スムーズストリーミングをサポートしている場合は、オプションに関する「[Microsoft Smooth 出力を処理するためのオプション](downstream-system-for-mss.md)」を参照してください。

1. ディストリビューション前に出力を他の AWS リージョンまたは他の AWS アカウントに送信する場合は、MediaConnect Router 出力グループの作成を検討してください。MediaConnect Router は、クロスリージョンまたはクロスアカウントディストリビューションを必要とするワークフローに最適です。

1. コンテンツのアーカイブファイルを作成するために、アーカイブ出力グループを作成するかどうかを決定します。アーカイブファイルはストリーミングの補足であり、それ自体がストリーミング出力ではありません。通常、アーカイブファイルは、ストリーミング出力の永続ファイルバージョンとして作成します。

1. フレームキャプチャ出力を生成するために、フレームキャプチャ出力グループを作成するかどうかを指定します。フレームキャプチャ出力はストリーミングの補足であり、それ自体がストリーミング出力ではありません。このタイプの出力は、ワークフローに役立つ可能性があります。例えば、フレームキャプチャ出力を使用して、コンテンツのサムネイルを作成することができます。

1. 作成する出力グループをメモしておく。

   例えば、次の手順を実行した後、次の出力グループのリストを作成できます。
   + ダウンストリームシステム AWS Elemental MediaPackage として を持つ 1 つの HLS 出力グループ。
   + 1 つの RTMP 出力グループが、ソーシャルメディアサイトのダウンストリームシステムに送信されます。
   + レコードとしての 1 つのアーカイブ出力グループ。

**Topics**
+ [AWS メディアサービスの選択](dss-choose-service.md)
+ [HLS 出力グループと MediaPackage 出力グループの選択](hls-choosing-hls-vs-emp.md)
+ [Microsoft Smooth 出力を処理するためのオプション](downstream-system-for-mss.md)

# AWS メディアサービスの選択
<a name="dss-choose-service"></a>

希望するダウンストリームシステムが別の AWS メディアサービスである場合は、使用するサービスを選択するための役立つヒントを以下に示します。
+ HLS 出力 AWS Elemental MediaStore で AWS Elemental MediaPackage または のいずれかを選択する必要がある場合は、次のガイドラインに従ってください。
  + デジタル著作権管理 (DRM) ソリューションを使用してコンテンツを保護するかどうかを決定します。DRM は、権限のないユーザーがコンテンツにアクセスするのを防ぎます。
  + コンテンツに広告を挿入するかどうかを決定します。

  これらの機能のいずれかまたは両方が必要な場合は、出力を再パッケージ化する必要があるため、オリジンサービスとして MediaPackage を選択する必要があります。

  これらの機能が必要ない場合は、MediaPackage または を選択できます AWS Elemental MediaStore。 AWS Elemental MediaStore は通常、オリジンサービスとしてよりシンプルなソリューションですが、MediaPackage の再パッケージ化機能はありません。
+ をオリジンサービス AWS Elemental MediaPackage として識別した場合は、HLS 出力グループまたは MediaPackage 出力グループを使用して HLS 出力を生成するかどうかを決定します。この選択に関するガイドラインについては、[次のセクション](hls-choosing-hls-vs-emp.md)を参照してください。

# HLS 出力グループと MediaPackage 出力グループの選択
<a name="hls-choosing-hls-vs-emp"></a>

HLS 出力を に配信する場合は AWS Elemental MediaPackage、HLS 出力グループを作成するか MediaPackage 出力グループを作成するかを決定する必要があります。

## MediaPackage v2 への配信
<a name="hls-choose-empv2"></a>

MediaPackage v2 を使用する MediaPackage チャンネルに配信する場合は、HLS 出力グループを作成する必要があります。MediaPackage 演算子は、チャネルが API のバージョン 2 を使用しているかどうかを通知できます。バージョン 2 を使用するためのユースケースの 1 つは、MediaLive と MediaPackage の両方を含むガラス対ガラスの低レイテンシーワークフローを実装することです。

## 標準 MediaPackage (v1) への配信
<a name="hls-choose-emp"></a>

各出力グループの設定には違いがある：
+ MediaPackage の出力に必要なセットアップは少なくなります。AWS Elemental MediaLive は、指定したチャネルに AWS Elemental MediaPackage 出力をパッケージ化して配信するために必要なほとんどの情報で既に設定されています。この簡単なセットアップには利点がありますが、一部の設定を制御できないため、欠点もあります。MediaLive が MediaPackage 出力グループを設定する方法については、「[この手順の結果](mediapackage-create-result.md)」を参照してください。
+ MediaPackage 出力の場合、MediaLive チャネルと AWS Elemental MediaPackage チャネルは同じ AWS リージョンに存在する必要があります。
+ MediaPackage 出力では、ID3 メタデータの設定にいくつかの制限があります。詳細については、「[ID3 メタデータの使用](id3-metadata.md)」を参照してください。

# Microsoft Smooth 出力を処理するためのオプション
<a name="downstream-system-for-mss"></a>

Microsoft Smooth Streaming サーバーに配信する場合、デジタル著作権管理 (DRM) ソリューションでコンテンツを保護するかどうかによって、セットアップが異なります。DRM は、権限のないユーザーがコンテンツにアクセスするのを防ぎます。
+ DRM を実装しない場合は、Microsoft Smooth 出力グループを作成します。
+ DRM を実装する場合は、HLS または MediaPackage 出力グループを作成して出力を送信し AWS Elemental MediaPackage、 AWS Elemental MediaPackage を使用して DRM を追加できます。次いで、Microsoft スムーズオリジンサーバーに配信するように 「 AWS Elemental MediaPackage 」 をセットアップします。

# 出力グループのエンコード要件を特定する
<a name="identify-dss-video-audio"></a>

作成する必要がある出力グループを特定したら、各出力グループに含めるビデオおよびオーディオエンコードの要件を特定する必要があります。ダウンストリームシステムは、これらの要件を制御します。

[アップストリームシステム](evaluate-upstream-system.md)を評価する前に、ダウンストリームシステムでこの作業を実行してください。ワークフローでの意思決定は、ダウンストリームシステムから始まり、アップストリームシステムに戻ります。

**各出力グループ内のビデオコーデックとオーディオコーデックを識別するには**

特定したすべての出力グループに対して、この手順を実行します。

1. ダウンストリームシステムから次の動画情報を取得します。
   + サポートされているビデオコーデック (またはコーデック)。
   + サポートできる最大ビットレートと最大解像度。

1. ダウンストリームシステムから次のオーディオ情報を取得します。
   + サポートされているオーディオコーデック (複数可)。
   + 各コーデックでサポートされているオーディオコーディングモード (2.0 など)。
   + オーディオでサポートされる最大ビットレート。
   + HLS または Microsoft Smooth 出力形式の場合、ダウンストリームシステムでオーディオがビデオにバンドルされているか、各オーディオが独自のレンディションに表示されるかを指定します。この情報は、MediaLive 出力でアセットを整理するときに必要になります。

1. ダウンストリームシステムから次の字幕情報を取得します。
   + サポートされている字幕形式。

1. 動画を確認します。ダウンストリームシステムが必要とするビデオコーデックと、この出力グループに対して MediaLive がサポートするビデオコーデックを比較します。「[出力タイプでサポートされているコーデック](outputs-supported-codecs.md)」の表を参照してください。ダウンストリームシステムで提供されているコーデックの少なくとも 1 つがサポートされていることを確認してください。

1. オーディオを確認します。ダウンストリームシステムが必要とするオーディオコーデックと、この出力グループに対して MediaLive がサポートするビデオコーデックを比較します。「[出力タイプでサポートされているコーデック](outputs-supported-codecs.md)」の表を参照してください。ダウンストリームシステムで提供されているコーデックの少なくとも 1 つがサポートされていることを確認してください。

1. 今のところ字幕形式の評価をスキップしてください。これらの要件は、[後のセクション](assess-uss-captions.md)で評価します。

1. 出力グループごとに生成できるビデオコーデックとオーディオコーデックを書き留めます。

1. トリックプレイトラックを実装するかどうかを決定します。詳細については、「[トリックプレイトラックを実装する](trick-play-solutions.md)」を参照してください。

**このステップの結果**

この手順を実行すると、作成する出力グループと、それらの出力グループがサポートできるビデオおよびオーディオコーデックがわかります。したがって、この例のような出力情報が必要です。


**例**  

|  出力グループ   |  ダウンストリームシステム  |  ダウンストリームシステムでサポートされるビデオコーデック  | ダウンストリームシステムでサポートされるオーディオコーデック | 
| --- | --- | --- | --- | 
|  HLS  |  MediaPackage  |  AVC  | AAC 2.0、Dolby Digital Plus | 
| RTMP | ソーシャルメディアサイト | AVC | AAC 2.0 | 
| アーカイブ | Amazon S3 | ダウンストリームシステムはコーデックを指示しません。必要なコーデックを選択します。 | ダウンストリームシステムはコーデックを指示しません。必要なコーデックを選択します。 | 

# 回復性要件の特定
<a name="plan-redundancy"></a>

回復性とは、問題が発生してもチャンネルが機能し続ける能力です。MediaLive には、ここで計画する必要がある 2 つの回復機能が含まれています。これらの機能のうち、どの機能を実装するかを決定する必要があります。この決定は、コンテンツに必要なソースの数に影響するため、ここで行う必要があります。これは、アップストリームシステムとのディスカッションが必要なためです。

## パイプラインの冗長性
<a name="decide-resil-pipeline"></a>

通常、チャネル処理パイプライン内の回復性を提供するために、2 つのパイプラインでチャネルを設定できます。2 つのパイプラインを設定するための要件については、「」を参照してください。

パイプラインの冗長性は、チャンネル全体と、チャンネルに接続されているすべての入力に適用される機能です。チャンネルの計画の早い段階で、パイプラインのセットアップ方法を選択する必要があります。

パイプライン冗長性を設定するには、チャンネルを*標準チャンネル*として設定し、2 つのエンコードパイプラインを持てるようにします。どちらのパイプラインも、ソースコンテンツを取り込み、出力を生成します。現在のパイプラインで障害が発生した場合、ダウンストリームシステムはコンテンツを受信していないことを検出し、他の出力に切り替えることができます。ダウンストリームシステムの中断はありません。MediaLive は、2 番目のパイプラインを数分以内に再起動します。

パイプラインの冗長性の詳細については、「」を参照してください[パイプラインの冗長性を実装する](plan-redundancy-mode.md)。

## 自動入力フェイルオーバー
<a name="decide-resil-aif"></a>

一部の入力では、チャネル内の 1 つの入力に回復性を提供するために、2 つの入力を自動入力フェイルオーバー*ペア*として設定できます。

自動入力フェイルオーバーは、個々の入力に適用される機能です。チャンネルを計画するときに、自動入力フェイルオーバーの実装について決定する必要はありません。後で、新しい入力をアタッチするとき、または既存の入力をアップグレードして自動入力フェイルオーバーを実装するときに実装できます。

自動入力フェイルオーバーを設定するには、入力*フェイルオーバーペア*として 2 つの入力 (まったく同じソースコンテンツを持つ) を設定します。このように設定すると、アップストリームシステム、またはアップストリームシステムとチャンネル間で障害が発生した場合の回復性が得られます。

入力ペアでは、入力の 1 つが*アクティブ*入力、もう 1 つが*スタンバイ*になります。MediaLive は、常に切り替える準備ができているように両方の入力を取り込みますが、通常はスタンバイ入力を直ちに破棄します。アクティブな入力に障害が発生すると、MediaLive は直ちにフェイルオーバーし、スタンバイ入力から処理を破棄するのではなく、スタンバイ入力から処理を開始します。

自動入力フェイルオーバーは、パイプラインの冗長性を備えたチャンネル (標準チャンネル)、またはパイプラインの冗長性がない (単一パイプラインチャンネル) に設定されたチャンネル (単一パイプラインチャンネル) に実装できます。

自動入力フェイルオーバーの詳細については、「[自動入力フェイルオーバーの実装](automatic-input-failover.md)」を参照してください。

## 2 つの機能の比較
<a name="resil-compare-features"></a>

以下は、パイプラインの冗長性と自動入力フェイルオーバーの比較です。
+ 各機能が扱う障害には、次のような違いがあります。

  パイプラインの冗長性は、MediaLive エンコーダパイプラインで障害が発生した場合に回復性を提供します。

  自動入力フェイルオーバーは、アップストリームシステム、またはアップストリームシステムと MediaLive 入力の間をつなぐネットワーク接続のいずれかで、MediaLive よりも先に障害が発生した場合に回復性を提供します。
+ どちらの機能にもコンテンツソースの 2 つのインスタンスが必要なので、いずれの場合もアップストリームシステムが 2 つのインスタンスを提供できる必要があります。

  パイプラインの冗長性により、2 つのソースは同じエンコーダから発信できます。

  自動入力フェイルオーバーでは、ソースは異なるエンコーダから発生する必要があり、そうしないと、両方のソースで同時に障害が発生し、入力フェイルオーバースイッチが失敗します。
+ パイプラインの冗長性は、チャンネル全体に適用されます。したがって、チャンネルを計画するときに実装するかどうかを決める必要があります。自動入力フェイルオーバーは、特定の入力タイプにのみ適用されます。したがって、例えば、最も重要な入力をアタッチした場合にのみ自動入力フェイルオーバーを実装できます。
+ 自動入力フェイルオーバーでは、ダウンストリームシステムが出力の 2 つのインスタンスを処理し、(障害が発生した場合に) 一方のインスタンスから他方のインスタンスに切り替えできる必要があります。例えば、MediaPackage は 2 つのインスタンスを処理できます。

  ダウンストリームシステムにこのロジックが組み込まれていない場合は、自動入力フェイルオーバーを実装できません。

# アップストリームシステムを評価する
<a name="evaluate-upstream-system"></a>

MediaLive ワークフローの計画の一環として、コンテンツのソースであるアップストリームシステムを評価して、MediaLive と互換性があることを確認する必要があります。次いで、ソースコンテンツを評価して、MediaLive が取り込むことができる形式と MediaLive が目的の出力に含められる形式が含まれていることを確認する必要があります。

「*」ソースコンテンツ「*」は、「*」コンテンツプロバイダー「*」から入手可能です。ソースコンテンツは、コンテンツプロバイダが制御する「*」アップストリームシステム「*」から提供されます。通常、コンテンツプロバイダーは既に特定されています。ソースコンテンツとアップストリームシステムの詳細については、「[MediaLive の仕組み](how-medialive-works-channels.md)」を参照してください。

**アップストリームシステムを評価するには**

1. コンテンツプロバイダに連絡して、アップストリームシステムに関する情報を取得します。この情報を使用して、MediaLive がアップストリームシステムに接続する能力を評価し、MediaLive がそのアップストリームシステムのソースコンテンツを使用する能力を評価します。

   取得および評価する情報の詳細については、以下のセクションを参照してください:
   + [ソース形式とパッケージングを評価する](uss-obtain-info.md)
   + [動画コンテンツを評価する](assess-uss-source.md)
   + [オーディオコンテンツを評価する](assess-uss-audio.md)
   + [字幕の評価](assess-uss-captions.md)

1. ソース コンテンツに対して特定したMediaLive入力タイプをメモします。

1. ソースストリームの次の 3 つの特性を書き留めます。この情報は、「[」チャンネルをセットアップするとき「](input-specification.md)」に必要になります:
   + ビデオコーデック
   + 動画の解像度 — SD、HD、または UHD
   + 最大入力ビットレート 

**このステップの結果**

このステップの終わりには、MediaLiveがコンテンツをインジェストできることを確信できるでしょう。さらに、次のことも確認できます:
+ ソース コンテンツを取り込むために作成するMediaLive入力のタイプ。
+ ソース (MediaLive入力) からビデオ、オーディオ、およびキャプションを抽出するために必要な情報。例えば：

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/evaluate-upstream-system.html)

# ソース形式とパッケージングを評価する
<a name="uss-obtain-info"></a>

ソース形式とパッケージングを評価する方法については、次の表を参照してください。列の各行を読みます。


****  

| 取得する情報 | 以下について確認してください | 
| --- | --- | 
| コンテンツプロバイダーが提供できるソースの数。 | 「[」回復性特徴量「](plan-redundancy.md)」を実装する予定の場合、必要な入力をコンテンツプロバイダーが提供できることを確認します:[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/uss-obtain-info.html) | 
| 配信形式とプロトコル指定した形式に適用されるMediaLive入力のタイプ | アップストリームシステムが配信でサポートする形式とプロトコルを調べます。この形式が 「[入力タイプ、プロトコル、アップストリームシステム](inputs-supported-formats.md)」 の表に載っていることを確認してください。[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/uss-obtain-info.html)CDI経由で配信されるコンテンツや「 AWS Elemental Link」から配信されるコンテンツについては、この情報を検証する必要はないことに注意してください。MediaLive は、これらの入力タイプを常に処理できます。 | 
| アップストリームシステムが最新の SDK を使用しているかどうか | コンテンツプロバイダーが、アップストリーム CDI ソースデバイス上で最新バージョンの 「[」「AWS CDI 」 SDK「](https://aws.amazon.com/media-services/resources/cdi/)」 を使用していることを確認してください。 | 
| ソースコンテンツがストリームアセットか VOD アセットか | ソースコンテンツがライブストリームか VOD アセットかを調べます。MediaLive が、指定した形式の配信をサポートしていることを確認します。「[ライブソースとファイルソースをサポート](inputs-live-vs-file.md)」 の表を参照してください。 | 
| コンテンツが暗号化されているかどうか | MediaLive では、暗号化されたコンテンツを HLS コンテンツからのみ取り込むことができます。ソースコンテンツが HLS で暗号化されている場合は、MediaLive がサポートする形式で暗号化されていることを確認してください。「[HLS ソースにおける暗号化されたソースコンテンツの処理](planning-hls-input-encrypted.md)」を参照してください。MediaLive が利用可能な暗号化形式をサポートしていない場合は、暗号化されていない形式でコンテンツを取得できるかどうかを調べます。 | 
| ソースコンテンツが RTP の場合のみ、FEC が含まれているかどうかです。 |  ソースコンテンツに FEC が含めることをお勧めします。その方が出力結果で視覚的な乱れが発生する可能性が減ります。  | 

# HLS ソースにおける暗号化されたソースコンテンツの処理
<a name="planning-hls-input-encrypted"></a>

MediaLive は、HTTP ライブストリーミングの仕様に従って暗号化された HLS ソースを取り込むことができます。

「**」サポートされる暗号化形式「**」

MediaLive は、暗号化された HLS ソースに対して次の形式をサポートしています。
+ ソースコンテンツは AES-128 で暗号化されます。MediaLive は AES-SAMPLE をサポートしていません。
+ ソースコンテンツは、静的キーまたは回転キーを使用して暗号化されます。
+ マニフェストには、以下の属性を持つ 「`#EXT-X-KEY `」 タグが含まれます:
  + 「`METHOD`」 属性は AES-128 を指定します。
  + URI は、暗号化キーのライセンスサーバーを指定します。
  + IV は空白か、または使用する初期化ベクトル (IV) を指定します。IV が空白の場合、MediaLive は 「`#EXT-X-MEDIA-SEQUENCE`」 タグ内の値を IV として使用します。
+ アップストリームシステムとライセンスサーバーの両方で認証情報 (ユーザー名とパスワード) が必要な場合は、両方のサーバーで同じ認証情報が使用されていることを確認します。MediaLive では、これら 2 つのサーバーについて異なる認証情報の設定をサポートしていません。

「**」 復号の仕組み「**」

コンテンツ所有者は、「`#EXT-X-KEY`」とメソッド（AES-128）、ライセンスサーバーへのURL、および初期化ベクトル（IV）を含むようにメインマニフェストを設定します。コンテンツ所有者は、ライセンスサーバーに暗号化キーを配置します。このソースを使用する MediaLive チャンネルが起動すると、MediaLive はメインマニフェストを取得し、ライセンスサーバーの URL に関する 「`#EXT-X-KEY `」 タグを読み取ります。

MediaLive は、ライセンスサーバーに接続し、暗号化キーを取得します。MediaLive は、アップストリームシステムからコンテンツのプルを開始し、暗号化キーと IV を使用してコンテンツを復号化します。

# 動画コンテンツを評価する
<a name="assess-uss-source"></a>

ビデオソースを評価する方法については、次の表を参照してください。列の各行を読みます。

**注記**  
CDI または AWS Elemental Link デバイスから配信されるビデオの評価を実行する必要はありません。これらのソースは MediaLive に常に受け入れられます。


****  

| 取得する情報 | 以下について確認してください | 
| --- | --- | 
| 使用可能なビデオコーデックまたは形式。 | パッケージ形式のビデオコーデックのリストに、少なくとも 1 つのビデオコーデックが含まれていることを確認します。「[入力タイプでサポートされているコーデック](inputs-supported-codecs-by-input-type.md)」を参照してください。サポートされている複数のコーデックでコンテンツが使用可能な場合は、使用する単一のビデオコーデックを決定します。ソースコンテンツから抽出できる動画アセットは 1 つだけです。 | 
| 最大予想ビットレート。 | ソースコンテンツの予想される最大ビットレートを処理するには、アップストリームシステムと MediaLive の間の帯域幅が十分であることを確認します。標準チャンネルを設定 (「[」パイプラインの冗長性「](plan-redundancy.md)」を実装) しようとする場合、パイプラインが 2 つになるので、帯域幅が予測される最大ビットレートの 2 倍であることを確認してください。 | 
| ストリームの途中でビデオの特性が変化するかどうか。 | 最良の結果を得るには、ビデオソースのビデオ特性がストリームの途中で変化しないことを確認します。例えば、コーデックを変更しないでください。フレームレートを変更しないでください。 | 

# オーディオコンテンツを評価する
<a name="assess-uss-audio"></a>

音源を評価する方法については、次の表を参照してください。列の各行を読みます。

**注記**  
CDI または AWS Elemental Link デバイスから配信されるオーディオの評価を実行する必要はありません。これらのソースは MediaLive に常に受け入れられます。


****  

| 取得する情報 | 以下について確認してください | 
| --- | --- | 
| 使用可能なオーディオコーデックまたは形式。 | 「[入力タイプでサポートされているコーデック](inputs-supported-codecs-by-input-type.md)」 のオーディオコーデックのリストに、少なくとも 1 つのオーディオコーデックが含まれていることを確認します。 | 
| 各コーデックで使用可能な言語。例えば、英語、フランス語。 | 提供したい言語を特定します。コンテンツプロバイダが提供できる言語を決定します。 | 
| 各コーデックで使用可能なコーディングモード (2.0 と 5.1 など)。 |  各オーディオ言語に適したオーディオコーディングモードを特定します。コンテンツプロバイダが提供できるコーディングモードを決定します。詳細については、「[」表の後にあるセクション「](#coding)」を参照してください。   | 
| ストリームの途中でオーディオの特性が変化するかどうか。 |  最良の結果を得るには、ソースコンテンツのオーディオ特性がストリームの途中で変化しないことを確認します。例えば、ソースのコーデックを変更しないでください。コーディングモードは変更しないでください。言語が消えてはいけません。  | 
| ソースコンテンツが HLS の場合、オーディオアセットがオーディオレンディショングループ内にあるか、ビデオと多重化されているか。 |  MediaLive は、個別のレンディショングループにあるオーディオアセットを取り込みますが、ビデオを含む単一のストリームに多重化することもできます。  | 

**「」コーディングモードを決定するには**  
同じ言語で複数のコーディングモードが使用可能な場合は、使用するモードを決定します。次のガイドラインに従ってください:
+ あるコーデックおよびコーディングモードで一部の言語を抽出し、別のコーデックおよびコーディングモードで他の言語を抽出できます。例えば、1 つまたは 2 つの言語を 5.1 コーディングモードで使用し、2.0 コーディングモードで他の言語を使用したい場合があります。
+ 同じ言語を複数回抽出できます。例えば、5.1 コーディングモードとコーディングモード 2.0 の両方で 1 つの言語が必要な場合があります。
+ 特定の言語で抽出するコーデックとコーディングモードを決定するときは、出力でその言語に必要なコーディングモードを検討してください。言語ごとに、ソースコンテンツのコーディングモードが出力のコーディングモードと一致する場合、コーディングモードを変換するためにオーディオをリミックスする必要がないため、常に最も簡単です。MediaLive はリミックスに対応していますが、リミックスはアドバンスト機能なのでオーディオの知識が必要です。

例えば、出力では、1 つの言語をコーディングモード 5.1 にしたい場合があります。コーディングモード 2.0 で他の言語を使用できるようにしたい場合があります。

例えば、以下のように抽出する選択が考えられます:
+ ドルビーデジタル 5.1、スペイン語
+ AAC 2.0 でフランス語と英語。

# 字幕の評価
<a name="assess-uss-captions"></a>

出力グループに字幕を含める場合は、MediaLive がソース内の字幕形式を使用して、出力に必要な字幕形式を生成できるかどうかを判断する必要があります。

字幕ソースに関する次の情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/assess-uss-captions.html)

**字幕要件を評価するには**

ワークフローについて「[」特定した出力グループ「](identify-downstream-system.md)」ごとの手順に従います。

1. 「[MediaLive でサポートされているキャプション](supported-captions.md)」 に移動し、出力グループに関するセクションを見つけます。例えば、「[HLSまたはMediaPackage出力でサポートされる字幕フォーマット](supported-formats-hls-output.md)」を見つけます。そのセクションの表で、最初の列を読んで、コンテンツプロバイダが提供している形式 (コンテナ) を見つけます。

1. 「*」ソース字幕入力「*」 列の各行を読み、そのソース形式で MediaLive がサポートする字幕形式を見つけます。

1. 次に、「*」サポートされている出力字幕「*」 列の各行を読み、MediaLive がソース形式から変換できる字幕形式を見つけます。

   「HLS 出力を生成し、ソースコンテンツが RTMP である場合、埋め込み字幕をバーンイン、埋め込み、または WebVTT に変換できます」というような意味の文が表示されます。

1. コンテンツプロバイダーからのソースコンテンツが、表の 「*」サポートされている字幕入力「*」 列にある形式のいずれかに一致することを確認します。例えば、ソースコンテンツに字幕が埋め込まれていることを確認します。

1. ダウンストリームシステムがサポートする字幕形式のリストを見つけます。このリストは、「[」特定した出力グループのエンコード要件を特定した「](identify-dss-video-audio.md)」ときに入手したものです。これらの出力形式の少なくとも 1 つが表の 「*」サポートされている出力字幕「*」 列に表示されていることを確認します。

   ソースコンテンツに一致するものがない場合、または出力にマッチしない場合、出力に字幕を含めることはできません。

例えば、HLS 出力グループを生成する必要があるとします。コンテンツプロバイダーが、字幕が埋め込まれた RTP 形式のコンテンツを提供できると仮定します。ダウンストリームシステムでは、HLS 出力の場合、出力に WebVTT 字幕を含める必要があると仮定します。

上記の手順に従って、HLS 出力の表を読みます。表のコンテナ列には、RTP 形式の行があります。ソース列を読み、埋め込み字幕がサポートされているソース形式であることを特定します。次いで、出力列の各行を読むと、埋め込み字幕を焼き付け、埋め込み、または WebVTT 字幕に変換できることがわかります。WebVTT 字幕は、ダウンストリームシステムが必要とする形式です。したがって、HLS 出力に字幕を含めることができるという結論になります。

# ソースコンテンツに関する情報を収集する
<a name="planning-content-extract"></a>

ソースコンテンツを評価し、そのコンテンツ内の適切なビデオ、オーディオ、および字幕のアセットを特定したら、それらのアセットに関する情報を取得する必要があります。必要な情報は、ソースの種類ごとに異なります。

MediaLive で[入力を作成する](medialive-inputs.md)ために、この情報は必要ありません。ただし、MediaLive でチャンネルに[入力をアタッチする](creating-a-channel-step2.md)ときに、この情報が必要になります。

**このステップの結果**  
このステップの実行後には、この例に示すようなソースコンテンツ情報が必要になります。


**例**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/planning-content-extract.html)

**Topics**
+ [CDI ソース内のコンテンツの識別](extract-contents-cdi.md)
+ [AWS Elemental Link ソース内のコンテンツを識別する](extract-contents-link.md)
+ [HLS ソース内のコンテンツの識別](extract-contents-hls.md)
+ [MediaConnect ソース内のコンテンツの識別](extract-content-emx.md)
+ [MP4 ソース内のコンテンツの識別](extract-contents-mp4.md)
+ [RTMP ソース内のコンテンツの識別](extract-contents-rtmp.md)
+ [RTP ソース内のコンテンツの識別](extract-contents-rtp.md)
+ [SMPTE 2110 ソース内のコンテンツの識別](extract-contents-s2110.md)
+ [SRT ソース内のコンテンツを識別する](extract-contents-srt.md)

# CDI ソース内のコンテンツの識別
<a name="extract-contents-cdi"></a>

CDI ソースのコンテンツは、常に非圧縮ビデオ、非圧縮オーディオ、および字幕で構成されます。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-contents-cdi.html)

# AWS Elemental Link ソース内のコンテンツを識別する
<a name="extract-contents-link"></a>

 AWS Elemental Link ソースのコンテンツは常に、1 つのビデオアセット、1 つのオーディオペア、およびオプションの字幕を含むトランスポートストリーム (TS) です。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-contents-link.html)

また、コンテンツに関する次の情報も入手してください。
+ 最大ビットレート。MediaLive でデバイスを設定するときに、このビットレートを調整できます。詳細については、「[セットアップ AWS Elemental Link](setup-devices.md)」を参照してください。
+ コンテンツにタイムコードが埋め込まれているかどうか。埋め込まれている場合は、そのタイムコードの使用を選択できます。詳細については、[「タイムコード設定」](https://docs.aws.amazon.com/medialive/latest/ug/timecode.html)[タイムコードとタイムスタンプの操作](timecode.md)を参照してください。
+ コンテンツに広告表示メッセージ (MediaLive が自動的に SCTE-35 メッセージに変換する SCTE-104 メッセージ) が含まれているかどうか。広告表示メッセージの詳細については、「[SCTE35メッセージの処理](scte-35-message-processing.md)」を参照してください。

# HLS ソース内のコンテンツの識別
<a name="extract-contents-hls"></a>

HLS コンテナ内のコンテンツは、常に 1 つのビデオレンディション (プログラム) のみを含むトランスポートストリーム (TS) です。

コンテンツプロバイダーから識別情報を取得します。


****  

|  アセット  |  Details  | 取得する情報 | 
| --- | --- | --- | 
| 動画 | 識別情報は必要ありません。MediaLive は常に 1 つのビデオアセットを抽出します。 |  | 
|  音声 | ソースには複数のオーディオ PIDs が含まれる場合があります。 | 必要な言語の PIDs または 3 文字の言語コードを取得します。オーディオアセットの PID を取得することをお勧めします。これらは、オーディオアセットを識別するより信頼性の高い方法です。 | 
| 字幕 | 埋め込み | チャネル番号の言語を取得します。たとえば、「チャネル 1 はフランス語」と入力します。 | 

# MediaConnect ソース内のコンテンツの識別
<a name="extract-content-emx"></a>

 AWS Elemental MediaConnect ソースのコンテンツは常にトランスポートストリーム (TS) です。TS は、1つのプログラム (SPTS) または複数のプログラム (MPTS) で構成されています。各プログラムには、動画、オーディオ、およびオプションの字幕の組み合わせが含まれています。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-content-emx.html)

# MP4 ソース内のコンテンツの識別
<a name="extract-contents-mp4"></a>

MP4 ソースのコンテンツは、常に 1 つのビデオトラック、1 つ以上のオーディオトラック、およびオプションの字幕で構成されます。

コンテンツプロバイダーから識別情報を取得します。


****  

|  アセット  |  Details  | 取得する情報 | 
| --- | --- | --- | 
| 動画 | 識別情報は必要ありません。MediaLive は常に 1 つのビデオアセットを抽出します。 | なし | 
|  音声 | ソースには、通常は言語ごとに 1 つずつ、複数のオーディオトラックが含まれる場合があります。 | 必要な言語のトラック番号または 3 文字の言語コードを取得します。 | 
| 字幕 | 埋め込み字幕は、ビデオトラックに埋め込まれているか、補助トラックに埋め込まれている場合があります。 | チャネル番号の言語を取得します。例えば、「チャンネル 1 はフランス語」です。 | 

# RTMP ソース内のコンテンツの識別
<a name="extract-contents-rtmp"></a>

この手順は、インターネットからの RTMP プッシュ入力とプル入力、および Amazon 仮想プライベートクラウからの RTMP 入力の両方に適用されます。RTMP 入力のコンテンツは、常に 1 つの動画、1 つのオーディオ、およびオプションの字幕で構成されます。

コンテンツプロバイダーから識別情報を取得します。


****  

|  アセット  |  Details  | 取得する情報 | 
| --- | --- | --- | 
| 動画 | 識別情報は必要ありません。MediaLive は常に 1 つのビデオアセットを抽出します。 | なし | 
|  音声 | 識別情報は必要ありません。MediaLive は常に 1 つのオーディオセットを抽出します。 | トラックの番号と言語を取得します。例えば、「トラック 1 はフランス語」などです。 | 
| 字幕 | 埋め込み字幕は、ビデオトラックに埋め込まれているか、補助トラックに埋め込まれている場合があります。 | チャネル番号の言語を取得します。例えば、「チャンネル 1 はフランス語」です。 | 

# RTP ソース内のコンテンツの識別
<a name="extract-contents-rtp"></a>

この手順は、インターネットからの RTP 入力と Amazon 仮想プライベートクラウド からの入力の両方に適用されます。RTP 入力のコンテンツは、常にトランスポートストリーム (TS) です。TS は、1つのプログラム (SPTS) または複数のプログラム (MPTS) で構成されています。各プログラムには、動画、オーディオ、およびオプションの字幕の組み合わせが含まれています。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-contents-rtp.html)

# SMPTE 2110 ソース内のコンテンツの識別
<a name="extract-contents-s2110"></a>

SMPTE 2110 ソースのコンテンツは、常に 1 つの動画アセット、0 個以上のオーディオアセット、0 個以上の字幕 (補助データ) アセットで構成されるストリームのセットです。各アセットは独自のストリームにあります。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-contents-s2110.html)

# SRT ソース内のコンテンツを識別する
<a name="extract-contents-srt"></a>

SRT 入力のコンテンツは常にトランスポートストリーム (TS) です。TS は、1つのプログラム (SPTS) または複数のプログラム (MPTS) で構成されています。各プログラムには、動画、オーディオ、およびオプションの字幕の組み合わせが含まれています。

コンテンツプロバイダーから識別情報を取得します。


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/extract-contents-srt.html)

# ダウンストリームシステムとの調整
<a name="setting-up-downstream-system"></a>

ワークフローの下流および上流システムを準備する最後のステップとして、下流システムのオペレーターと話し、情報を調整する必要があります。

MediaLive からの*出力*は、ダウンストリームシステムへの*入力*と見なされます。

セットアップは、出力グループおよびダウンストリームシステムのタイプごとに異なります。詳細については、「[セットアップ: 出力グループと出力の作成](medialive-outputs.md)」を参照し、作成する出力グループのタイプのセクションに進んでください。ダウンストリームシステムとの調整に関する情報をお読みください。

# チャネルでの出力の計画
<a name="planning-the-channel-in-workflow"></a>

トランスコード*ワークフロー*の計画の第 2 段階として AWS Elemental MediaLive チャンネルを計画してください。「[ワークフローでのアップストリームおよびダウンストリームシステムの準備](container-planning-uss-dss.md)」で説明したように、上流と下流のシステムをセットアップする第一段階はすでに実行済みであるはずです。

チャンネルには、さまざまな特性の出力、および幅広い動画機能を含めて構成する機能があります。しかし、これらの詳細を計画する前に、チャンネルの基本機能を計画してください。

**注記**  
出力側では、動画、オーディオ、字幕のストリーム、トラック、またはプログラムのそれぞれを*エンコード*として参照します。

**Topics**
+ [出力エンコードを特定する](planning-encodes.md)
+ [出力エンコードをソースにマッピングする](channel-map-output-source.md)
+ [エンコードの設計](designing-encodes.md)

# 出力エンコードを特定する
<a name="planning-encodes"></a>

ダウンストリームシステムを準備する際に、必要な[出力グループを特定](identify-downstream-system.md)しました。ここで、チャンネルの計画の一環として、作成を決定した各出力グループに含めるエンコードを特定する必要があります。*エンコード*は、出力内のオーディオ、動画、または字幕ストリームを参照します。

**Topics**
+ [ビデオエンコードを特定する](channel-planning-video-encodes.md)
+ [オーディオエンコードを特定する](channel-planning-audio-encodes.md)
+ [字幕エンコードを特定する](channel-planning-captions-encodes.md)
+ [出力グループのエンコードルールの概要](encode-rules.md)
+ [出力エンコードの計画の例](plan-encodes-example.md)

# ビデオエンコードを特定する
<a name="channel-planning-video-encodes"></a>

ビデオエンコードとそのコーデックの数を決定する必要があります。出力グループごとに、以下の手順に従います。

1. 出力グループで許可されるエンコードの最大数を決定します。出力グループのタイプごとに、次のルールが適用されます。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-planning-video-encodes.html)

1. 出力グループで複数のビデオエンコードが許可されている場合は、必要な数の動画を決定します。MediaLive が取り込む単一の動画ソースから複数の出力エンコードを作成できることに注意してください。

1. ビデオエンコードのコーデックを特定します。
   + ほとんどのタイプの出力グループでは、ダウンストリームシステムが各ビデオエンコードのコーデックを指示するので、この情報は[出力エンコードを特定](#channel-planning-video-encodes)したときに入手済みです。
   + アーカイブ出力グループでは、目的に合ったコーデックを決定します。

1. 各ビデオエンコードの解像度とビットレートを特定します。[出力エンコードを特定](#channel-planning-video-encodes)する際に、ダウンストリームシステムから要件または推奨事項を取得している可能性があります。

1. 各ビデオエンコードのフレームレートを特定します。複数のビデオエンコードを使用している場合は、使用する最小フレームレートの倍数である出力フレームレートを選択することで、互換性を確保できます。

   例:
   + 1 秒あたり 29.97 フレームと 59.94 フレームは互換性のあるフレームレートです。
   + 1 秒あたり 15、30、60 フレームは互換性のあるフレームレートです。
   + 1 秒あたり 29.97 フレームと 30 フレームは互換性*がありません*。
   + 1 秒あたり 30 フレームと 59.94 フレームは互換性*がありません*。

    

# オーディオエンコードを特定する
<a name="channel-planning-audio-encodes"></a>

オーディオエンコードの数を決定する必要があります。出力グループごとに、以下の手順に従います。

1. 出力グループで許可されるエンコードの最大数を決定します。出力グループのタイプごとに、次のルールが適用されます。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-planning-audio-encodes.html)

1. 出力グループで複数のオーディオエンコードが許可されている場合は、必要な数の動画を決定します。次のガイドラインが適用されます。
   + 出力コーデック、コーディングモード、および言語のそれぞれ異なる組み合わせが 1 つのエンコードです。

     MediaLive は、ソースにそのコーディングモードまたは上位モードが含まれている場合にのみ、特定のコーディングモードを生成できます。例えば、MediaLive は 1.0 または 2.0 のソースから 1.0 を作成できます。2.0 ソースから 5.1 を作成することはできません。
   + MediaLive は、ソースにその言語が含まれている場合にのみ、特定の言語を生成できます。
   + MediaLive は、特定の言語に対して複数のエンコードを生成できます。

     例えば、ドルビー 5.1 と AAC 2.0 にスペイン語を含めるように選択できます。
   + すべての言語でエンコード数を同じにする必要はありません。例えば、スペイン語には 2 つのエンコードを作成し、他の言語にはエンコードを 1 つだけ作成できます。

1. 各オーディオエンコードのビットレートを特定します。[出力エンコードを特定](#channel-planning-audio-encodes)する際に、ダウンストリームシステムから要件または推奨事項を取得している可能性があります。

# 字幕エンコードを特定する
<a name="channel-planning-captions-encodes"></a>

字幕エンコードの数を決定する必要があります。出力グループごとに、以下の手順に従います。

1. 出力グループで許可される字幕エンコードの最大数を決定します。出力グループのタイプごとに、次のルールが適用されます。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-planning-captions-encodes.html)

1. 各キャプション形式が属するカテゴリを特定します。[字幕カテゴリ](categories-captions.md) のリストを参照してください。例えば、WebVTT 字幕はサイドカー字幕です。

1. このカテゴリを使用して、出力グループで必要な字幕エンコードの数を特定します。
   + 埋め込み字幕の場合は、常に 1 つの字幕エンコードを作成します。
   + オブジェクトスタイルの字幕とサイドカー字幕の場合、含める形式と言語ごとに 1 つの字幕エンコードを作成します。

# 出力グループのエンコードルールの概要
<a name="encode-rules"></a>

 この表は、各出力グループのエンコードのルールをまとめたものです。最初の列で、必要な出力グループを見つけ、行全体で読み取ります。


****  

| 出力グループのタイプ | ビデオエンコードのルール | オーディオエンコードのルール | 字幕エンコードのルール | 
| --- | --- | --- | --- | 
| アーカイブ | 1 つ以上のビデオエンコード。 | 0 個以上のオーディオエンコード。 | 0 個以上の字幕エンコード。字幕は、埋め込み字幕またはオブジェクトスタイルの字幕です。 | 
| CMAF 取り込み | 1 つ以上のビデオエンコード。通常、複数のビデオエンコードがあります。 | 0 個以上のオーディオエンコード。通常、複数のオーディオエンコードがあります。 | 0 個以上の字幕エンコード。通常、オーディオ言語に一致する字幕言語があります。字幕は埋め込み字幕またはサイドカー字幕です。 | 
| フレームキャプチャ | 1 つのビデオエンコード。 | 0 個のオーディオエンコード。 | 0 個の字幕エンコード。 | 
| HLS または MediaPackage | 1 つ以上のビデオエンコード。通常、複数のビデオエンコードがあります。 | 0 個以上のオーディオエンコード。通常、複数のオーディオエンコードがあります。 | 0 個以上の字幕エンコード。通常、オーディオ言語に一致する字幕言語があります。字幕は、埋め込み字幕またはサイドカー字幕です。 | 
| Microsoft Smooth | 1 つ以上のビデオエンコード。通常、複数のビデオエンコードがあります。 | 0 個以上のオーディオエンコード。通常、複数のオーディオエンコードがあります。 | 0 個以上の字幕エンコード。通常、オーディオ言語に一致する字幕言語があります。字幕は常にサイドカー字幕です。 | 
| RTMP |  1 つのビデオエンコード。  | 0 または 1 個のオーディオエンコード。 | 0 または 1 個の字幕がエンコードされます。字幕は、埋め込み字幕またはオブジェクトスタイルの字幕です。 | 
| SRT コーラー |  1 つ以上のビデオエンコード。  | 1 つ以上のオーディオエンコード。 | 0 個以上の字幕エンコード。字幕は、埋め込み字幕またはオブジェクトスタイルの字幕です。 | 
| UDP |  1 つ以上のビデオエンコード。  | 1 つ以上のオーディオエンコード。 | 0 個以上の字幕エンコード。字幕は、埋め込み字幕またはオブジェクトスタイルの字幕です。 | 

一部の出力グループでは、オーディオのみの出力もサポートしています。「[出力のセットアップ](audio-only-outputs-and-outputgroups.md)」を参照してください。

一部の出力グループでは、Roku 仕様に従ってトリックプレイをサポートするために、JPEG ファイルを含む出力もサポートしています。「[イメージメディアプレイリスト仕様によるトリックプレイトラック](trick-play-roku.md)」を参照してください。

# 出力エンコードの計画の例
<a name="plan-encodes-example"></a>

この手順を実行したら、この例のような情報が必要になります。


**例**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/plan-encodes-example.html)

# 出力エンコードをソースにマッピングする
<a name="channel-map-output-source"></a>

チャンネルを計画する最初のステップで、各出力グループに必要なエンコードの数を特定しました。ここで、これらのエンコードの生成に使用できるソースのアセットを判断する必要があります。

**この手順の結果**  
この手順を実行した後、チャンネル内で作成する次の主要コンポーネントを特定します。
+ ビデオ入力セレクタ 
+ オーディオ入力セレクタ
+ 字幕入力セレクタ

これらのコンポーネントを特定することが、チャンネルの*入力*側を計画する際の最終ステップです。

**出力をソースにマップするには**

1. 生成したい*出力エンコードのリスト*を入手します。このリストは[前のステップ](planning-encodes.md)で作成したものです。このリストを整理して表にすると便利です。例えば：  
**例**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-map-output-source.html)

1. ソースコンテンツを評価して識別子を収集したときに作成した*ソースのリスト*を入手します。このようなリストの例については、「[アップストリームシステムを評価する](evaluate-upstream-system.md)」を参照してください。

1. 出力エンコードのテーブルに *Source* と *Identifier in source* というラベルを付けて 2 列を追加します。

1. エンコード (列 2) ごとに、そのエンコードを生成できる*ソースの一覧*が見つかります。ソースコーデックとそのソースコーデックの識別子を追加します。この例は、完成したテーブルを示しています。  
**例**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-map-output-source.html)

   チャンルを作成する際にこの情報を使用することになります。
   + ソース識別子とソース識別子情報は、[入力セレクタを作成](input-video-selector.md)するときに使用することになります。
   + その特性情報は、出力における[エンコードを作成](creating-a-channel-step6.md)するときに表示されます。

1. ソースアセットを特定したら、複数回使用されているアセットをグループ化し、重複を削除します。

1. 各アセットをタイプ別 (ビデオ、オーディオ、字幕) にラベル付けします。  
**例**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/channel-map-output-source.html)

## マッピングの例
<a name="channel-map-example"></a>

以下の図は、ソースアセットへの出力エンコードのマッピングを示しています。最初の図は、出力 (上部) とソース (下部) を示しています。他の 3 つの図は、同じ出力とソースをビデオ、オーディオ、字幕のマッピングで示したものです。

**エンコードとアセット**

![\[Diagram showing HLS, RTMP, and Archive sections with various video, audio, and caption sources.\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/images/channel-design-map-in-out.png)


**ビデオエンコードをアセットにマッピングする**

![\[Diagram showing video, audio, and caption sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/images/channel-design-map-in-out-V.png)


**オーディオエンコードをアセットにマッピングする**

![\[Diagram showing audio and video sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/images/channel-design-map-in-out-A.png)


**字幕エンコーディングをアセットにマッピングする**

![\[Diagram showing video, audio, and caption sources mapped to HLS, RTMP, and Archive outputs.\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/images/channel-design-map-in-out-C.png)


# エンコードの設計
<a name="designing-encodes"></a>

チャンネルの計画を立てる最初のステップで、各出力グループに含める動画、オーディオ、字幕のエンコードを[特定しました](planning-encodes.md)。2 番目のステップでは、これらのエンコードを各出力グループの出力に編成しました。

さて、この3番目のステップでは、各エンコードのコンフィギュレーションパラメーターを計画しなければならない。この計画の一環として、チャンネル内の同じ出力グループの出力と、チャンネル内の異なる出力グループの出力間でエンコードを共有する機会を特定します。

**この手順の結果**  
この手順を実行すると、作成する動画、オーディオ、字幕のエンコードのリストが表示されます。

**Topics**
+ [エンコードの計画](plan-encodes.md)
+ [エンコードの共有の機会を特定する](plan-encode-sharing.md)

# エンコードの計画
<a name="plan-encodes"></a>

「[出力エンコードをソースにマッピングする](channel-map-output-source.md)」 では、各出力グループで作成するエンコードの概略計画を立てました。以下は、そのステップからの計画の例で、出力とエンコード、およびそれらのエンコードのソースを示しています。

ある時点で、この表の 2 列目と 3 列目に識別されるエンコードの詳細を入力する必要があります。次の選択肢があります。
+ これらの詳細を今すぐ決定できます。
+ 実際にチャンネルを作成する際には、詳細は後で決定できます。これを行う場合は、テーブルの後の手順を読んで、エンコードの定義に何が含まれているかを理解することをお勧めします。


**例**  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/medialive/latest/ug/plan-encodes.html)

**各ビデオエンコードの詳細を設計する**

テーブル内の各ビデオエンコードについて、ソースアセット、コーデック、解像度、およびビットレートが既に特定されています。ここで、設定する必要がある他のすべてのエンコーディングパラメータを特定する必要があります。

個々のビデオエンコードごとに、以下の手順に従います。

1. 各出力のビデオエンコードセクションのフィールドを見てください。これらのフィールドを表示するには、次の手順を実行します。すべてのセクションを完了しない心配はありません。ビデオエンコードのフィールドのみを表示して、チャンネルをキャンセルします。
   + MediaLive のホームページで、**[Create channel]** (チャンネルの作成) を選択し、ナビゲーションペインで **[Channels]** (チャンネル) を選択します。

     以前にチャンネルを作成したことがある場合、ホームページは表示されません。その場合は、MediaLive のナビゲーションペインで、**[Channels]** (チャンネル) を選択し、**[Create channel]** (チャンネルの作成) を選択します。
   + **[Create channel]** (チャンネルの作成) ページの **[Output groups]** (出力グループ) で **[Add]** (追加) を選択します。

     チャンネルに関する前のセクションの手順を完了していなくても心配いりません。ビデオエンコードのフィールドをすべて表示しようとしています。
   + [**出力グループの追加**] セクションで [**HLS**] を選択し、[**確認**] を選択します。
   + [Output groups] (出力グループ) で、[**出力 1**] を選択します。
   + [**出力**] セクションで、[**ストリーミング設定**] セクションに移動し、[**動画**] リンクを選択します。
   + **[Codec settings]** (コーデック設定) フィールドで、このビデオエンコードに使用したいコーデックを選択します。追加のフィールドが表示されます。すべてのセクションのフィールドラベルを選択して、すべてのフィールドを表示します。

1. 各セクションで、デフォルトを変更する必要があるかどうかを判断します。
   + 多くのフィールドにはデフォルトが設定されています。つまり、フィールド値をそのまま残すことができます。フィールドとそのデフォルト値の詳細については、フィールドの横にある **[Info]** (情報) リンクを選択してください。
   + ダウンストリームシステムの期待に応えるために、ダウンストリームシステムの指示に従って設定する必要があるフィールドがあります。
   + 入力する値がこのチャンネルの出力料金に影響するフィールドがいくつかあります。次のようなものがあります。
     + **[Width]** (幅) と **[Height]** (高さ) のフィールド (ビデオの解像度を定義するフィールド)。
     + **[Frame rate]** (フレームレート) のフィールド。
     + [**レート制御**] のフィールド。

     料金については、「[MediaLive の料金表](https://aws.amazon.com/medialive/pricing/)」を参照してください。
   + 次のセクションでは、いくつかのフィールドについて読むことができます。
     + [**色空間**] フィールドの詳細については、「[複雑な色空間変換の処理](color-space.md)」を参照してください。
     + 追加のエンコード設定のフィールドについては、[拡張 VQ モードの設定](video-enhancedvq.md) を参照してください。
     + [**Rate Control (レート制御)**] フィールドについては、「[レート制御モードの設定](video-encode-ratecontrol.md)」を参照してください。このセクションには、このチャンネルの出力料金に影響を与えるフィールドがあります。料金の詳細については、「[MediaLive の料金表](https://aws.amazon.com/medialive/pricing/)」を参照してください。
     + [**Timecode**] フィールドの詳細については、「[タイムコードとタイムスタンプの操作](timecode.md)」を参照してください。

1. 変更する予定のすべてのフィールドの値について詳細にメモしておきます。これは、特定したすべてのビデオエンコードに対して行います。

**各オーディオエンコードの詳細を設計する**

テーブル内の各オーディオエンコードについて、ソースアセット、コーデック、解像度、およびビットレートが既に特定されています。ここで、設定する必要がある他のすべてのエンコーディングパラメータを特定する必要があります。

個々のオーディオエンコードごとに、以下の手順に従います。

1. 各出力のオーディオエンコードセクションのフィールドを見てください。これらのフィールドを表示するには、ビデオエンコードの場合と同じ手順を踏みますが、[**オーディオ 1**] リンクを選択します。

   オーディオエンコードでは、コードごとのフィールドは多くありません。しかし、コーデックのフィールドは互いに非常に異なります。

1. フィールドを調べて書き留めます。

**各字幕エンコードの詳細を設計する**

テーブル内の各字幕エンコードについて、ソース字幕、形式、言語が既に特定されています。ここで、設定する必要がある他のすべてのエンコーディングパラメータを特定する必要があります。

個々の字幕エンコードごとに、以下の手順に従います。

1. 各出力の字幕エンコードセクションのフィールドを見てください。これらのフィールドを表示するには、ビデオエンコードと同じ手順を実行しますが、デフォルトで字幕セクションがないため、[字幕を追加] を選択して字幕セクションを追加します。

   字幕エンコードでは、字幕形式ごとにフィールドの数が多くありません。しかし、フォーマットのフィールドは互いに非常に異なっています。

1. フィールドを調べて書き留めます。

# エンコードの共有の機会を特定する
<a name="plan-encode-sharing"></a>

すべての出力エンコーディングの詳細を既に特定している場合は、エンコードの共有の機会を特定できるようになりました。

後で詳細を特定する場合は、このセクションに戻って機会を特定することをお勧めします。

[出力間でのエンコードの共有](feature-share-encode.md) にて、エンコードの共有とエンコードのクローン作成についてお読みください。

チャンネルでエンコードを作成する際には、[ビデオエンコードを設定する](creating-a-channel-step6.md) で始めて、エンコード共有とエンコードのクローンを使用します。
+ 詳細なリストが表示されたら、エンコードの値を比較します。
  + 同じ値を持つ 2 つ (またはそれ以上) のエンコードがある場合は、そのエンコードを共有できます。チャンネルを作成するときに、このエンコードを 1 回の出力で作成できます。その後、そのエンコードを他の出力で再利用できます。エンコードを作成する手順では、再利用に関する詳細な手順について説明します。

    2 つのエンコードは、同じビデオソースの共有を含め、すべてのフィールドで同一である場合にのみ同一であることに注意してください。例えば、このセクションの前のサンプル表では、HLS の最初のビデオエンコードと RTMP のビデオエンコードが同じビデオソースを共有しています。
  + ほぼ同じ値を持つ 2 つ (またはそれ以上) のエンコードがある場合は、エンコードをクローン化して 2 番目のエンコードを作成し、2 番目のエンコードの特定のフィールドを変更できます。エンコードを作成する手順では、クローン作成に関する詳細な手順について説明します。

  次いで、ビデオエンコードの場合と同じ方法で、共有の機会を特定します。2 つのエンコードは、同じ音源の共有を含め、すべてのフィールドで同一である場合にのみ同一であることに注意してください。

  それぞれが属する出力グループおよび出力グループに注意して、共有するビデオエンコードを慎重に特定します。

次いで、ビデオエンコードの場合と同じ方法で、共有の機会を特定します。2 つのエンコードは、同じ字幕ソースの共有を含め、すべてのフィールドで同一である場合にのみ同一であることに注意してください。

**例**

チャンネル計画に関するこのセクションの前の手順の例に従って、これらの商談をこの表の最後の 2 つの列に表示すると判断できます。


****  

| ニックネームのエンコード |  エンコードの特徴  | ソース | 機会 | Action | 
| --- | --- | --- | --- | --- | 
| VideoA |  AVC 1920×1080、5 Mbps  | HEVC  |  | このエンコードを最初から作成します。 | 
| VideoB |  AVC 1280×720、3 Mbps  | HEVC  | クローン | VideoA のクローンを作成し、ビットレートを変更します。おそらく他のフィールドもあります。 | 
| VideoC | AVC 320×240、750 Kbps | HEVC  | クローン | VideoA をクローンして、ビットレートと他のフィールドを変更します。 | 
| AudioA | 192000 bps 英語 AAC 2.0 | AAC 2.0 |  | このエンコードを最初から作成します。 | 
| AudioB | 192000 bps フランス語 AAC 2.0 | AAC 2.0  | クローン | AudioA のクローンを作成し、オーディオセレクタ (ソースへの参照) をフランス語用のセレクタに変更します。他のフィールドも変更する可能性があります。 | 
| CaptionsA |  WebVTT (オブジェクトスタイル) を埋め込みから変換、英語  | 埋め込み |  | このエンコードを最初から作成します。 | 
| CaptionsB | WebVTT (オブジェクトスタイル) を埋め込みから変換、フランス語 | 埋め込み | クローン | CaptionsC のクローンを作成し、字幕セレクタ (ソースへの参照) をフランス語用のセレクタに変更します。他のフィールドも変更する可能性があります。 | 
| VideoD | AVC 1920×1080、5 Mbps  | HEVC  | 共有 | 動画を共有する OA | 
| AudioC | ドルビーデジタル 5.1、スペイン語 | ドルビーデジタル 5.1  |  | このエンコードを最初から作成します。 | 
| CaptionsC | RTMP CaptionInfo (埋め込みから変換)、スペイン語 | 埋め込み | クローン | CaptionsA のクローンを作成し、字幕セレクタ (ソースへの参照) をフランス語用のセレクタに変更します。他のフィールドも変更する可能性があります。 | 
| VideoE | AVC 1920×1080、5 Mbps | HEVC  | 共有 | 動画を共有する OA | 
| AudioD | ドルビーデジタル 2.0、スペイン語  | AAC 2.0 |  | このエンコードをゼロから作成します。ソースは Aa と同じですが出力コーデックは異なり、つまり、すべての設定フィールドが異なります。したがって、クローンを作成するメリットはありません。 | 
| AudioE | ドルビーデジタル 2.0、フランス語 | AAC 2.0  | クローン | AudioD のクローンを作成し、オーディオセレクタ (ソースへの参照) をフランス語用のセレクタに変更します。他のフィールドも変更する可能性があります。AudioB と AudioA の出力コーデックは異なるので、AuduioB のクローンを作成しないでください。したがって、クローンを作成するメリットはありません。 | 
| AudioF | ドルビーデジタル 2.0、英語 | AAC 2.0 | クローン | AudioD のクローンを作成し、オーディオセレクタ (ソースへの参照) をスペイン語語用のセレクタに変更します。他のフィールドも変更する可能性があります。AudioB と AudioF の出力コーデックは異なるので、AuduioB のクローンを作成しないでください。したがって、クローンを作成するメリットはありません。 | 
| CaptionsD | DVB-Sub (オブジェクトスタイル) をテレテキストから変換、6 言語。 | テレテキスト |  | このエンコードを最初から作成します。 | 