

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 3D 点群ラベル付けジョブの入力マニフェストファイル
<a name="sms-point-cloud-input-manifest"></a>

ラベル付けジョブの作成時には、入力マニフェストファイルを指定します。マニフェストの各行には、注釈担当者が行うタスクの 1 単位が記述されています。入力マニフェストファイルの形式は、タスクタイプによって異なります。
+ 3D 点群**オブジェクト検出**または**セマンティックセグメンテーション**のラベル付けジョブを作成する場合、入力マニフェストファイルのそれぞれの行には単一の 3D 点群フレームに関する情報を含めます。これは、*点群フレーム入力マニフェスト*と呼ばれます。詳細については[点群フレーム入力マニフェストファイルの作成](sms-point-cloud-single-frame-input-data.md)を参照してください。
+ 3D 点群の**オブジェクトの追跡**のラベル付けジョブを作成する場合、入力マニフェストファイルのそれぞれの行には 3D 点群フレームのシーケンスと関連データを含めます。これは、*点群シーケンス入力マニフェスト*と呼ばれます。詳細については[点群シーケンス入力マニフェストの作成](sms-point-cloud-multi-frame-input-data.md)を参照してください。

# 点群フレーム入力マニフェストファイルの作成
<a name="sms-point-cloud-single-frame-input-data"></a>

マニフェストは UTF-8 でエンコードされたファイルであり、その各行は完全かつ有効な JSON オブジェクトです。各行は、標準の改行 \$1n や \$1r\$1n で区切られています。各行は有効な JSON オブジェクトにする必要があるため、エスケープされない改行文字を使用することはできません。単一フレーム入力マニフェストファイルでは、マニフェストのそれぞれの行に単一の点群フレームのデータを含めます。点群フレームデータは、バイナリ形式または ASCII 形式で保存できます (「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照)。これは、3D 点群オブジェクトの検出とセマンティックセグメンテーションに必要なマニフェストファイルの形式です。また、必要に応じて、それぞれの点群フレームにカメラのセンサーフュージョンデータを含めることもできます。

Ground Truth は、すべてのモダリティで[ワールド座標系](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system)での点群とビデオカメラのセンサーフュージョンをサポートしています。3D センサーの外部マトリックス (LiDAR の外部マトリックスなど) を取得できる場合は、外部マトリックスを使用して 3D 点群フレームをワールド座標系に変換することをお勧めします。詳細については、「[センサーフュージョン](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion)」を参照してください。

ただし、点群をワールド座標系で取得できない場合は、データが収集された元の座標系で座標を指定できます。センサーフュージョン用のカメラデータを含める場合は、LiDAR センサーとカメラの姿勢をワールド座標系で指定することをお勧めします。

単一フレーム入力マニフェストファイルを作成するには、ワーカーにラベルを付けさせる各点群フレームの場所を `source-ref` キーを使用して指定します。また、`source-ref-metadata` キーを使用して、データセットの形式、そのフレームのタイムスタンプ、必要に応じてセンサーフュージョンデータとビデオカメラの画像を指定する必要があります。

次の例は、単一の点群フレームのラベル付けジョブの入力マニフェストファイルに使用する構文を示しています。この例では、2 つの点群フレームが含まれています。各パラメータの詳細については、この例の下の表を参照してください。

**重要**  
入力マニフェストファイルの各行は、[JSON Lines](http://jsonlines.org/) 形式である必要があります。次のコードブロックは、2 つの JSON オブジェクトを含む入力マニフェストファイルを示しています。各 JSON オブジェクトは、1 つの点群フレームをポイントし、詳細を提供するために使用されます。JSON オブジェクトは読みやすく拡張されていますが、入力マニフェストファイルを作成するときは、各 JSON オブジェクトを 1 行に収めるように最小化する必要があります。このコードブロックの下に例を挙げます。

```
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame1.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861644.759115,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame2.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861632.759133,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
```

入力マニフェストファイルを作成するときは、1 行に収まるように JSON オブジェクトを折りたたむ必要があります。例えば、上記のコードブロックは、入力マニフェストファイルに次のように表示されます。

```
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame1.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861644.759115,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame2.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861632.759133,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
```

次の表に、入力マニフェストファイルに含めることができるパラメータを示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `source-ref`  |  はい  |  String **使用できる文字列値の形式**:  `s3://<bucket-name>/<folder-name>/point-cloud-frame-file`  |  Amazon S3 での単一の点群フレームの場所。  | 
|  `source-ref-metadata`  |  はい  |  JSON オブジェクト **使用できるパラメータ**:  `format`, `unix-timestamp`, `ego-vehicle-pose`, `position`, `prefix`, `images`  |  このパラメータを使用して、`source-ref` の点群に関する追加情報やセンサーフュージョン用のカメラデータを含めます。  | 
|  `format`  |  いいえ  |  String **使用できる文字列値**: `"binary/xyz"`、`"binary/xyzi"`、`"binary/xyzrgb"`、`"binary/xyzirgb"`、`"text/xyz"`、`"text/xyzi"`、`"text/xyzrgb"`、`"text/xyzirgb"` **デフォルト値**:  `source-ref` で指定されているファイルの拡張子が .bin の場合は `binary/xyzi` `source-ref` で指定されているファイルの拡張子が .txt の場合は `text/xyzi`  |  このパラメータを使用して、点群データの形式を指定します。詳細については、「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照してください。  | 
|  `unix-timestamp`  |  はい  |  Number UNIX タイムスタンプ。  |  UNIX タイムスタンプは、1970 年 1 月 1 日からセンサーでデータが収集された UTC 時間までの秒数です。  | 
|  `ego-vehicle-pose`  |  いいえ  |  JSON オブジェクト  |  点群データの収集に使用されたデバイスの姿勢。このパラメータの詳細については、「[入力マニフェストに車両の姿勢の情報を含める](#sms-point-cloud-single-frame-ego-vehicle-input)」を参照してください。  | 
|  `prefix`  |  いいえ  |  String **使用できる文字列値の形式**:  `s3://<bucket-name>/<folder-name>/`  |  Amazon S3 でカメラの画像などのメタデータがこのフレームに格納される場所。 このプレフィックスは、スラッシュ (`/`) で終わる必要があります。  | 
|  `images`  |  いいえ  |  リスト  |  センサーフュージョンに使用するカメラのカラー画像を示すパラメータのリスト。このリストには、最大 8 個の画像を含めることができます。各画像に必要なパラメータの詳細については、「[入力マニフェストにカメラのデータを含める](#sms-point-cloud-single-frame-image-input)」を参照してください。  | 

## 入力マニフェストに車両の姿勢の情報を含める
<a name="sms-point-cloud-single-frame-ego-vehicle-input"></a>

自動運転車両の位置を使用して、点群データの収集に使用された車両の位置に関する情報を提供します。Ground Truth は、この情報を使用して LiDAR の外部マトリックスを計算します。

Ground Truth は、外部マトリックスを使用して、3D シーンおよび 2D イメージでラベルを投影します。詳細については、「[センサーフュージョン](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion)」を参照してください。

次の表に、自動運転車両の情報を含めるときに必要な `position` および向き (`heading`) のパラメータの詳細を示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  |  自動運転車両のワールド座標系での並進ベクトル。  | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  周囲を検知する車両に搭載されたデバイスやセンサーの基準のフレームの向き。座標系の[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## 入力マニフェストにカメラのデータを含める
<a name="sms-point-cloud-single-frame-image-input"></a>

フレームにビデオカメラのデータを含める場合は、以下のパラメータを使用してそれぞれの画像に関する情報を入力します。以下の表の**必須**列は、入力マニフェストファイルの `source-ref-metadata` に `images` パラメータが含まれている場合に適用されます。入力マニフェストファイルに画像を含めることは必須ではありません。

カメラの画像を含める場合は、画像を収集するために使用したカメラの `position` と `heading` についての情報をワールド座標系で含める必要があります。

画像がゆがんでいる場合、Ground Truth は、入力マニフェストファイルで画像について入力した情報 (ゆがみ係数 (`k1`、`k2`、`k3`、`k4`、`p1`、`p1`)、カメラモデル、カメラの内部マトリックスなど) を使用して、自動でゆがみを補正することができます。内部マトリックスは、焦点距離 (`fx`、`fy`) と主点 (`cx`、`cy)`) で構成されます。Ground Truth がカメラの内部マトリックスを使用する方法については、「[内部マトリックス](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-intrinsic)」を参照してください。ゆがみ係数が含まれていない場合、Ground Truth は画像のゆがみを補正しません。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `image-path`  |  はい  |  String **形式の例**:  `<folder-name>/<imagefile.png>`  |  Amazon S3 での画像ファイルの相対パス。この相対パスは `prefix` で指定したパスに追加されます。  | 
|  `unix-timestamp`  |  はい  |  Number  |  UNIX タイムスタンプは、1970 年 1 月 1 日からカメラでデータが収集された UTC 時間までの秒数です。  | 
|  `camera-model`  |  いいえ  |  文字列: **使用できる値**: `"pinhole"`, `"fisheye"` **デフォルト**  `"pinhole"`  |  画像の収集に使用したカメラのモデル。この情報は、カメラの画像のゆがみを補正するために使用されます。  | 
|  `fx, fy`  |  はい  |  数字  |  カメラの x (`fx`) 方向と y (`fy`) 方向の焦点距離。  | 
|  `cx, cy`  |  はい  | 数字 |  主点の x (`cx`) 座標と y (`cy`) 座標。  | 
|  `k1, k2, k3, k4`  |  いいえ  |  Number  |  放射方向ゆがみ係数。**魚眼**カメラモデルと**ピンホール**カメラモデルの両方でサポートされています。  | 
|  `p1, p2`  |  いいえ  |  Number  |  接線方向ゆがみ係数。**ピンホール**カメラモデルでサポートされています。  | 
|  `skew`  |  いいえ  |  Number  |  画像のスキューを測定するパラメータ。  | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  | 画像を収集する車両に搭載されたカメラの基準のフレームの位置または原点。 | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  画像を収集する車両に搭載されたカメラの基準のフレームの向き。ワールド座標系の[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## 点群フレームの制限
<a name="sms-point-cloud-single-frame-limits"></a>

入力マニフェストファイルには、最大 100,000 個の点群フレームを含めることができます。3D 点群のラベル付けジョブは、Ground Truth の他のタスクタイプよりも前処理に時間がかかります。詳細については、「[ジョブの前処理時間](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time)」を参照してください。

# 点群シーケンス入力マニフェストの作成
<a name="sms-point-cloud-multi-frame-input-data"></a>

マニフェストは UTF-8 でエンコードされたファイルであり、その各行は完全かつ有効な JSON オブジェクトです。各行は、標準の改行 \$1n や \$1r\$1n で区切られています。各行は有効な JSON オブジェクトにする必要があるため、エスケープされない改行文字を使用することはできません。点群シーケンス入力マニフェストファイルでは、マニフェストのそれぞれの行に点群フレームのシーケンスを含めます。シーケンスの各フレームの点群データは、バイナリ形式または ASCII 形式で保存できます。詳細については、「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照してください。これは、3D 点群オブジェクトの追跡に必要なマニフェストファイルの形式です。また、必要に応じて、それぞれの点群フレームに点の属性とカメラのセンサーフュージョンデータを含めることもできます。シーケンス入力マニフェストファイルを作成する場合は、LiDAR とビデオカメラのセンサーフュージョンデータを[ワールド座標系](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system)で指定する必要があります。

次の例は、マニフェストの各行がシーケンスファイルである場合に入力マニフェストファイルに使用する構文を示しています。入力マニフェストファイルの各行は、[JSON Lines](http://jsonlines.org/) 形式である必要があります。

```
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq1.json"}
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq2.json"}
```

点群フレームの各シーケンスのデータは、JSON データオブジェクトに格納する必要があります。シーケンスファイルに使用する形式の例を以下に示します。各フレームに関する情報は JSON オブジェクトとして含め、`frames` にそのリストを記述します。これは、2 つの点群フレームファイル、`frame300.bin` と `frame303.bin` があるシーケンスファイルの例です。*...* は、追加フレームの情報を含める場所を指定する際に使用されます。シーケンス内のフレームごとに JSON オブジェクトを追加します。

次のコードブロックには、単一シーケンスファイルの JSON オブジェクトが含まれています。JSON オブジェクトは読みやすいように拡張されています。

```
{
  "seq-no": 1,
  "prefix": "s3://amzn-s3-demo-bucket/example_lidar_sequence_dataset/seq1/",
  "number-of-frames": 100,
  "frames":[
    {
        "frame-no": 300, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame300.bin", 
        "format": "binary/xyzi", 
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        }, 
        "images": [
        {
            "image-path": "example_images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    },
    {
        "frame-no": 303, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame303.bin", 
        "format": "text/xyzi", 
        "ego-vehicle-pose":{...}, 
        "images":[{...}]
    },
     ...
  ]
}
```

次の表は、シーケンスファイルの最上位のパラメータについて詳しく説明しています。シーケンスファイルの個々のフレームに必要なパラメータの詳細については、「[個々の点群フレームのパラメータ](#sms-point-cloud-multi-frame-input-single-frame)」を参照してください。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `seq-no`  |  はい  |  整数  |  シーケンスの連番。  | 
|  `prefix`  |  はい  |  String **使用できる値**: `s3://<bucket-name>/<prefix>/`  |  シーケンスファイルが置かれている Amazon S3 の場所。 このプレフィックスは、スラッシュ (`/`) で終わる必要があります。  | 
|  `number-of-frames`  |  はい  |  整数  |  シーケンスファイルに含まれているフレームの総数。この数は、次の行の `frames` パラメータのリストに含まれているフレームの総数と一致する必要があります。  | 
|  `frames`  |  はい  |  JSON オブジェクトのリスト  |  フレームデータのリスト。リストの長さは `number-of-frames` と一致する必要があります。ワーカー UI では、シーケンスのフレームはこの配列のフレームと同じ順序になります。 各フレームの形式の詳細については、「[個々の点群フレームのパラメータ](#sms-point-cloud-multi-frame-input-single-frame)」を参照してください。  | 

## 個々の点群フレームのパラメータ
<a name="sms-point-cloud-multi-frame-input-single-frame"></a>

次の表に、入力マニフェストファイルに含めることができるパラメータを示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  説明  | 
| --- | --- | --- | --- | 
|  `frame-no`  |  いいえ  |  整数  |  フレームの番号。これは、シーケンス内のフレームを識別するために顧客によって指定される任意の識別子です。Ground Truth では使用されません。  | 
|  `unix-timestamp`  |  はい  |  Number  |  UNIX タイムスタンプは、1970 年 1 月 1 日からセンサーでデータが収集された UTC 時間までの秒数です。 各フレームのタイムスタンプは異なっていなければならず、タイムスタンプは直方体の補間に使用されるため、順次である必要があります。データが収集されたときの実際のタイムスタンプであることが理想です。実際のタイムスタンプを使用できない場合は、シーケンスファイルの最初のフレームがシーケンスの最初のタイムスタンプに対応する、増分シーケンスのタイムスタンプを使用する必要があります。  | 
|  `frame`  |  はい  |  String **形式の例** `<folder-name>/<sequence-file.json>`  |  Amazon S3 でのシーケンスファイルの相対パス。この相対パスは `prefix` で指定したパスに追加されます。  | 
|  `format`  |  いいえ  |  String **使用できる文字列値**: `"binary/xyz"`、`"binary/xyzi"`、`"binary/xyzrgb"`、`"binary/xyzirgb"`、`"text/xyz"`、`"text/xyzi"`、`"text/xyzrgb"`、`"text/xyzirgb"` **デフォルト値**:  `source-ref` で指定されているファイルの拡張子が .bin の場合は `binary/xyzi` `source-ref` で指定されているファイルの拡張子が .txt の場合は `text/xyzi`  |  このパラメータを使用して、点群データの形式を指定します。詳細については、「[使用できる 3D の raw データ形式](sms-point-cloud-raw-data-types.md)」を参照してください。  | 
|  `ego-vehicle-pose`  |  いいえ  |  JSON オブジェクト  |  点群データの収集に使用されたデバイスの姿勢。このパラメータの詳細については、「[入力マニフェストに車両の姿勢の情報を含める](#sms-point-cloud-multi-frame-ego-vehicle-input)」を参照してください。  | 
|  `prefix`  |  いいえ  |  String **使用できる文字列値の形式**:  `s3://<bucket-name>/<folder-name>/`  |  Amazon S3 でカメラの画像などのメタデータがこのフレームに格納される場所。 このプレフィックスは、スラッシュ (`/`) で終わる必要があります。  | 
|  `images`  |  いいえ  |  リスト  |  センサーフュージョンに使用するカメラのカラー画像を示すパラメータのリスト。このリストには、最大 8 個の画像を含めることができます。各画像に必要なパラメータの詳細については、「[入力マニフェストにカメラのデータを含める](#sms-point-cloud-multi-frame-image-input)」を参照してください。  | 

## 入力マニフェストに車両の姿勢の情報を含める
<a name="sms-point-cloud-multi-frame-ego-vehicle-input"></a>

自動運転車両の位置を使用して、点群データの収集に使用された車両の姿勢に関する情報を含めます。Ground Truth は、この情報を使用して LiDAR の外部マトリックスを計算します。

Ground Truth は、外部マトリックスを使用して、3D シーンおよび 2D イメージでラベルを投影します。詳細については、「[センサーフュージョン](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion)」を参照してください。

次の表に、自動運転車両の情報を含めるときに必要な `position` および向き (`heading`) のパラメータの詳細を示します。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  |  自動運転車両のワールド座標系での並進ベクトル。  | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  周囲を検知する車両に搭載されたデバイスやセンサーの基準のフレームの向き。座標系の[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## 入力マニフェストにカメラのデータを含める
<a name="sms-point-cloud-multi-frame-image-input"></a>

フレームにカメラのカラーデータを含める場合は、以下のパラメータを使用してそれぞれの画像に関する情報を入力します。以下の表の**必須**列は、入力マニフェストファイルに `images` パラメータが含まれている場合に適用されます。入力マニフェストファイルに画像を含めることは必須ではありません。

カメラの画像を含める場合は、画像を収集するために使用したカメラの `position` と向き (`heading`) についての情報を含める必要があります。

画像がゆがんでいる場合、Ground Truth は、入力マニフェストファイルで画像について入力した情報 (ゆがみ係数 (`k1`、`k2`、`k3`、`k4`、`p1`、`p1`)、カメラモデルと焦点距離 (`fx`、`fy`)、主点 (`cx`、`cy)`) などを使用して、自動でゆがみを補正することができます。これらの係数や画像のゆがみ補正の詳細については、「[Camera calibration With OpenCV](https://docs.opencv.org/2.4.13.7/doc/tutorials/calib3d/camera_calibration/camera_calibration.html)」を参照してください。ゆがみ係数が含まれていない場合、Ground Truth は画像のゆがみを補正しません。


****  

|  [Parameter] (パラメータ)  |  [Required] (必須)  |  使用できる値  |  [Description] (説明)  | 
| --- | --- | --- | --- | 
|  `image-path`  |  はい  |  String **形式の例**:  `<folder-name>/<imagefile.png>`  |  Amazon S3 での画像ファイルの相対パス。この相対パスは `prefix` で指定したパスに追加されます。  | 
|  `unix-timestamp`  |  はい  |  Number  |  画像のタイムスタンプ。  | 
|  `camera-model`  |  いいえ  |  文字列: **使用できる値**: `"pinhole"`, `"fisheye"` **デフォルト**  `"pinhole"`  |  画像の収集に使用したカメラのモデル。この情報は、カメラの画像のゆがみを補正するために使用されます。  | 
|  `fx, fy`  |  はい  |  数字  |  カメラの x (`fx`) 方向と y (`fy`) 方向の焦点距離。  | 
|  `cx, cy`  |  はい  | 数字 |  主点の x (`cx`) 座標と y (`cy`) 座標。  | 
|  `k1, k2, k3, k4`  |  いいえ  |  Number  |  放射方向ゆがみ係数。**魚眼**カメラモデルと**ピンホール**カメラモデルの両方でサポートされています。  | 
|  `p1, p2`  |  いいえ  |  Number  |  接線方向ゆがみ係数。**ピンホール**カメラモデルでサポートされています。  | 
|  `skew`  |  いいえ  |  Number  |  画像の既知のスキューを測定するパラメータ。  | 
|  `position`  |  はい  |  JSON オブジェクト **必須パラメータ**: `x`、`y`、および `z`。これらのパラメータには数値を入力します。  |  画像を収集する車両に搭載されたカメラの基準のフレームの位置または原点。  | 
|  `heading`  |  はい  |  JSON オブジェクト **必須パラメータ**: `qx`、`qy`、`qz` および `qw`。これらのパラメータには数値を入力します。  |  画像を収集する車両に搭載されたカメラの基準のフレームの向き。[クォータニオン](https://en.wikipedia.org/wiki/Quaternion) (`qx`、`qy`、`qz`、`qw`) で測定されます。  | 

## シーケンスファイルと点群フレームの制限
<a name="sms-point-cloud-multi-frame-limits"></a>

入力マニフェストファイルには、最大 100,000 個の点群フレームのシーケンスを含めることができます。各シーケンスファイルに最大 500 個の点群フレームを含めることができます。

3D 点群のラベル付けジョブは、Ground Truth の他のタスクタイプよりも前処理に時間がかかることに注意してください。詳細については、「[ジョブの前処理時間](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time)」を参照してください。