

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Archivos de manifiesto de entrada para trabajos de etiquetado en nubes de puntos 3D
<a name="sms-point-cloud-input-manifest"></a>

Al crear un trabajo de etiquetado, debe proporcionar un archivo de manifiesto de entrada donde cada línea del manifiesto describe una unidad de tarea que deben completar los anotadores. El formato del archivo de manifiesto de entrada depende del tipo de tarea. 
+ Si va a crear un trabajo de **detección de objetos** en nubes de puntos 3D o un trabajo de etiquetado de **segmentación semántica**, cada línea del archivo de manifiesto de entrada contiene información sobre un único fotograma de nube de puntos 3D. Esto se denomina *manifiesto de entrada de fotograma de nube de puntos*. Para obtener más información, consulte [Crear un archivo de manifiesto de entrada de fotograma de nube de puntos](sms-point-cloud-single-frame-input-data.md). 
+ Si va a crear un trabajo de etiquetado de **seguimiento de objetos** en nubes de puntos 3D, cada línea del archivo de manifiesto de entrada contiene una secuencia de fotogramas de nube de puntos 3D y datos asociados. Esto se denomina *manifiesto de entrada de secuencia de nube de puntos*. Para obtener más información, consulte [Crear un manifiesto de entrada de secuencia de nube de puntos](sms-point-cloud-multi-frame-input-data.md). 

# Crear un archivo de manifiesto de entrada de fotograma de nube de puntos
<a name="sms-point-cloud-single-frame-input-data"></a>

El manifiesto es un archivo con codificación UTF-8 donde cada línea es un objeto JSON completo y válido. Cada línea se delimita con un salto de línea estándar, \$1n o \$1r\$1n. Dado que cada línea tiene que ser un objeto JSON válido, no puede tener caracteres de salto de línea sin escape. En el archivo de manifiesto de entrada de fotograma único, cada línea del manifiesto contiene datos para un fotograma de nube de puntos único. Los datos del fotograma de nube de puntos se pueden almacenar en formato binario o ASCII (consulte [Formatos de datos 3D sin procesar aceptados](sms-point-cloud-raw-data-types.md)). Este es el formato de archivo de manifiesto necesario para la detección de objetos y la segmentación semántica de nube de puntos 3D. Opcionalmente, también puede proporcionar datos de fusión de sensores de cámara para cada fotograma de nube de puntos. 

Ground Truth es compatible con la fusión de sensores de cámara de vídeo y nube de puntos en el [sistema de coordenadas mundial](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system) para todas las modalidades. Si puede obtener el sensor 3D extrínseco (como un LiDAR extrínseco), le recomendamos que transforme los fotogramas de nube de puntos 3D en el sistema de coordenadas mundial utilizando el extrínseco. Para obtener más información, consulte [Fusión de sensores](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion). 

Sin embargo, si no puede obtener una nube de puntos en el sistema de coordenadas mundial, puede proporcionar coordenadas en el sistema de coordenadas original en el que se capturaron los datos. Si proporciona datos de la cámara para la fusión de sensores, se recomienda proporcionar la posición de la cámara y el sensor LiDAR en el sistema de coordenadas mundial. 

Para crear un archivo de manifiesto de entrada de un solo fotograma, debe identificar la ubicación de cada fotograma de nube de puntos que desea que los trabajadores etiqueten con la clave `source-ref`. Además, debe usar la clave `source-ref-metadata` para identificar el formato del conjunto de datos, una marca de tiempo para ese fotograma y, opcionalmente, los datos de fusión de sensores y las imágenes de la cámara de vídeo.

En el ejemplo siguiente se muestra la sintaxis utilizada para un archivo de manifiesto de entrada de un trabajo de etiquetado en nubes de puntos de fotograma único. El ejemplo incluye dos fotogramas de nube de puntos. Para obtener más información sobre cada parámetro, consulte la tabla que sigue a este ejemplo. 

**importante**  
Cada línea del archivo de manifiesto de entrada debe estar en formato de [líneas JSON](http://jsonlines.org/). En el siguiente bloque de código se muestra un archivo de manifiesto de entrada con dos objetos JSON. Cada objeto JSON se utiliza para apuntar a un fotograma de nube de puntos único y proporcionar detalles sobre él. Se han ampliado los objetos JSON para facilitar la lectura, pero debe minimizar cada objeto JSON para que quepa en una sola línea al crear un archivo de manifiesto de entrada. En este bloque de código se proporciona un ejemplo.

```
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame1.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861644.759115,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame2.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861632.759133,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
```

Cuando crea un archivo de manifiesto de entrada debe contraer los objetos JSON para que quepan en una sola línea. Por ejemplo, el bloque de código anterior aparecería de la siguiente manera en un archivo de manifiesto de entrada:

```
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame1.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861644.759115,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame2.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861632.759133,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
```

La siguiente tabla muestra los parámetros que puede incluir en el archivo de manifiesto de entrada:


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `source-ref`  |  Sí  |  Cadena **Formato de valor de cadena aceptado**:  `s3://<bucket-name>/<folder-name>/point-cloud-frame-file`  |  La ubicación de Amazon S3 de un fotograma de nube de puntos único.  | 
|  `source-ref-metadata`  |  Sí  |  Objeto JSON **Parámetros aceptados**:  `format`, `unix-timestamp`, `ego-vehicle-pose`, `position`, `prefix`, `images`  |  Utilice este parámetro para incluir información adicional sobre la nube de puntos en `source-ref` y para proporcionar datos de la cámara para la fusión de sensores.   | 
|  `format`  |  No  |  Cadena **Valores de cadena aceptados**: `"binary/xyz"`, `"binary/xyzi"`, `"binary/xyzrgb"`, `"binary/xyzirgb"`, `"text/xyz"`, `"text/xyzi"`, `"text/xyzrgb"`, `"text/xyzirgb"` **Valores predeterminados**:  Cuando el archivo identificado en `source-ref` tiene una extensión .bin, `binary/xyzi` Cuando el archivo identificado en `source-ref` tiene una extensión .txt, `text/xyzi`  |  Utilice este parámetro para especificar el formato de los datos de nube de puntos. Para obtener más información, consulte [Formatos de datos 3D sin procesar aceptados](sms-point-cloud-raw-data-types.md).  | 
|  `unix-timestamp`  |  Sí  |  Número Una marca de tiempo Unix.   |  La marca de tiempo Unix es el número de segundos desde el 1 de enero de 1970 hasta la hora UTC en que los datos fueron recopilados por un sensor.   | 
|  `ego-vehicle-pose`  |  No  |  Objeto JSON  |  La posición del dispositivo utilizado para recopilar los datos de nube de puntos. Para obtener más información sobre este parámetro, consulte [Incluir información de posición del vehículo en el manifiesto de entrada](#sms-point-cloud-single-frame-ego-vehicle-input).  | 
|  `prefix`  |  No  |  Cadena **Formato de valor de cadena aceptado**:  `s3://<bucket-name>/<folder-name>/`  |  La ubicación en Amazon S3 donde se almacenan los metadatos, como las imágenes de la cámara, para este fotograma.  El prefijo debe terminar con una barra diagonal: `/`.  | 
|  `images`  |  No  |  Lista  |  Una lista de parámetros que describen las imágenes de la cámara en color utilizadas para la fusión de sensores. Puede incluir hasta 8 imágenes en esta lista. Para obtener más información sobre los parámetros necesarios para cada imagen, consulte [Incluir los datos de la cámara en el manifiesto de entrada](#sms-point-cloud-single-frame-image-input).   | 

## Incluir información de posición del vehículo en el manifiesto de entrada
<a name="sms-point-cloud-single-frame-ego-vehicle-input"></a>

Utilice la ubicación del ego-vehículo para proporcionar información sobre la ubicación del vehículo utilizado para capturar datos de nube de puntos. Ground Truth utiliza esta información para calcular la matriz extrínseca LiDAR. 

Ground Truth utiliza matrices extrínsecas para proyectar etiquetas hacia y desde la escena 3D y las imágenes 2D. Para obtener más información, consulte [Fusión de sensores](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion).

En la siguiente tabla se proporciona más información sobre los parámetros `position` y orientación (`heading`) necesarios cuando proporciona información del ego-vehículo. 


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `position`  |  Sí  |  Objeto JSON **Parámetros requeridos**: `x`, `y` y `z`. Introduzca números para estos parámetros.   |  El vector de traslación del ego-vehículo en el sistema de coordenadas mundial.   | 
|  `heading`  |  Sí  |  Objeto JSON. **Parámetros requeridos**: `qx`, `qy`, `qz` y `qw`. Introduzca números para estos parámetros.   |  La orientación del fotograma de referencia del dispositivo o sensor montado en el vehículo que detecta el entorno, medido en [cuaterniones](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`) en el sistema de coordenadas.  | 

## Incluir los datos de la cámara en el manifiesto de entrada
<a name="sms-point-cloud-single-frame-image-input"></a>

Si desea incluir los datos de la cámara de vídeo con un fotograma, utilice los siguientes parámetros para proporcionar información sobre cada imagen. La columna **Obligatorio** a continuación se aplica cuando el parámetro `images` se incluye en el archivo de manifiesto de entrada en `source-ref-metadata`. No es necesario incluir imágenes en el archivo de manifiesto de entrada. 

Si incluye imágenes de la cámara, debe incluir información sobre la `position` y `heading` de la cámara utilizada para capturar imágenes en el sistema de coordenadas mundial.

Si las imágenes están distorsionadas, Ground Truth puede eliminar la distorsión automáticamente utilizando la información que proporcione sobre la imagen en el archivo de manifiesto de entrada, incluidos los coeficientes de distorsión (`k1`, `k2`, `k3`, `k4`, `p1`, `p1`), el modelo de cámara y la matriz intrínseca de la cámara. La matriz intrínseca se compone de la distancia focal (`fx`, `fy`) y el punto principal (`cx`, `cy)`). Consulte [Matriz intrínseca](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-intrinsic) para saber cómo utiliza Ground Truth la calibración intrínseca de la cámara. Si no se incluyen los coeficientes de distorsión, Ground Truth no eliminará la distorsión de una imagen. 


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `image-path`  |  Sí  |  Cadena **Ejemplo de formato**:  `<folder-name>/<imagefile.png>`  |  La ubicación relativa en Amazon del archivo de imagen. Esta ruta relativa se añadirá a la ruta especificada en `prefix`.   | 
|  `unix-timestamp`  |  Sí  |  Número  |  La marca de tiempo Unix es el número de segundos desde el 1 de enero de 1970 hasta la hora UTC en que los datos fueron recopilados por una cámara.   | 
|  `camera-model`  |  No  |  Cadena: **Valores aceptados**: `"pinhole"`, `"fisheye"` **Valor predeterminado**: `"pinhole"`  |  Modelo de la cámara utilizado para capturar la imagen. Esta información se utiliza para eliminar la distorsión de las imágenes de la cámara.   | 
|  `fx, fy`  |  Sí  |  Números  |  La distancia focal de la cámara, en las direcciones x (`fx`) e y (`fy`).  | 
|  `cx, cy`  |  Sí  | Números |  Las coordenadas x (`cx`) e y (`cy`) del punto principal.   | 
|  `k1, k2, k3, k4`  |  No  |  Número  |  Coeficientes de distorsión radial. Compatibles con modelos de cámaras de **ojo de pez** y **estenopeicas**.   | 
|  `p1, p2`  |  No  |  Número  |  Coeficientes de distorsión tangencial. Compatibles con modelos de cámaras **estenopeicas**.  | 
|  `skew`  |  No  |  Número  |  Un parámetro para medir el sesgo de una imagen.   | 
|  `position`  |  Sí  |  Objeto JSON **Parámetros requeridos**: `x`, `y` y `z`. Introduzca números para estos parámetros.   | La ubicación u origen del fotograma de referencia de la cámara montada en el vehículo que captura imágenes. | 
|  `heading`  |  Sí  |  Objeto JSON. **Parámetros requeridos**: `qx`, `qy`, `qz` y `qw`. Introduzca números para estos parámetros.   |  La orientación del fotograma de referencia de la cámara montada en el vehículo que captura imágenes, medida mediante [cuaterniones](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qw`)`qz`, en el sistema de coordenadas mundiales.   | 

## Límites de fotogramas de nube de puntos
<a name="sms-point-cloud-single-frame-limits"></a>

Puede incluir hasta 100 000 fotogramas de nube de puntos en el archivo de manifiesto de entrada. El trabajo de etiquetado en nubes de puntos 3D tiene tiempos de preprocesamiento más largos que otros tipos de tareas de Ground Truth. Para obtener más información, consulte [Duración del procesamiento previo trabajo](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time).

# Crear un manifiesto de entrada de secuencia de nube de puntos
<a name="sms-point-cloud-multi-frame-input-data"></a>

El manifiesto es un archivo con codificación UTF-8 donde cada línea es un objeto JSON completo y válido. Cada línea se delimita con un salto de línea estándar, \$1n o \$1r\$1n. Dado que cada línea tiene que ser un objeto JSON válido, no puede tener caracteres de salto de línea sin escape. En el archivo de manifiesto de entrada de secuencia de nube de puntos, cada línea del manifiesto contiene una secuencia de fotogramas de nube de puntos. Los datos de nube de puntos de cada fotograma de la secuencia se pueden almacenar en formato binario o ASCII. Para obtener más información, consulte [Formatos de datos 3D sin procesar aceptados](sms-point-cloud-raw-data-types.md). Este es el formato del archivo de manifiesto necesario para el seguimiento de objetos en nubes de puntos 3D. Opcionalmente, también puede proporcionar datos de fusión de sensores de cámara y atributos para cada fotograma de nube de puntos. Al crear un archivo de manifiesto de entrada de secuencia, debe proporcionar datos de fusión de sensores de cámara de vídeo y LiDAR en un [sistema de coordenadas mundial](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system). 

En el ejemplo siguiente se muestra la sintaxis utilizada para un archivo de manifiesto de entrada cuando cada línea del manifiesto es un archivo de secuencia. Cada línea del archivo de manifiesto de entrada debe estar en formato de [líneas JSON](http://jsonlines.org/).

```
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq1.json"}
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq2.json"}
```

Los datos de cada secuencia de fotogramas de nube de puntos deben almacenarse en un objeto de datos JSON. A continuación se muestra un ejemplo del formato utilizado para un archivo de secuencia. La información sobre cada fotograma se incluye como un objeto JSON y se muestra en la lista `frames`. Este es un ejemplo de un archivo de secuencia con dos archivos de fotograma de nube de puntos, `frame300.bin` y `frame303.bin`. *...*Se usa para indicar dónde debe incluir información para marcos adicionales. Añada un objeto JSON para cada fotograma de la secuencia.

El siguiente bloque de código incluye un objeto JSON para un único archivo de secuencia. El objeto JSON se ha ampliado para facilitar su lectura.

```
{
  "seq-no": 1,
  "prefix": "s3://amzn-s3-demo-bucket/example_lidar_sequence_dataset/seq1/",
  "number-of-frames": 100,
  "frames":[
    {
        "frame-no": 300, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame300.bin", 
        "format": "binary/xyzi", 
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        }, 
        "images": [
        {
            "image-path": "example_images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    },
    {
        "frame-no": 303, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame303.bin", 
        "format": "text/xyzi", 
        "ego-vehicle-pose":{...}, 
        "images":[{...}]
    },
     ...
  ]
}
```

La tabla siguiente proporciona detalles sobre los parámetros de nivel superior de un archivo de secuencia. Para obtener información detallada sobre los parámetros necesarios para fotogramas individuales en el archivo de secuencia, consulte [Parámetros para fotogramas de nube de puntos individuales](#sms-point-cloud-multi-frame-input-single-frame).


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `seq-no`  |  Sí  |  Entero  |  El número de orden de la secuencia.   | 
|  `prefix`  |  Sí  |  Cadena **Valores aceptados**: `s3://<bucket-name>/<prefix>/`  |  La ubicación de Amazon S3 en la que se encuentran los archivos de secuencia.  El prefijo debe terminar con una barra diagonal: `/`.  | 
|  `number-of-frames`  |  Sí  |  Entero  |  El número total de fotogramas incluidos en el archivo de secuencia. Este número debe coincidir con el número total de fotogramas enumerados en el parámetro `frames` de la siguiente fila.  | 
|  `frames`  |  Sí  |  Lista de objetos JSON  |  Una lista de datos de fotograma. La longitud de la lista debe ser igual al `number-of-frames`. En la interfaz de usuario del trabajador, los fotogramas de una secuencia seguirán el mismo orden que los fotogramas en esta matriz.  Para obtener información detallada sobre el formato de cada fotograma, consulte [Parámetros para fotogramas de nube de puntos individuales](#sms-point-cloud-multi-frame-input-single-frame).   | 

## Parámetros para fotogramas de nube de puntos individuales
<a name="sms-point-cloud-multi-frame-input-single-frame"></a>

La siguiente tabla muestra los parámetros que puede incluir en el archivo de manifiesto de entrada.


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `frame-no`  |  No  |  Entero  |  Un número de fotograma. Se trata de un identificador opcional especificado por el cliente para identificar el fotograma dentro de una secuencia. Ground Truth no lo utiliza.  | 
|  `unix-timestamp`  |  Sí  |  Número  |  La marca de tiempo Unix es el número de segundos desde el 1 de enero de 1970 hasta la hora UTC en que los datos fueron recopilados por un sensor.  La marca de tiempo de cada fotograma debe ser diferente y las marcas de tiempo deben ser secuenciales porque se utilizan para interpolación cuboide. Lo ideal sería que fuera la marca de tiempo real del momento en que se recopilaron los datos. Si esto no es posible, debe utilizar una secuencia incremental de marcas de tiempo, en la que el primer fotograma del archivo de secuencia corresponda a la primera marca de tiempo de la secuencia.  | 
|  `frame`  |  Sí  |  Cadena **Ejemplo de formato** `<folder-name>/<sequence-file.json>`  |  La ubicación relativa, en Amazon S3 del archivo de secuencia. Esta ruta relativa se añadirá a la ruta especificada en `prefix`.  | 
|  `format`  |  No  |  Cadena **Valores de cadena aceptados**: `"binary/xyz"`, `"binary/xyzi"`, `"binary/xyzrgb"`, `"binary/xyzirgb"`, `"text/xyz"`, `"text/xyzi"`, `"text/xyzrgb"`, `"text/xyzirgb"` **Valores predeterminados**:  Cuando el archivo identificado en `source-ref` tiene una extensión .bin, `binary/xyzi` Cuando el archivo identificado en `source-ref` tiene una extensión .txt, `text/xyzi`  |  Utilice este parámetro para especificar el formato de los datos de nube de puntos. Para obtener más información, consulte [Formatos de datos 3D sin procesar aceptados](sms-point-cloud-raw-data-types.md).  | 
|  `ego-vehicle-pose`  |  No  |  Objeto JSON  |  La posición del dispositivo utilizado para recopilar los datos de nube de puntos. Para obtener más información sobre este parámetro, consulte [Incluir información de posición del vehículo en el manifiesto de entrada](#sms-point-cloud-multi-frame-ego-vehicle-input).  | 
|  `prefix`  |  No  |  Cadena **Formato de valor de cadena aceptado**:  `s3://<bucket-name>/<folder-name>/`  |  La ubicación en Amazon S3 donde se almacenan los metadatos, como las imágenes de la cámara, para este fotograma.  El prefijo debe terminar con una barra diagonal: `/`.  | 
|  `images`  |  No  |  Lista  |  Una lista de parámetros que describen las imágenes de la cámara en color utilizadas para la fusión de sensores. Puede incluir hasta 8 imágenes en esta lista. Para obtener más información sobre los parámetros necesarios para cada imagen, consulte [Incluir los datos de la cámara en el manifiesto de entrada](#sms-point-cloud-multi-frame-image-input).   | 

## Incluir información de posición del vehículo en el manifiesto de entrada
<a name="sms-point-cloud-multi-frame-ego-vehicle-input"></a>

Utilice la ubicación del ego-vehículo para proporcionar información sobre la posición del vehículo utilizado para capturar datos de nube de puntos. Ground Truth utiliza esta información para calcular la matriz extrínseca LiDAR. 

Ground Truth utiliza matrices extrínsecas para proyectar etiquetas hacia y desde la escena 3D y las imágenes 2D. Para obtener más información, consulte [Fusión de sensores](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion).

En la siguiente tabla se proporciona más información sobre los parámetros `position` y orientación (`heading`) necesarios cuando proporciona información del ego-vehículo. 


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `position`  |  Sí  |  Objeto JSON **Parámetros requeridos**: `x`, `y` y `z`. Introduzca números para estos parámetros.   |  El vector de traslación del ego-vehículo en el sistema de coordenadas mundial.   | 
|  `heading`  |  Sí  |  Objeto JSON. **Parámetros requeridos**: `qx`, `qy`, `qz` y `qw`. Introduzca números para estos parámetros.   |  La orientación del fotograma de referencia del dispositivo o sensor montado en el vehículo que detecta el entorno, medido en [cuaterniones](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`) en el sistema de coordenadas.  | 

## Incluir los datos de la cámara en el manifiesto de entrada
<a name="sms-point-cloud-multi-frame-image-input"></a>

Si desea incluir los datos de la cámara en color con un fotograma, utilice los siguientes parámetros para proporcionar información sobre cada imagen. La columna **Obligatorio** de la siguiente tabla se aplica cuando el parámetro `images` se incluye en el archivo de manifiesto de entrada. No es necesario incluir imágenes en el archivo de manifiesto de entrada. 

Si incluye imágenes de la cámara, debe incluir información sobre la `position` y orientación (`heading`) de la cámara utilizada para capturar las imágenes. 

Si las imágenes están distorsionadas, Ground Truth puede eliminar la distorsión automáticamente utilizando la información que proporcione sobre la imagen en el archivo de manifiesto de entrada, incluidos los coeficientes de distorsión (`k1`, `k2`, `k3`, `k4`, `p1`, `p1`), el modelo de cámara y la distancia focal (`fx`,`fy`) y el punto principal (`cx`, `cy)`). Para obtener más información sobre estos coeficientes e imágenes sin distorsión, consulte [Camera calibration With OpenCV](https://docs.opencv.org/2.4.13.7/doc/tutorials/calib3d/camera_calibration/camera_calibration.html). Si no se incluyen los coeficientes de distorsión, Ground Truth no eliminará la distorsión de una imagen. 


****  

|  Parámetro  |  Obligatorio  |  Valores aceptados  |  Description (Descripción)  | 
| --- | --- | --- | --- | 
|  `image-path`  |  Sí  |  Cadena **Ejemplo de formato**:  `<folder-name>/<imagefile.png>`  |  La ubicación relativa en Amazon del archivo de imagen. Esta ruta relativa se añadirá a la ruta especificada en `prefix`.   | 
|  `unix-timestamp`  |  Sí  |  Número  |  La marca de tiempo de la imagen.   | 
|  `camera-model`  |  No  |  Cadena: **Valores aceptados**: `"pinhole"`, `"fisheye"` **Valor predeterminado**: `"pinhole"`  |  Modelo de la cámara utilizado para capturar la imagen. Esta información se utiliza para eliminar la distorsión de las imágenes de la cámara.   | 
|  `fx, fy`  |  Sí  |  Números  |  La distancia focal de la cámara, en las direcciones x (`fx`) e y (`fy`).  | 
|  `cx, cy`  |  Sí  | Números |  Las coordenadas x (`cx`) e y (`cy`) del punto principal.   | 
|  `k1, k2, k3, k4`  |  No  |  Número  |  Coeficientes de distorsión radial. Compatibles con modelos de cámaras de **ojo de pez** y **estenopeicas**.   | 
|  `p1, p2`  |  No  |  Número  |  Coeficientes de distorsión tangencial. Compatibles con modelos de cámaras **estenopeicas**.  | 
|  `skew`  |  No  |  Número  |  Un parámetro para medir cualquier sesgo conocido de la imagen.  | 
|  `position`  |  Sí  |  Objeto JSON **Parámetros requeridos**: `x`, `y` y `z`. Introduzca números para estos parámetros.   |  La ubicación u origen del fotograma de referencia de la cámara montada en el vehículo que captura imágenes.  | 
|  `heading`  |  Sí  |  Objeto JSON. **Parámetros requeridos**: `qx`, `qy`, `qz` y `qw`. Introduzca números para estos parámetros.   |  La orientación del fotograma de referencia de la cámara montada en el vehículo que captura imágenes, medida mediante [cuaterniones](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`).   | 

## Límites de fotogramas de nube de puntos y archivo de secuencia
<a name="sms-point-cloud-multi-frame-limits"></a>

Puede incluir hasta 100 000 secuencias de fotogramas de nube de puntos en el archivo de manifiesto de entrada. Puede incluir hasta 500 fotogramas de nube de puntos en cada archivo de secuencia. 

Tenga en cuenta que el trabajo de etiquetado en nubes de puntos 3D tiene tiempos de preprocesamiento más largos que otros tipos de tareas de Ground Truth. Para obtener más información, consulte [Duración del procesamiento previo trabajo](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time).