

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# File di manifesto di input per processi di etichettatura in una nuvola di punti 3D
<a name="sms-point-cloud-input-manifest"></a>

Quando si crea un processo di etichettatura, si fornisce un file manifest di input in cui ogni riga del manifest descrive un'unità di attività che deve essere completata dagli annotatori. Il formato del file manifest di input dipende dal tipo di attività. 
+ Se crei un processo di **rilevamento di oggetti** o di **segmentazione semantica** della nuvola di punti 3D, ogni riga del file manifest di input contiene informazioni su un singolo frame nuvola di punti 3D. Questo è chiamato *manifest di input del frame di nuvola di punti*. Per ulteriori informazioni, consulta [Creazione di un file manifest di input del frame di nuvola di punti](sms-point-cloud-single-frame-input-data.md). 
+ Se crei un processo di etichettatura di **tracciamento di oggetti** di nuvola di punti 3D, ogni riga del file manifest di input contiene una sequenza di frame di nuvola di punti 3D e dati associati. Questo è chiamato un *manifest di input della sequenza di nuvola di punti*. Per ulteriori informazioni, consulta [Creazione di un file manifest di input della sequenza di nuvole di punti](sms-point-cloud-multi-frame-input-data.md). 

# Creazione di un file manifest di input del frame di nuvola di punti
<a name="sms-point-cloud-single-frame-input-data"></a>

Il manifest è un file con codifica UTF-8 in cui ogni riga è un oggetto JSON completo e valido. Ogni riga è delimitata da un’interruzione di riga standard, \$1n oppure \$1r\$1n. Dal momento che ogni riga deve essere un oggetto JSON valido, i caratteri di interruzione di riga senza escape non sono consentiti. Nel file manifest di input a frame singolo, ogni riga del manifest contiene i dati per un singolo frame di nuvola di punti. I dati del frame di nuvola di punti possono essere memorizzati in formato binario o ASCII (vedi [Formati dati 3D non elaborati accettati](sms-point-cloud-raw-data-types.md)). Questa è la formattazione del file manifest necessaria per il rilevamento di oggetti nubi di punti 3D e la segmentazione semantica. Facoltativamente, è anche possibile fornire dati di fusione del sensore della telecamera per ogni frame della nuvola di punti. 

Ground Truth supporta la fusione del sensore della nuvola di punti e della videocamera nel [sistema di coordinate mondiale](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system) per tutte le modalità. Se è possibile ottenere il sensore 3D estrinseco (come un estrinseco LiDAR), si consiglia di trasformare i frame di nuvole di punti 3D nel sistema di coordinate mondiali utilizzando l'estrinseco. Per ulteriori informazioni, consulta [Fusione dei sensori](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion). 

Tuttavia, se non è possibile ottenere una nuvola di punti nel sistema di coordinate mondiali, è possibile fornire le coordinate nel sistema di coordinate originale in cui sono stati acquisiti i dati. Se si forniscono i dati della telecamera per la fusione dei sensori, si consiglia di fornire il sensore LiDAR e la posizione della telecamera nel sistema di coordinate mondiali. 

Per creare un file manifest di input a frame singolo, si identificherà la posizione di ogni frame nuvola di punti che si desidera che i worker etichettino utilizzando la chiave `source-ref`. Inoltre, è necessario utilizzare la chiave `source-ref-metadata` per identificare il formato del set di dati, un timestamp per tale frame e, facoltativamente, i dati di fusione del sensore e le immagini della videocamera.

Nell'esempio seguente viene illustrata la sintassi utilizzata per un file manifest di input per un processo di etichettatura con nuvola di punti a frame singolo. L'esempio include due frame di nuvola di punti. Per informazioni dettagliate su ciascun parametro, consulta la tabella che segue questo esempio. 

**Importante**  
Ogni riga del file manifest di input deve essere in formato [JSON Lines](http://jsonlines.org/). Il seguente blocco di codice mostra un file di input di un file manifest con due oggetti JSON. Ogni oggetto JSON viene utilizzato per indicare e fornire dettagli su un fotogramma di nuvola di punti singolo. Gli oggetti JSON sono stati espansi per motivi di leggibilità, ma è necessario ridurre al minimo ogni oggetto JSON per adattarlo a una singola riga durante la creazione di un file manifest di input. Un esempio viene fornito in questo blocco di codice.

```
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame1.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861644.759115,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
{
    "source-ref": "s3://amzn-s3-demo-bucket/examplefolder/frame2.bin",
    "source-ref-metadata":{
        "format": "binary/xyzi",
        "unix-timestamp": 1566861632.759133,
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        },
        "prefix": "s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/",
        "images": [
        {
            "image-path": "images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    }
}
```

Quando crei un file manifest di input, è necessario ridurre gli oggetti JSON per adattarli a una singola riga. Ad esempio, in un file manifest di input, il blocco di codice precedente apparirebbe come segue:

```
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame1.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861644.759115,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
{"source-ref":"s3://amzn-s3-demo-bucket/examplefolder/frame2.bin","source-ref-metadata":{"format":"binary/xyzi","unix-timestamp":1566861632.759133,"ego-vehicle-pose":{"position":{"x":-2.7161461413869947,"y":116.25822288149078,"z":1.8348751887989483},"heading":{"qx":-0.02111296123795955,"qy":-0.006495469416730261,"qz":-0.008024565904865688,"qw":0.9997181192298087}},"prefix":"s3://amzn-s3-demo-bucket/lidar_singleframe_dataset/someprefix/","images":[{"image-path":"images/frame300.bin_camera0.jpg","unix-timestamp":1566861644.759115,"fx":847.7962624528487,"fy":850.0340893791985,"cx":576.2129134707038,"cy":317.2423573573745,"k1":0,"k2":0,"k3":0,"k4":0,"p1":0,"p2":0,"skew":0,"position":{"x":-2.2722515189268138,"y":116.86003310568965,"z":1.454614668542299},"heading":{"qx":0.7594754093069037,"qy":0.02181790885672969,"qz":-0.02461725233103356,"qw":-0.6496916273040025},"camera-model":"pinhole"}]}}
```

La tabella seguente mostra i parametri che è possibile includere nel file manifest di input:


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `source-ref`  |  Sì  |  Stringa **Formato valore stringa accettato**:  `s3://<bucket-name>/<folder-name>/point-cloud-frame-file`  |  Posizione Amazon S3 di un singolo fotogramma di nuvola di punti.  | 
|  `source-ref-metadata`  |  Sì  |  Oggetto JSON **Parametri accettati**:  `format`, `unix-timestamp`, `ego-vehicle-pose`, `position`, `prefix`, `images`  |  Utilizzare questo parametro per includere ulteriori informazioni sulla nuvola di punti in `source-ref` e per fornire i dati della telecamera per la fusione dei sensori.   | 
|  `format`  |  No  |  Stringa **Valori stringa accettati**: `"binary/xyz"`, `"binary/xyzi"`, `"binary/xyzrgb"`, `"binary/xyzirgb"`, `"text/xyz"`, `"text/xyzi"`, `"text/xyzrgb"`, `"text/xyzirgb"` **Valori predefiniti:**  Quando il file identificato in `source-ref` ha un'estensione.bin, `binary/xyzi` Quando il file identificato in `source-ref` ha un'estensione.txt, `text/xyzi`  |  Utilizza questo parametro per specificare il formato dei dati della nuvola di punti. Per ulteriori informazioni, consulta [Formati dati 3D non elaborati accettati](sms-point-cloud-raw-data-types.md).  | 
|  `unix-timestamp`  |  Sì  |  Numero Un timestamp unix.   |  Il timestamp unix è il numero di secondi dal 1° gennaio 1970 fino all'ora UTC in cui i dati sono stati raccolti da un sensore.   | 
|  `ego-vehicle-pose`  |  No  |  Oggetto JSON  |  La posa del dispositivo utilizzato per raccogliere i dati della nuvola di punti. Per ulteriori informazioni su questo parametro, consulta [Includi le informazioni sulla posa del veicolo nel file manifest di input](#sms-point-cloud-single-frame-ego-vehicle-input).  | 
|  `prefix`  |  No  |  Stringa **Formato valore stringa accettato**:  `s3://<bucket-name>/<folder-name>/`  |  La posizione in Amazon S3 in cui vengono memorizzati i metadati, ad esempio le immagini della telecamera, per questo fotogramma.  Il prefisso deve terminare con una barra: `/`.  | 
|  `images`  |  No  |  List  |  Un elenco di parametri che descrivono le immagini della telecamera a colori utilizzate per la fusione dei sensori. È possibile includere fino a 8 immagini in questo elenco. Per ulteriori informazioni sui parametri richiesti per ogni immagine, consulta [Inserimento dei dati della videocamera nel manifest di input](#sms-point-cloud-single-frame-image-input).   | 

## Includi le informazioni sulla posa del veicolo nel file manifest di input
<a name="sms-point-cloud-single-frame-ego-vehicle-input"></a>

Utilizza la posizione del veicolo ego per fornire informazioni sulla posizione del veicolo utilizzato per acquisire i dati delle nuvole di punti. Ground Truth utilizza queste informazioni per calcolare la matrice estrinseca LiDAR. 

Ground Truth utilizza matrici estrinseche per proiettare etichette da e verso la scena 3D e le immagini 2D. Per ulteriori informazioni, consulta [Fusione dei sensori](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion).

Nella tabella seguente vengono fornite ulteriori informazioni sui parametri `position` e orientamento (`heading`) necessari quando si forniscono informazioni sul veicolo ego. 


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `position`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `x`, `y` e `z`. Immetti i numeri per questi parametri.   |  Il vettore di traslazione del veicolo ego nel sistema di coordinate mondiale.   | 
|  `heading`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `qx`, `qy`, `qz` e `qw`. Immetti i numeri per questi parametri.   |  L'orientamento del frame di riferimento del dispositivo o del sensore montato sul veicolo che rileva l'ambiente circostante, misurato in [quaternioni](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`) in un sistema di coordinate.  | 

## Inserimento dei dati della videocamera nel manifest di input
<a name="sms-point-cloud-single-frame-image-input"></a>

Per includere i dati della videocamera in un frame, utilizza i seguenti parametri per fornire informazioni su ciascuna immagine. La colonna **Obbligatorio** riportata di seguito si applica quando il parametro `images` è incluso nel file manifest di input in `source-ref-metadata`. Non è necessario includere immagini nel file manifest di input. 

Se includi immagini della videocamera, è necessario includere informazioni sui parametri `position` e `heading` utilizzare la cattura delle immagini nel sistema di coordinate mondiali.

Se le immagini sono distorte, Ground Truth può automaticamente annullarle utilizzando le informazioni fornite sull'immagine nel file manifest di input, inclusi i coefficienti di distorsione (`k1`, `k2`, `k3`, `k4`, `p1`, `p1`), il modello della telecamera e la matrice intrinseca della telecamera. La matrice intrinseca è costituita dalla lunghezza focale (`fx`, `fy`) e dal punto principale (`cx`, `cy)`. Consulta [Matrice intrinseca](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-intrinsic) per scoprire come Ground Truth utilizza le funzioni intrinseche della telecamera. Se i coefficienti di distorsione non sono inclusi, Ground Truth non altera un'immagine. 


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `image-path`  |  Sì  |  Stringa **Esempio di formato**:  `<folder-name>/<imagefile.png>`  |  La posizione relativa all'interno di Amazon S3 del file di immagine. Questo percorso relativo verrà aggiunto al percorso specificato in `prefix`.   | 
|  `unix-timestamp`  |  Sì  |  Numero  |  Il timestamp unix è il numero di secondi dal 1° gennaio 1970 fino all'ora UTC in cui i dati sono stati raccolti da una fotocamera.   | 
|  `camera-model`  |  No  |  Stringa: **Valori accettati**: `"pinhole"`, `"fisheye"` **Default**: `"pinhole"`  |  Il modello della telecamera utilizzata per catturare l'immagine. Queste informazioni vengono utilizzate per non distorcere le immagini della telecamera.   | 
|  `fx, fy`  |  Sì  |  Numeri  |  La lunghezza focale della telecamera, nelle direzioni x (`fx`) e y (`fy`).  | 
|  `cx, cy`  |  Sì  | Numeri |  Le coordinate x (`cx`) e y (`cy`) del punto principale.   | 
|  `k1, k2, k3, k4`  |  No  |  Numero  |  Coefficienti di distorsione radiale. Supportato sia per i modelli di fotocamere **fisheye** e a **foro stenopeico**.   | 
|  `p1, p2`  |  No  |  Numero  |  Coefficienti di distorsione tangenziale. Supportato per i modelli di fotocamera a **foro stenopeico**.  | 
|  `skew`  |  No  |  Numero  |  Parametro per misurare l'inclinazione di un'immagine.   | 
|  `position`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `x`, `y` e `z`. Immetti i numeri per questi parametri.   | La posizione o l'origine del frame di riferimento della telecamera montata sul veicolo che cattura le immagini. | 
|  `heading`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `qx`, `qy`, `qz` e `qw`. Immetti i numeri per questi parametri.   |  L'orientamento del fotogramma di riferimento della telecamera montata sul veicolo che cattura le immagini, misurato utilizzando [quaternioni](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`), nel sistema di coordinate mondiali.   | 

## Limiti dei fotogrammi della nuvola di punti
<a name="sms-point-cloud-single-frame-limits"></a>

È possibile includere fino a 100.000 fotogrammi della nuvola di punti nel file manifest di input. Il processo di etichettatura con nuvola di punti 3D ha tempi di pre-elaborazione più lunghi rispetto ad altri tipi di attività di Ground Truth. Per ulteriori informazioni, consulta [Tempo di pre-elaborazione di un processo](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time).

# Creazione di un file manifest di input della sequenza di nuvole di punti
<a name="sms-point-cloud-multi-frame-input-data"></a>

Il manifest è un file con codifica UTF-8 in cui ogni riga è un oggetto JSON completo e valido. Ogni riga è delimitata da un’interruzione di riga standard, \$1n oppure \$1r\$1n. Dal momento che ogni riga deve essere un oggetto JSON valido, i caratteri di interruzione di riga senza escape non sono consentiti. Nel file manifest di input della sequenza di nuvola di punti, ogni riga del manifest contiene una sequenza di frame di nuvola di punti. I dati della nuvola di punti per ogni frame della sequenza possono essere memorizzati in formato binario o ASCII. Per ulteriori informazioni, consulta [Formati dati 3D non elaborati accettati](sms-point-cloud-raw-data-types.md). Questa è la formattazione del file manifest necessaria per il tracciamento di oggetti nuvola di punti 3D. Facoltativamente, è anche possibile fornire dati relativi all'attributo dei punti e alla fusione dei sensori della telecamera per ogni frame della nuvola di punti. Quando crei un file manifest di input di sequenza, devi fornire i dati di fusione dei sensori e della videocamera e LiDAR in un [sistema di coordinate mondiali](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-world-coordinate-system). 

Nell'esempio seguente viene illustrata la sintassi utilizzata per un file manifest di input quando ogni riga del manifest è un file di sequenza. Ogni riga del file manifest di input deve essere in formato [JSON Lines](http://jsonlines.org/).

```
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq1.json"}
{"source-ref": "s3://amzn-s3-demo-bucket/example-folder/seq2.json"}
```

I dati per ogni sequenza di frame di nuvola di punti devono essere memorizzati in un oggetto dati JSON. Di seguito è riportato un esempio del formato utilizzato per un file di sequenza. Le informazioni su ogni frame sono incluse come oggetto JSON e sono elencate in `frames`. Questo è un esempio di file di sequenza con file di frame a due nuvole di punti, `frame300.bin` e `frame303.bin`. *...*Viene utilizzato per indicare dove è necessario includere informazioni per frame aggiuntivi. Aggiungi un oggetto JSON per ogni fotogramma della sequenza.

Il seguente blocco di codice include un oggetto JSON per un singolo file di sequenza. L'oggetto JSON è stato espanso per garantire la leggibilità.

```
{
  "seq-no": 1,
  "prefix": "s3://amzn-s3-demo-bucket/example_lidar_sequence_dataset/seq1/",
  "number-of-frames": 100,
  "frames":[
    {
        "frame-no": 300, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame300.bin", 
        "format": "binary/xyzi", 
        "ego-vehicle-pose":{
            "position": {
                "x": -2.7161461413869947,
                "y": 116.25822288149078,
                "z": 1.8348751887989483
            },
            "heading": {
                "qx": -0.02111296123795955,
                "qy": -0.006495469416730261,
                "qz": -0.008024565904865688,
                "qw": 0.9997181192298087
            }
        }, 
        "images": [
        {
            "image-path": "example_images/frame300.bin_camera0.jpg",
            "unix-timestamp": 1566861644.759115,
            "fx": 847.7962624528487,
            "fy": 850.0340893791985,
            "cx": 576.2129134707038,
            "cy": 317.2423573573745,
            "k1": 0,
            "k2": 0,
            "k3": 0,
            "k4": 0,
            "p1": 0,
            "p2": 0,
            "skew": 0,
            "position": {
                "x": -2.2722515189268138,
                "y": 116.86003310568965,
                "z": 1.454614668542299
            },
            "heading": {
                "qx": 0.7594754093069037,
                "qy": 0.02181790885672969,
                "qz": -0.02461725233103356,
                "qw": -0.6496916273040025
            },
            "camera-model": "pinhole"
        }]
    },
    {
        "frame-no": 303, 
        "unix-timestamp": 1566861644.759115, 
        "frame": "example_lidar_frames/frame303.bin", 
        "format": "text/xyzi", 
        "ego-vehicle-pose":{...}, 
        "images":[{...}]
    },
     ...
  ]
}
```

La tabella seguente fornisce dettagli sui parametri di primo livello di un file di sequenza. Per informazioni dettagliate sui parametri richiesti per i singoli frame nel file di sequenza, consulta [Parametri per singoli frame di nuvole di punti](#sms-point-cloud-multi-frame-input-single-frame).


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `seq-no`  |  Sì  |  Numero intero  |  Il numero ordinato della sequenza.   | 
|  `prefix`  |  Sì  |  Stringa **Valori accettati**: `s3://<bucket-name>/<prefix>/`  |  Posizione Amazon S3 in cui si trovano i file di sequenza.  Il prefisso deve terminare con una barra: `/`.  | 
|  `number-of-frames`  |  Sì  |  Numero intero  |  Numero totale di frame inclusi nel file di sequenza. Questo numero deve corrispondere al numero totale di frame elencati nel parametro `frames` nella riga successiva.  | 
|  `frames`  |  Sì  |  Elenco degli oggetti JSON  |  Un elenco di dati frame. La lunghezza dell'elenco deve essere uguale `number-of-frames`. Nell'interfaccia utente di lavoro, i frame in una sequenza saranno uguali all'ordine dei frame in questo array.  Per ulteriori informazioni sul formato di ogni frame, consulta [Parametri per singoli frame di nuvole di punti](#sms-point-cloud-multi-frame-input-single-frame).   | 

## Parametri per singoli frame di nuvole di punti
<a name="sms-point-cloud-multi-frame-input-single-frame"></a>

La tabella seguente mostra i parametri che è possibile includere nel file manifest di input.


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `frame-no`  |  No  |  Numero intero  |  Il numero di frame. Si tratta di un identificatore opzionale specificato dal cliente per identificare il frame all'interno di una sequenza. Non è utilizzato da Ground Truth.  | 
|  `unix-timestamp`  |  Sì  |  Numero  |  Il timestamp unix è il numero di secondi dal 1° gennaio 1970 fino all'ora UTC in cui i dati sono stati raccolti da un sensore.  Il timestamp per ogni frame deve essere diverso e i timestamp devono essere sequenziali perché vengono utilizzati per l'interpolazione cuboide. Idealmente, questo dovrebbe essere il timestamp reale al momento della raccolta dei dati. Se questo non è disponibile, è necessario utilizzare una sequenza incrementale di timestamp, in cui il primo frame del file di sequenza corrisponde al primo timestamp della sequenza.  | 
|  `frame`  |  Sì  |  Stringa **Esempio di formato** `<folder-name>/<sequence-file.json>`  |  La posizione relativa, in Amazon S3, del file di sequenza. Questo percorso relativo verrà aggiunto al percorso specificato in `prefix`.  | 
|  `format`  |  No  |  Stringa **Valori stringa accettati**: `"binary/xyz"`, `"binary/xyzi"`, `"binary/xyzrgb"`, `"binary/xyzirgb"`, `"text/xyz"`, `"text/xyzi"`, `"text/xyzrgb"`, `"text/xyzirgb"` **Valori predefiniti:**  Quando il file identificato in `source-ref` ha un'estensione.bin, `binary/xyzi` Quando il file identificato in `source-ref` ha un'estensione.txt, `text/xyzi`  |  Utilizza questo parametro per specificare il formato dei dati della nuvola di punti. Per ulteriori informazioni, consulta [Formati dati 3D non elaborati accettati](sms-point-cloud-raw-data-types.md).  | 
|  `ego-vehicle-pose`  |  No  |  Oggetto JSON  |  La posa del dispositivo utilizzato per raccogliere i dati della nuvola di punti. Per ulteriori informazioni su questo parametro, consulta [Includi le informazioni sulla posa del veicolo nel file manifest di input](#sms-point-cloud-multi-frame-ego-vehicle-input).  | 
|  `prefix`  |  No  |  Stringa **Formato valore stringa accettato**:  `s3://<bucket-name>/<folder-name>/`  |  La posizione in Amazon S3 in cui vengono memorizzati i metadati, ad esempio le immagini della telecamera, per questo fotogramma.  Il prefisso deve terminare con una barra: `/`.  | 
|  `images`  |  No  |  List  |  Elenco dei parametri che descrivono le immagini della telecamera a colori utilizzate per la fusione dei sensori. È possibile includere fino a 8 immagini in questo elenco. Per ulteriori informazioni sui parametri richiesti per ogni immagine, consulta [Inserimento dei dati della telecamera nel manifest di input](#sms-point-cloud-multi-frame-image-input).   | 

## Includi le informazioni sulla posa del veicolo nel file manifest di input
<a name="sms-point-cloud-multi-frame-ego-vehicle-input"></a>

Utilizza la posizione del veicolo ego per fornire informazioni sulla posizione del veicolo utilizzato per acquisire i dati delle nuvole di punti. Ground Truth utilizza queste informazioni per calcolare le matrici estrinseche LiDAR. 

Ground Truth utilizza matrici estrinseche per proiettare etichette da e verso la scena 3D e le immagini 2D. Per ulteriori informazioni, consulta [Fusione dei sensori](sms-point-cloud-sensor-fusion-details.md#sms-point-cloud-sensor-fusion).

Nella tabella seguente vengono fornite ulteriori informazioni sui parametri `position` e orientamento (`heading`) necessari quando si forniscono informazioni sul veicolo ego. 


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `position`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `x`, `y` e `z`. Immetti i numeri per questi parametri.   |  Il vettore di traslazione del veicolo ego nel sistema di coordinate mondiale.   | 
|  `heading`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `qx`, `qy`, `qz` e `qw`. Immetti i numeri per questi parametri.   |  L'orientamento del frame di riferimento del dispositivo o del sensore montato sul veicolo che rileva l'ambiente circostante, misurato in [quaternioni](https://en.wikipedia.org/wiki/Quaternion), (`qx`, `qy`, `qz`, `qw`) in un sistema di coordinate.  | 

## Inserimento dei dati della telecamera nel manifest di input
<a name="sms-point-cloud-multi-frame-image-input"></a>

Per includere i dati della telecamera a colori in un frame, utilizza i seguenti parametri per fornire informazioni su ciascuna immagine. La colonna **Obbligatorio** della tabella seguente si applica quando il parametro `images` è incluso nel file manifest di input. Non è necessario includere immagini nel file manifest di input. 

Se si includono immagini della telecamera, è necessario includere informazioni sulla posizione `position` e sull’orientamento (`heading`) della telecamera utilizzata per catturare le immagini. 

Se le immagini sono distorte, Ground Truth può automaticamente annullarle utilizzando le informazioni fornite sull'immagine nel file manifest di input, inclusi i coefficienti di distorsione (`k1`, `k2`, `k3`, `k4`, `p1`, `p1`), il modello della telecamera e la lunghezza focale (`fx`, `fy`) e il punto principale (`cx`, `cy)`. Per ulteriori informazioni su questi coefficienti e immagini non distorte, consulta [Camera calibration with OpenCV](https://docs.opencv.org/2.4.13.7/doc/tutorials/calib3d/camera_calibration/camera_calibration.html). Se i coefficienti di distorsione non sono inclusi, Ground Truth non altera un'immagine. 


****  

|  Parametro  |  Obbligatorio  |  Valori accettati  |  Description  | 
| --- | --- | --- | --- | 
|  `image-path`  |  Sì  |  Stringa **Esempio di formato**:  `<folder-name>/<imagefile.png>`  |  La posizione relativa all'interno di Amazon S3 del file di immagine. Questo percorso relativo verrà aggiunto al percorso specificato in `prefix`.   | 
|  `unix-timestamp`  |  Sì  |  Numero  |  Il timestamp dell'immagine.   | 
|  `camera-model`  |  No  |  Stringa: **Valori accettati**: `"pinhole"`, `"fisheye"` **Default**: `"pinhole"`  |  Il modello della telecamera utilizzata per catturare l'immagine. Queste informazioni vengono utilizzate per non distorcere le immagini della telecamera.   | 
|  `fx, fy`  |  Sì  |  Numeri  |  La lunghezza focale della telecamera, nelle direzioni x (`fx`) e y (`fy`).  | 
|  `cx, cy`  |  Sì  | Numeri |  Le coordinate x (`cx`) e y (`cy`) del punto principale.   | 
|  `k1, k2, k3, k4`  |  No  |  Numero  |  Coefficienti di distorsione radiale. Supportato sia per i modelli di fotocamere **fisheye** e a **foro stenopeico**.   | 
|  `p1, p2`  |  No  |  Numero  |  Coefficienti di distorsione tangenziale. Supportato per i modelli di fotocamera a **foro stenopeico**.  | 
|  `skew`  |  No  |  Numero  |  Parametro per misurare qualsiasi inclinazione nota nell'immagine.  | 
|  `position`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `x`, `y` e `z`. Immetti i numeri per questi parametri.   |  La posizione o l'origine del frame di riferimento della telecamera montata sul veicolo che cattura le immagini.  | 
|  `heading`  |  Sì  |  Oggetto JSON **Parametri obbligatori**: `qx`, `qy`, `qz` e `qw`. Immetti i numeri per questi parametri.   |  L'orientamento del frame di riferimento della telecamera montata sul veicolo che cattura le immagini, misurato utilizzando [quaternioni](https://en.wikipedia.org/wiki/Quaternion), `qx`, (`qy`, `qz`, `qw`).   | 

## Limiti dei frame del file di sequenza e della nuvola di punti
<a name="sms-point-cloud-multi-frame-limits"></a>

È possibile includere fino a 100.000 sequenze di frame di nuvola di punti nel file manifest di input. È possibile includere fino a 500 frame di nuvola di punti in ogni file di sequenza. 

Tieni presente che il processo di etichettatura con nuvola di punti 3D ha tempi di pre-elaborazione più lunghi rispetto ad altri tipi di attività Ground Truth. Per ulteriori informazioni, consulta [Tempo di pre-elaborazione di un processo](sms-point-cloud-general-information.md#sms-point-cloud-job-creation-time).