

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# CreateBulkImportJob API
<a name="ingest-bulkImport"></a>

Utilice la API `CreateBulkImportJob` para importar grandes cantidades de datos de Amazon S3. Los datos deben guardarse en formato CSV en Amazon S3. Los archivos de datos pueden tener las siguientes columnas.

**nota**  
 No se admiten datos anteriores a las 00:00:00 UTC del 1 de enero de 1970.   
Para identificar la propiedad de un activo, especifique una de las siguientes opciones.  
La `ASSET_ID` y `PROPERTY_ID` de la propiedad del activo al que va a enviar los datos.
El `ALIAS`, que es un alias de flujo de datos (por ejemplo, `/company/windfarm/3/turbine/7/temperature`). Para utilizar esta opción, primero debe establecer el alias de la propiedad del activo. Para aprender a configurar los alias de las propiedades, consulte [Gestione los flujos de datos para AWS IoT SiteWise](manage-data-streams.md).
+ `ALIAS`: el alias que identifica la propiedad, como una ruta de flujo de datos del servidor OPC UA (por ejemplo, `/company/windfarm/3/turbine/7/temperature`). Para obtener más información, consulte [Gestione los flujos de datos para AWS IoT SiteWise](manage-data-streams.md).
+ `ASSET_ID`: el ID del activo.
+ `PROPERTY_ID`: el ID de la propiedad del activo.
+ `DATA_TYPE`: el tipo de datos de la propiedad puede ser uno de los siguientes.
  + `STRING` – Una cadena con hasta 1024 bytes.
  + `INTEGER`: un entero de 32 bits con signo con rango [-2.147.483.648, 2.147.483.647].
  + `DOUBLE`: un número de punto flotante con rango [-10^100, 10^100] e IEEE 754 doble precisión.
  + `BOOLEAN` – `true` o `false`.
+ `TIMESTAMP_SECONDS`: la marca temporal del punto de datos, con la hora en formato Unix.
+ `TIMESTAMP_NANO_OFFSET`: el desplazamiento de nanosegundos convertido de `TIMESTAMP_SECONDS`.
+ `QUALITY`: (opcional) La calidad del valor de la propiedad del activo. El valor puede ser uno de los siguientes:
  + `GOOD`: (predeterminado) los datos no se ven afectados por ningún problema.
  + `BAD`: los datos se ven afectados por un problema, como un fallo del sensor.
  + `UNCERTAIN`: los datos se ven afectados por un problema, como la falta de precisión de un sensor.

  Para obtener más información sobre cómo se AWS IoT SiteWise gestiona la calidad de los datos en los cálculos, consulte Calidad de [los datos en las expresiones de](expression-tutorials.md#data-quality) fórmulas.
+ `VALUE`: el valor de la propiedad del activo.

**Example archivo(s) de datos en formato .csv**  

```
asset_id,property_id,DOUBLE,1635201373,0,GOOD,1.0
asset_id,property_id,DOUBLE,1635201374,0,GOOD,2.0
asset_id,property_id,DOUBLE,1635201375,0,GOOD,3.0
```

```
unmodeled_alias1,DOUBLE,1635201373,0,GOOD,1.0
unmodeled_alias1,DOUBLE,1635201374,0,GOOD,2.0
unmodeled_alias1,DOUBLE,1635201375,0,GOOD,3.0
unmodeled_alias1,DOUBLE,1635201376,0,GOOD,4.0
unmodeled_alias1,DOUBLE,1635201377,0,GOOD,5.0
unmodeled_alias1,DOUBLE,1635201378,0,GOOD,6.0
unmodeled_alias1,DOUBLE,1635201379,0,GOOD,7.0
unmodeled_alias1,DOUBLE,1635201380,0,GOOD,8.0
unmodeled_alias1,DOUBLE,1635201381,0,GOOD,9.0
unmodeled_alias1,DOUBLE,1635201382,0,GOOD,10.0
```

AWS IoT SiteWise proporciona las siguientes operaciones de API para crear un trabajo de importación masiva y obtener información sobre un trabajo existente.
+ [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)— Crea un nuevo trabajo de importación masiva.
+ [DescribeBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_DescribeBulkImportJob.html)— Recupera información sobre un trabajo de importación masiva.
+ [ListBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_ListBulkImportJobs.html)— Recupera una lista paginada de resúmenes de todos los trabajos de importación masiva.

# Crea un trabajo de importación AWS IoT SiteWise masiva ()AWS CLI
<a name="CreateBulkImportJob"></a>

Utilice la operación de [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API para transferir datos de Amazon S3 a AWS IoT SiteWise. La [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API permite la ingesta de grandes volúmenes de datos históricos y la ingesta en búfer de flujos de datos analíticos en lotes pequeños. Proporciona un método básico rentable para la ingesta de datos. El siguiente ejemplo utiliza AWS CLI.

**importante**  
Antes de crear un trabajo de importación masiva, debe habilitar el nivel AWS IoT SiteWise cálido o el nivel frío. AWS IoT SiteWise Para obtener más información, consulte [Configure los ajustes de almacenamiento en AWS IoT SiteWise](configure-storage.md).  
 La [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API admite la ingesta de datos históricos AWS IoT SiteWise con la opción de configurar el adaptive-ingestion-flag parámetro.   
Cuando se configura en `false`, la API ingiere datos históricos sin activar cálculos ni notificaciones.
Cuando se configura en `true`, la API ingiere nuevos datos, calculando métricas y transformando los datos para optimizar los análisis y las notificaciones continuos en un plazo de siete días.

Ejecute el comando siguiente. *file-name*Sustitúyalo por el nombre del archivo que contiene la configuración del trabajo de importación masiva.

```
aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
```

**Example Configuración de trabajos de importación masiva**  
A continuación se ofrecen ejemplos de configuración:  
+ Reemplace *adaptive-ingestion-flag* por `true` o `false`.
  + Si se establece en `false`, el trabajo de importación masiva ingiere datos históricos en AWS IoT SiteWise.
  + Si se establece en `true`, el trabajo de importación masiva hace lo siguiente:
    + Ingiere nuevos datos en. AWS IoT SiteWise
    + Calcula métricas y transformaciones, y admite notificaciones de datos con una marca de tiempo de siete días.
+ *delete-files-after-import-flag*Sustitúyalos por `true` para eliminar los datos del depósito de datos de Amazon S3 después de ingerirlos en un almacenamiento de nivel AWS IoT SiteWise cálido.
+ Sustituya amzn-s3-demo-bucket por el *-for-errors* nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.
+ Sustituya amzn-s3-demo-bucket por el *-for-errors-prefix* prefijo del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva. 

  Amazon S3 usa el prefijo como nombre de carpeta para organizar los datos del bucket. Cada objeto de Amazon S3 tiene una clave que es su identificador único en el bucket. Cada objeto de un bucket tiene exactamente una clave. El prefijo debe terminar con una barra diagonal: (/). Para obtener más información, consulte [Organizar objetos usando prefijos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) en la *Guía para usuarios de Amazon Simple Storage Service*.
+ Sustituya amzn-s3-demo-bucket por el *-data* nombre del bucket de Amazon S3 desde el que se importan los datos.
+ *data-bucket-key*Sustitúyala por la clave del objeto de Amazon S3 que contiene los datos. Cada objeto tiene una clave que es un identificador único. Cada objeto tiene exactamente una clave.
+ *data-bucket-version-id*Sustitúyalo por el ID de versión para identificar una versión específica del objeto de Amazon S3 que contiene sus datos. Este parámetro es opcional.
+ *column-name*Sustitúyalo por el nombre de la columna especificado en el archivo.csv.
+ *job-name*Sustitúyalo por un nombre único que identifique el trabajo de importación masiva.
+ *job-role-arn*Sustitúyalo por el rol de IAM que AWS IoT SiteWise permite leer los datos de Amazon S3.
Asegúrese de que el rol tenga los permisos que se muestran en el siguiente ejemplo. Sustituya amzn-s3-demo-bucket por el *-data* nombre del bucket de Amazon S3 que contiene los datos. Además, *amzn-s3-demo-bucket-for-errors* sustitúyalo por el nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-data",
                "arn:aws:s3:::amzn-s3-demo-bucket-data/*"
            ],
            "Effect": "Allow"
        },
        {
            "Action": [
                "s3:PutObject",
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors",
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors/*"
            ],
            "Effect": "Allow"
        }
    ]
}
```

```
{
   "adaptiveIngestion": adaptive-ingestion-flag,
   "deleteFilesAfterImport": delete-files-after-import-flag,       
   "errorReportLocation": { 
      "bucket": "amzn-s3-demo-bucket-for-errors",
      "prefix": "amzn-s3-demo-bucket-for-errors-prefix"
   },
   "files": [ 
      { 
         "bucket": "amzn-s3-demo-bucket-data",
         "key": "data-bucket-key",
         "versionId": "data-bucket-version-id"
      }
   ],
   "jobConfiguration": { 
      "fileFormat": { 
         "csv": { 
            "columnNames": [ "column-name" ]
         }
      }
   },
   "jobName": "job-name",
   "jobRoleArn": "job-role-arn"    
}
```

**Example response**  

```
{
   "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5",
   "jobStatus":"PENDING",
   "jobName":"myBulkImportJob"
}
```

# Describa un trabajo de importación AWS IoT SiteWise masiva (AWS CLI)
<a name="DescribeBulkImportJob"></a>

Utilice la operación de la [DescribeBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_DescribeBulkImportJob.html)API para recuperar información sobre un trabajo de importación masiva específico en AWS IoT SiteWise. Esta operación devuelve detalles como estado del trabajo, hora de creación e información de error si el trabajo ha fallado. Puede utilizar esta operación para supervisar el progreso del trabajo y solucionar problemas. Para utilizar `DescribeBulkImportJob` necesita el ID del trabajo de la operación de `CreateBulkImportJob`. La API devuelve la siguiente información:
+ Lista de archivos que se están importando, incluidas sus ubicaciones y claves de los buckets de Amazon S3
+ Ubicación del informe de errores (si corresponde)
+ Detalles de configuración del trabajo, como formato de archivo y nombres de columnas del CSV
+ Marcas de tiempo de creación de trabajo y última actualización
+ Estado actual del trabajo (por ejemplo, si el trabajo está en curso, se ha completado o ha fallado)
+ ARN de rol de IAM para el trabajo de importación 

En el caso de los trabajos finalizados, revise los resultados para confirmar que la integración de datos se ha realizado correctamente. Si un trabajo falla, examine los detalles del error para diagnosticar y resolver los problemas.

*job-ID*Sustitúyalo por el ID del trabajo de importación masiva que deseas recuperar.

```
aws iotsitewise describe-bulk-import-job --job-id job-ID
```

**Example response**  

```
{
   "files":[
      {
         "bucket":"amzn-s3-demo-bucket1",
         "key":"100Tags12Hours.csv"
      },
      {
         "bucket":"amzn-s3-demo-bucket2",
         "key":"BulkImportData1MB.csv"
      },
      {
         "bucket":"	amzn-s3-demo-bucket3",
         "key":"UnmodeledBulkImportData1MB.csv"
      }
   ],
   "errorReportLocation":{
      "prefix":"errors/",
      "bucket":"amzn-s3-demo-bucket-for-errors"
   },
   "jobConfiguration":{
      "fileFormat":{
         "csv":{
            "columnNames":[
               "ALIAS",
               "DATA_TYPE",
               "TIMESTAMP_SECONDS",
               "TIMESTAMP_NANO_OFFSET",
               "QUALITY",
               "VALUE"
            ]
         }
      }
   },
   "jobCreationDate":1645745176.498,
   "jobStatus":"COMPLETED",
   "jobName":"myBulkImportJob",
   "jobLastUpdateDate":1645745279.968,
   "jobRoleArn":"arn:aws:iam::123456789012:role/DemoRole",
   "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5"
}
```

# Enumere los trabajos de importación AWS IoT SiteWise masiva (AWS CLI)
<a name="ListBulkImportJobs"></a>

Utilice la operación de la [ListBulkImportJobs](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_ListBulkImportJobss.html)API para recuperar una lista de resúmenes de los trabajos de importación masiva en AWS IoT SiteWise. Esta operación proporciona una forma eficaz de supervisar y administrar los procesos de importación de datos. Devuelve la siguiente información clave para cada trabajo:
+ ID del trabajo. Identificador único para cada trabajo de importación masiva
+ Nombre del trabajo. Nombre que asignó al trabajo cuando lo creó.
+ Estado actual. Estado actual del trabajo (por ejemplo, COMPLETED, RUNNING, FAILED)

ListBulkImportJobs es especialmente útil para obtener una visión general completa de todos sus trabajos de importación masiva. Puede ayudarlo a realizar un seguimiento de las múltiples importaciones de datos, identificar los trabajos que requieren atención y mantener un flujo de trabajo organizado. La operación admite paginación, lo que permite recuperar un gran número de resúmenes de trabajos de manera eficiente. Puede utilizar el trabajo IDs devuelto por esta operación con la [DescribeBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_DescribeBulkImportJob.html)operación para recuperar información más detallada sobre trabajos específicos. Este proceso de dos pasos le permite obtener primero una vista de alto nivel de todos los trabajos y, a continuación, profundizar en los detalles de los trabajos de interés. Cuando utilice `ListBulkImportJobs`, puede aplicar filtros para acotar los resultados. Por ejemplo, puede filtrar los trabajos en función de su estado para recuperar solo los trabajos finalizados o solo los trabajos en ejecución. Esta característica ayuda a centrarse en la información más relevante para su tarea actual. La operación también devuelve un `nextToken` si hay más resultados disponibles. Puede usar este token en llamadas posteriores para recuperar el siguiente conjunto de resúmenes de trabajos, lo que le permitirá iterar por todos los trabajos de importación masiva, aunque tenga muchos. En el siguiente ejemplo, se muestra cómo `ListBulkImportJobs` utilizarla AWS CLI para recuperar una lista de trabajos finalizados.

```
aws iotsitewise list-bulk-import-jobs --filter COMPLETED
```

**Example Filtro de respuesta para trabajos completados**  

```
{
   "jobSummaries":[
      {
         "id":"bdbbfa52-d775-4952-b816-13ba1c7cb9da",
         "name":"myBulkImportJob",
         "status":"COMPLETED"
      },
      {
         "id":"15ffc641-dbd8-40c6-9983-5cb3b0bc3e6b",
         "name":"myBulkImportJob2",
         "status":"COMPLETED"
      }
   ]
}
```

Este comando muestra cómo se utiliza `ListBulkImportJobs` para recuperar una lista de trabajos que se han completado con errores. El máximo está establecido en 50 resultados y utilizamos el siguiente token para los resultados paginados.

```
aws iotsitewise list-bulk-import-jobs --filter COMPLETED_WITH_FAILURES --max-results 50 --next-token "string"
```