

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Administración de las ejecuciones de trabajos de Amazon EMR en EKS
<a name="emr-eks-jobs-manage"></a>

En las siguientes secciones, se tratan temas que le ayudan a administrar las ejecuciones de trabajos de Amazon EMR en EKS. Estas incluyen configurar los parámetros de ejecución de los trabajos cuando los usas AWS CLI, configurar la forma en que se almacenan los datos de registro, ejecutar scripts SQL de Spark para ejecutar consultas, entender los estados de ejecución de los trabajos y saber cómo monitorear los trabajos. Si quiere configurar y completar una ejecución de trabajos para procesar datos, puede trabajar en estos temas, por lo general en orden.

**Topics**
+ [Administrar las ejecuciones de tareas con AWS CLI](emr-eks-jobs-CLI.md)
+ [Ejecutar scripts SQL de StartJobRun Spark a través de la API](emr-eks-jobs-spark-sql-parameters.md)
+ [Estados de ejecuciones de trabajos](emr-eks-jobs-states.md)
+ [Visualización de trabajos en la consola de Amazon EMR](emr-eks-jobs-console.md)
+ [Errores comunes al ejecutar trabajos](emr-eks-jobs-error.md)

# Administrar las ejecuciones de tareas con AWS CLI
<a name="emr-eks-jobs-CLI"></a>

En este tema se explica cómo gestionar las ejecuciones de tareas con AWS Command Line Interface (AWS CLI). Aborda detalles sobre las propiedades, como los parámetros de seguridad, el controlador y varios ajustes de anulación. También incluye subtemas que abarcan diversas formas de configurar el registro.

**Topics**
+ [Opciones para configurar una ejecución de trabajo](#emr-eks-jobs-parameters)
+ [Configure una ejecución de trabajo para utilizar registros de Amazon S3](emr-eks-jobs-s3.md)
+ [Configurar una ejecución de tareas para usar Amazon CloudWatch Logs](emr-eks-jobs-cloudwatch.md)
+ [Enumerar ejecuciones de trabajos](#emr-eks-jobs-list)
+ [Describir una ejecución de trabajo](#emr-eks-jobs-describe)
+ [Cancelar una ejecución de trabajo](#emr-eks-jobs-cancel)

## Opciones para configurar una ejecución de trabajo
<a name="emr-eks-jobs-parameters"></a>

Utilice las siguientes opciones para configurar los parámetros de ejecución del trabajo:
+ `--execution-role-arn`: debe proporcionar un rol de IAM que se utilice para ejecutar trabajos. Para obtener más información, consulte [Uso de roles de ejecución de trabajos con Amazon EMR en EKS](iam-execution-role.md). 
+ `--release-label`: puede implementar Amazon EMR en EKS con las versiones 5.32.0, 6.2.0 y posteriores de Amazon EMR. Amazon EMR en EKS no es compatible con las versiones de lanzamiento anteriores de Amazon EMR. Para obtener más información, consulte [Versiones de Amazon EMR en EKS](emr-eks-releases.md). 
+ `--job-driver`: el controlador de trabajo se utiliza para proporcionar información sobre el trabajo principal. Se trata de un campo de tipo unión en el que solo puede pasar uno de los valores del tipo de trabajo que desee ejecutar. Los tipos de trabajo admitidos son:
  + Envío de trabajos de Spark: se usa para ejecutar un comando a través de spark-submit. Puedes usar este tipo de trabajo para ejecutar Scala, SparkR PySpark, SparkSQL y cualquier otro trabajo compatible a través de Spark Submit. Este tipo de trabajo tiene los siguientes parámetros:
    + Punto de entrada: es la referencia HCFS (sistema de archivos compatible con Hadoop) al archivo principal que quieres ejecutar. jar/py 
    + EntryPointArguments - Se trata de un conjunto de argumentos que quieres pasar a tu archivo principal. jar/py Debería manejar la lectura de estos parámetros mediante su código de punto de entrada. Cada argumento de la matriz debe estar separado por una coma. EntryPointArguments no puede contener corchetes o paréntesis, como (), \$1\$1 o []. 
    + SparkSubmitParameters - Estos son los parámetros de chispa adicionales que desea enviar al trabajo. Use este parámetro para anular las propiedades predeterminadas de Spark, como la memoria del controlador o el número de ejecutores, como —conf o —class. Para obtener más información, consulte [Launching Applications with spark-submit](https://spark.apache.org/docs/latest/submitting-applications.html#launching-applications-with-spark-submit).
  + Trabajos de Spark SQL: se utilizan para ejecutar un archivo de consulta SQL a través de Spark SQL. Puede usar este tipo de trabajo para ejecutar trabajos de SparkSQL. Este tipo de trabajo tiene los siguientes parámetros:
    + Entrypoint: es la referencia del HCFS (sistema de archivos compatible con Hadoop) al archivo de consulta SQL que desea ejecutar.

      Para ver una lista de parámetros de Spark adicionales que puede usar para un trabajo de Spark SQL, consulte [Ejecutar scripts SQL de StartJobRun Spark a través de la API](emr-eks-jobs-spark-sql-parameters.md).
+ `--configuration-overrides`: puede anular las configuraciones predeterminadas de las aplicaciones suministrando un objeto de configuración. Puede utilizar una sintaxis abreviada para proporcionar la configuración o hacer referencia al objeto de configuración en un archivo JSON. Los objetos de configuración se componen de una clasificación, propiedades y configuraciones anidadas opcionales. Las propiedades se componen de la configuración que se desea anular en ese archivo. Es posible especificar varias clasificaciones para varias aplicaciones en un solo objeto JSON. Las clasificaciones de configuración disponibles varían según la versión de Amazon EMR. Para ver una lista de las clasificaciones de configuración que están disponibles para cada versión de Amazon EMR, consulte [Versiones de Amazon EMR en EKS](emr-eks-releases.md).

  Si pasa la misma configuración en una aplicación de anulación y en los parámetros de envío de Spark, prevalecerán los parámetros de envío de Spark. A continuación se muestra la lista completa de prioridades de configuración, en orden de mayor a menor.
  + Configuración proporcionada al crear `SparkSession`.
  + Configuración proporcionada como parte de `sparkSubmitParameters` mediante `—conf`.
  + Configuración proporcionada como parte de las anulaciones de aplicaciones.
  + Configuraciones optimizadas elegidas por Amazon EMR para la versión.
  + Configuraciones de código abierto predeterminadas para la aplicación.

  Para supervisar las ejecuciones de tareas mediante Amazon CloudWatch o Amazon S3, debe proporcionar los detalles de configuración de CloudWatch. Para obtener más información, consulte [Configure una ejecución de trabajo para utilizar registros de Amazon S3](emr-eks-jobs-s3.md) y [Configurar una ejecución de tareas para usar Amazon CloudWatch Logs](emr-eks-jobs-cloudwatch.md). Si el depósito o grupo de CloudWatch registros de S3 no existe, Amazon EMR lo crea antes de cargar los registros en el depósito.
+ Para obtener una lista adicional de las opciones de configuración de Kubernetes, consulte [Propiedades de Spark en Kubernetes](https://spark.apache.org/docs/latest/running-on-kubernetes.html#configuration). 

  Las siguientes configuraciones de Spark no son compatibles.
  + `spark.kubernetes.authenticate.driver.serviceAccountName`
  + `spark.kubernetes.authenticate.executor.serviceAccountName`
  + `spark.kubernetes.namespace`
  + `spark.kubernetes.driver.pod.name`
  + `spark.kubernetes.container.image.pullPolicy`
  + `spark.kubernetes.container.image`
**nota**  
Puede utilizar `spark.kubernetes.container.image` para imágenes de Docker personalizadas. Para obtener más información, consulte [Personalización de las imágenes de Docker para Amazon EMR en EKS](docker-custom-images.md).

# Configure una ejecución de trabajo para utilizar registros de Amazon S3
<a name="emr-eks-jobs-s3"></a>

Para poder supervisar el progreso del trabajo y solucionar los errores, debe configurar los trabajos para que envíen la información de registro a Amazon S3, Amazon CloudWatch Logs o ambos. Este tema le ayuda a empezar a publicar registros de aplicaciones en Amazon S3 en los trabajos que se lanzan con Amazon EMR en EKS.

**Política de IAM de los registros de S3**

Antes de que sus trabajos puedan enviar datos de registro a Amazon S3, se deben incluir los siguientes permisos en la política de permisos del rol de ejecución del trabajo. Reemplace *amzn-s3-demo-logging-bucket* con el nombre de su bucket de registro.

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "s3:PutObject",
        "s3:GetObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::amzn-s3-demo-bucket",
        "arn:aws:s3:::amzn-s3-demo-bucket/*"
      ],
      "Sid": "AllowS3Putobject"
    }
  ]
}
```

------

**nota**  
Amazon EMR en EKS también puede crear un bucket de Amazon S3. Si no hay ningún bucket de Amazon S3 disponible, incluya el permiso `“s3:CreateBucket”` en la política de IAM.

Una vez que haya otorgado a su rol de ejecución los permisos adecuados para enviar registros a Amazon S3, los datos de registro se envían a las siguientes ubicaciones de Amazon S3 cuando `s3MonitoringConfiguration` se transfiere a la sección `monitoringConfiguration` de una solicitud `start-job-run`, como se muestra en [Administrar las ejecuciones de tareas con AWS CLI](emr-eks-jobs-CLI.md).
+ Registros del remitente://*virtual-cluster-id*/jobs/ /containers/*logUri*/(stderr.gz/stdout.gz*job-id*) *pod-name*
+ Registros de controladores:/*logUri*/*virtual-cluster-id*/jobs/ *job-id* /containers/ /spark- *spark-application-id* -driver/ *job-id* (stderr.gz/stdout.gz)
+ Registros de ejecutores:*logUri*//*virtual-cluster-id*/jobs/ *job-id* /containers//*executor-pod-name*/(*spark-application-id*stderr.gz/stdout.gz)

# Configurar una ejecución de tareas para usar Amazon CloudWatch Logs
<a name="emr-eks-jobs-cloudwatch"></a>

Para supervisar el progreso de los trabajos y solucionar los errores, debe configurar los trabajos para que envíen la información de registro a Amazon S3, Amazon CloudWatch Logs o ambos. Este tema le ayuda a empezar a utilizar CloudWatch los registros en los trabajos que se lanzan con Amazon EMR en EKS. Para obtener más información sobre CloudWatch los registros, consulte [Supervisión de los archivos de registro](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/WhatIsCloudWatchLogs.html) en la Guía del CloudWatch usuario de Amazon.

**CloudWatch Registros: política de IAM**

Para que sus trabajos envíen datos de registro a CloudWatch Logs, se deben incluir los siguientes permisos en la política de permisos del rol de ejecución del trabajo. Sustituya *my\$1log\$1group\$1name* y por *my\$1log\$1stream\$1prefix* los nombres de su grupo de CloudWatch registros y los nombres de los flujos de registros, respectivamente. Amazon EMR en EKS crea el grupo de registros y el flujo de registros si no existen, siempre y cuando el ARN del rol de ejecución tenga los permisos adecuados. 

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "logs:CreateLogStream",
        "logs:DescribeLogGroups",
        "logs:DescribeLogStreams"
      ],
      "Resource": [
        "arn:aws:logs:*:*:*"
      ],
      "Sid": "AllowLOGSCreatelogstream"
    },
    {
      "Effect": "Allow",
      "Action": [
        "logs:PutLogEvents"
      ],
      "Resource": [
        "arn:aws:logs:*:*:log-group:my_log_group_name:log-stream:my_log_stream_prefix/*"
      ],
      "Sid": "AllowLOGSPutlogevents"
    }
  ]
}
```

------

**nota**  
Amazon EMR en EKS también puede crear un flujo de registro. Si no existe ningún flujo de registro, la política de IAM debe incluir el permiso `"logs:CreateLogGroup"`.

Una vez que hayas otorgado a tu función de ejecución los permisos adecuados, tu aplicación envía sus datos de registro a CloudWatch Logs cuando `cloudWatchMonitoringConfiguration` se los transfiere a la `monitoringConfiguration` sección de una `start-job-run` solicitud, como se muestra en la siguiente[Administrar las ejecuciones de tareas con AWS CLI](emr-eks-jobs-CLI.md).

En la `StartJobRun` API, *log\$1group\$1name * es el nombre del grupo de CloudWatch registros y *log\$1stream\$1prefix* el prefijo del nombre del flujo de CloudWatch registros. Puede consultar y buscar estos registros en la Consola de administración de AWS.
+ Registros del remitente:*logGroup*//*virtual-cluster-id*/jobs/ *logStreamPrefix* /containers//(stderr/stdout*job-id*) *pod-name*
+ Registros de controladores:///jobs/ /containers/ /spark- -driver/ (stderrstdout) *logGroup* *logStreamPrefix* *virtual-cluster-id* *job-id* *spark-application-id* *job-id*
+ Registros del ejecutor: *logGroup**logStreamPrefix*/*virtual-cluster-id*/*job-id*/jobs/ *spark-application-id* /containers//*executor-pod-name*/(stderr/stdout)

## Enumerar ejecuciones de trabajos
<a name="emr-eks-jobs-list"></a>

Puede ejecutar `list-job-run` para mostrar los estados de las ejecuciones de los trabajos, como se muestra en el siguiente ejemplo. 

```
aws emr-containers list-job-runs --virtual-cluster-id <cluster-id>
```

## Describir una ejecución de trabajo
<a name="emr-eks-jobs-describe"></a>

Puede ejecutar `describe-job-run` para obtener más detalles sobre el trabajo, como el estado, los detalles del estado y el nombre del trabajo, tal como se muestra en el siguiente ejemplo. 

```
aws emr-containers describe-job-run --virtual-cluster-id cluster-id --id job-run-id
```

## Cancelar una ejecución de trabajo
<a name="emr-eks-jobs-cancel"></a>

Puede ejecutar `cancel-job-run` para cancelar los trabajos en ejecución, tal como se muestra en el siguiente ejemplo.

```
aws emr-containers cancel-job-run --virtual-cluster-id cluster-id --id job-run-id
```

# Ejecutar scripts SQL de StartJobRun Spark a través de la API
<a name="emr-eks-jobs-spark-sql-parameters"></a>

Las versiones 6.7.0 y posteriores de Amazon EMR en EKS incluyen un controlador de tareas de Spark SQL para que pueda ejecutar scripts de Spark SQL a través de la API `StartJobRun`. Puede suministrar archivos de punto de entrada de SQL para ejecutar directamente consultas de Spark SQL en Amazon EMR en EKS con la API de `StartJobRun`, sin modificar los scripts de Spark SQL existentes. En la siguiente tabla, se enumeran los parámetros de Spark compatibles con los trabajos de Spark SQL a través de la StartJobRun API.

Puede elegir entre los siguientes parámetros de Spark para enviarlos a un trabajo de Spark SQL. Use estos parámetros para anular las propiedades predeterminadas de Spark.


| Opción | Description (Descripción) | 
| --- | --- | 
|  --name NAME  | Nombre de la aplicación | 
| --jars JARS | Lista de archivos jar separados por comas que se incluirán con el classpath de controlador y ejecutor. | 
| --packages | Lista de coordenadas Maven de los archivos jar separadas por comas para incluirlas en los classpaths de controlador y ejecutor. | 
| --exclude-packages | Lista separada por comas de groupId:artifactId, para excluir mientras se resuelven las dependencias proporcionadas en –packages para evitar conflictos de dependencia. | 
| --repositories | Lista de repositorios remotos adicionales separados por comas para buscar las coordenadas Maven proporcionadas con –packages. | 
| --files FILES | Lista de archivos separados por comas que se colocarán en el directorio de trabajo de cada ejecutor. | 
| --conf PROP=VALUE | Propiedad de configuración de Spark. | 
| --properties-file FILE | Ruta a un archivo desde el que cargar propiedades adicionales. | 
| --driver-memory MEM | Memoria para el controlador. 1024 MB por defecto. | 
| --driver-java-options | Opciones de Java adicionales para pasarlas al controlador. | 
| --driver-library-path | Entradas adicionales de la ruta de la biblioteca para pasarlas al controlador. | 
| --driver-class-path | Entradas de ruta de clases adicionales para pasarlas al controlador. | 
| --executor-memory MEM | Memoria por ejecutor. 1 GB por defecto. | 
| --driver-cores NUM | Número de núcleos utilizados por el controlador. | 
| -- total-executor-cores NUM | Núcleos totales para todos los ejecutores. | 
| --executor-cores NUM | Número de núcleos utilizados por cada ejecutor. | 
| --num-executors NUM | Número de ejecutores que se van a lanzar. | 
| -hivevar <key=value> | Sustitución de variables para aplicarla a los comandos de Hive, por ejemplo, -hivevar A=B | 
| -hiveconf <property=value> | Valor que se va a usar para la propiedad dada. | 

Para un trabajo de Spark SQL, cree un start-job-run-request archivo.json y especifique los parámetros necesarios para la ejecución del trabajo, como en el siguiente ejemplo:

```
{
  "name": "myjob", 
  "virtualClusterId": "123456",  
  "executionRoleArn": "iam_role_name_for_job_execution", 
  "releaseLabel": "emr-6.7.0-latest", 
  "jobDriver": {
    "sparkSqlJobDriver": {
      "entryPoint": "entryPoint_location",
       "sparkSqlParameters": "--conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"
    }
  }, 
  "configurationOverrides": {
    "applicationConfiguration": [
      {
        "classification": "spark-defaults", 
        "properties": {
          "spark.driver.memory":"2G"
         }
      }
    ], 
    "monitoringConfiguration": {
      "persistentAppUI": "ENABLED", 
      "cloudWatchMonitoringConfiguration": {
        "logGroupName": "my_log_group", 
        "logStreamNamePrefix": "log_stream_prefix"
      }, 
      "s3MonitoringConfiguration": {
        "logUri": "s3://my_s3_log_location"
      }
    }
  }
}
```

# Estados de ejecuciones de trabajos
<a name="emr-eks-jobs-states"></a>

Al enviar una ejecución de trabajo a una cola de trabajos de Amazon EMR en EKS, el trabajo pasa al estado `PENDING`. A continuación, pasa por los estados siguientes hasta que termina de ejecutarse correctamente (finaliza con el código `0`) o no (finaliza con un código distinto de cero). 

Las ejecuciones de trabajos pueden tener los siguientes estados:
+ `PENDING`: el estado inicial del trabajo cuando la ejecución del trabajo se envía a Amazon EMR en EKS. El trabajo está a la espera de enviarse al clúster virtual y Amazon EMR en EKS está trabajando para enviarlo.
+ `SUBMITTED`: una ejecución de trabajo que se envió correctamente al clúster virtual. A continuación, el programador de clústeres intenta ejecutar este trabajo en el clúster.
+ `RUNNING`: una ejecución de trabajo que se está ejecutando en el clúster virtual. En las aplicaciones de Spark, esto significa que el estado del proceso del controlador de Spark es `running`.
+ `FAILED`: una ejecución de trabajo que no se pudo enviar al clúster virtual o que se completó sin éxito. Consulta StateDetails y FailureReason encuentra información adicional sobre este error en el trabajo.
+ `COMPLETED`: una ejecución de trabajo que se ha completado correctamente.
+ `CANCEL_PENDING`: se ha solicitado la cancelación de una ejecución de trabajo. Amazon EMR en EKS está intentando cancelar el trabajo en el clúster virtual.
+ `CANCELLED`: una ejecución de trabajo que se canceló correctamente.

# Visualización de trabajos en la consola de Amazon EMR
<a name="emr-eks-jobs-console"></a>

Los datos de ejecución de los trabajos están disponibles para su visualización, por lo que puede monitorizar cada trabajo a medida que pasa por los estados. Para ver trabajos en la consola de Amazon EMR, siga estos pasos.

1. En el menú de la izquierda de la consola de Amazon EMR, en Amazon EMR en EKS, elija **Clústeres virtuales**.

1. En la lista de clústeres virtuales, seleccione el clúster virtual del que desee ver los trabajos.

1. En la tabla **Ejecuciones de tareas**, seleccione **Ver registros** para ver los detalles de una ejecución de trabajos.

**nota**  
La compatibilidad con la experiencia de un solo clic está habilitada de forma predeterminada. Se puede desactivar al configurar `persistentAppUI` a `DISABLED` en `monitoringConfiguration` durante el envío del trabajo. Para obtener más información, consulte [Ver interfaces de usuario de aplicaciones persistentes](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html).

# Errores comunes al ejecutar trabajos
<a name="emr-eks-jobs-error"></a>

Se pueden producir los siguientes errores al ejecutar la API de `StartJobRun`. En la tabla se muestra cada error y se proporcionan los pasos de mitigación para que pueda abordar los problemas rápidamente.


| Mensaje de error | Condición de error | Siguiente paso recomendado | 
| --- | --- | --- | 
|  error: argumento -- *argument* es obligatorio  | Faltan parámetros obligatorios. | Agregue los argumentos que faltan a la solicitud de la API. | 
| Se produjo un error (AccessDeniedException) al llamar a la StartJobRun operación: el usuario: no ARN está autorizado a realizar: emr-containers: StartJobRun | Falta el rol de ejecución. | Consulte Uso de [Uso de roles de ejecución de trabajos con Amazon EMR en EKS](iam-execution-role.md).  | 
|  Se produjo un error (AccessDeniedException) al llamar a la StartJobRun operación: El usuario: no *ARN* está autorizado a realizar: emr-containers: StartJobRun  |  La persona que llama no tiene permiso para el rol de ejecución [formato válido o no válido] a través de claves de condición.  | Consulte [Uso de roles de ejecución de trabajos con Amazon EMR en EKS](iam-execution-role.md).  | 
|  Se produjo un error (AccessDeniedException) al llamar a la StartJobRun operación: El usuario: no *ARN* está autorizado a realizar: emr-containers: StartJobRun  |  El ARN del remitente del trabajo y del rol de ejecución provienen de cuentas diferentes.  | Asegúrese de que el remitente del trabajo y el ARN del rol de ejecución pertenezcan a la misma cuenta de AWS . | 
|  Se detectó 1 error de validación: el valor *Role* en 'executionRoleArn' no satisfacía el patrón de expresión regular del ARN: ^arn :( aws [a-zA-Z0-9-] \$1) :iam: :(\$1 d \$112\$1)? : (rol ((\$1 u002F) \$1 (\$1 u002F [\$1 u0021-\$1 u007F] \$1\$1 u002F)) [\$1 w\$1=, .@-] \$1)  |  La persona que llama tiene permisos para el rol de ejecución a través de claves de condición, pero la función no cumple con las restricciones del formato de ARN.  | Proporcione el rol de ejecución según el formato de ARN. Consulte [Uso de roles de ejecución de trabajos con Amazon EMR en EKS](iam-execution-role.md).  | 
|  Se ResourceNotFoundException ha producido un StartJobRun error () al llamar a la operación: el clúster virtual no existe. *Virtual Cluster ID*  |  No se encuentra el ID del clúster virtual.  | Proporcione un ID de clúster virtual registrado con Amazon EMR en EKS. | 
|  Se produjo un error (ValidationException) al llamar a la StartJobRun operación: el estado del clúster virtual no *state* es válido para crear un recurso JobRun.  |  El clúster virtual no está preparado para ejecutar el trabajo.  | Consulte [Estados del clúster virtual](virtual-cluster.md#virtual-cluster-states).  | 
|  Se produjo un error (ResourceNotFoundException) al llamar a la StartJobRun operación: la versión *RELEASE* no existe.  |  La versión especificada en el envío del trabajo es incorrecta.  | Consulte [Versiones de Amazon EMR en EKS](emr-eks-releases.md).  | 
|  Se produjo un error (AccessDeniedException) al llamar a la StartJobRun operación: el usuario: no *ARN* está autorizado a realizar: emr-containers: StartJobRun on resource: *ARN* con una denegación explícita. Se produjo un error (AccessDeniedException) al llamar a la StartJobRun operación: el usuario: no *ARN* está autorizado a realizar: emr-containers: on resource: StartJobRun *ARN*  | El usuario no está autorizado a llamar. StartJobRun | Consulte [Uso de roles de ejecución de trabajos con Amazon EMR en EKS](iam-execution-role.md).  | 
|  Se produjo un error (ValidationException) al llamar a la StartJobRun operación: ConfigurationOverrides.MonitoringConfiguration.s3 MonitoringConfiguration .LogUri no pudo cumplir la restricción: %s  |  La sintaxis del URI de la ruta de S3 no es válida.  | logURI debe tener el formato s3://...  | 

Se pueden producir los siguientes errores al ejecutar la API de `DescribeJobRun` antes de que se ejecute el trabajo.


| Mensaje de error | Condición de error | Siguiente paso recomendado | 
| --- | --- | --- | 
|   JobRun StateDetails: error en el envío.  *classification*No se admite la clasificación. failureReason: VALIDATION\$1ERROR state: FAILED.  | Los parámetros StartJobRun incluidos no son válidos. | Consulte [Versiones de Amazon EMR en EKS](emr-eks-releases.md).  | 
|  StateDetails: *EKS Cluster ID* el clúster no existe. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  | El clúster de EKS no está disponible. | Compruebe si el clúster de EKS existe y tiene los permisos correctos. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: *EKS Cluster ID* El clúster no tiene permisos suficientes. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  |  Amazon EMR no tiene permisos para acceder al clúster de EKS.  | Compruebe que los permisos estén configurados para Amazon EMR en el espacio de nombres registrado. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: actualmente no *EKS Cluster ID* se puede acceder al clúster. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  |  No se puede llegar al clúster de EKS.  | Compruebe si el clúster de EKS existe y tiene los permisos correctos. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: el JobRun envío falló debido a un error interno. failureReason: INTERNAL\$1ERROR state: FAILED  |  Se produjo un error interno en el clúster de EKS.  | N/A | 
|  StateDetails: *EKS Cluster ID* El clúster no tiene recursos suficientes. failureReason: USER\$1ERROR state: FAILED  |  No hay recursos suficientes en el clúster de EKS para ejecutar el trabajo.  | Agregue más capacidad al grupo de nodos de EKS o configure el escalador automático de EKS. Para obtener más información, consulte [Escalador automático de clústeres](https://docs.aws.amazon.com/eks/latest/userguide/cluster-autoscaler.html). | 

Se pueden producir los siguientes errores al ejecutar la API de `DescribeJobRun` tras la ejecución del trabajo.


| Mensaje de error | Condición de error | Siguiente paso recomendado | 
| --- | --- | --- | 
|  StateDetails: Problemas para monitorear su. JobRun  *EKS Cluster ID*El clúster no existe. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  | El clúster de EKS no existe. | Compruebe si el clúster de EKS existe y tiene los permisos correctos. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: Problemas para monitorear su. JobRun *EKS Cluster ID*El clúster no tiene permisos suficientes. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  | Amazon EMR no tiene permisos para acceder al clúster de EKS. | Compruebe que los permisos estén configurados para Amazon EMR en el espacio de nombres registrado. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: Problemas para monitorear su. JobRun No *EKS Cluster ID* se puede acceder al clúster en este momento. failureReason: CLUSTER\$1UNAVAILABLE state: FAILED  |  No se puede llegar al clúster de EKS.  | Compruebe si el clúster de EKS existe y tiene los permisos correctos. Para obtener más información, consulte [Configuración de Amazon EMR en EKS](setting-up.md). | 
|  StateDetails: Problemas para monitorizarlo JobRun debido a un error interno failureReason: INTERNAL\$1ERROR state: FAILED  |  Se ha producido un error interno que impide la JobRun supervisión.  | N/A | 

El siguiente error puede producirse cuando un trabajo no puede iniciarse y el trabajo espera 15 minutos en el estado ENVIADO. Esto puede deberse a la falta de recursos del clúster.


| Mensaje de error | Condición de error | Siguiente paso recomendado | 
| --- | --- | --- | 
|  tiempo de espera del clúster  | El estado del trabajo ha sido ENVIADO durante 15 minutos o más. | Puede anular la configuración predeterminada de 15 minutos para este parámetro con la modificación de configuración que se muestra a continuación.  | 

Use la siguiente configuración para cambiar el tiempo de espera del clúster a 30 minutos. Tenga en cuenta que proporciona el nuevo valor `job-start-timeout` en segundos:

```
{
"configurationOverrides": {
  "applicationConfiguration": [{
      "classification": "emr-containers-defaults",
      "properties": {
          "job-start-timeout":"1800"
      }
  }]
}
```