

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejecutar un PySpark trabajo en una tabla configurada mediante una plantilla PySpark de análisis
<a name="run-jobs-with-analysis-template"></a>

Este procedimiento muestra cómo utilizar una plantilla de PySpark análisis en la AWS Clean Rooms consola para analizar las tablas configuradas con la regla de análisis **personalizada**. 

**Para ejecutar un PySpark trabajo en una tabla configurada mediante una plantilla PySpark de análisis**

Inicie sesión Consola de administración de AWS y abra la AWS Clean Rooms consola en [https://console.aws.amazon.com/cleanrooms.](https://console.aws.amazon.com/cleanrooms/home)

1. En el panel de navegación izquierdo, elija **Colaboraciones**.

1. Elija la colaboración que tenga el estado **Sus habilidades de miembro** de **Ejecutar** trabajos.

1. En la pestaña **Análisis**, en la sección **Tablas**, consulte las tablas y el tipo de regla de análisis asociado (**regla de análisis personalizada**).
**nota**  
Si no ve las tablas que esperaba en la lista, puede deberse a los siguientes motivos:  
Las tablas no se han [asociado](associate-configured-table.md).
Las tablas no tienen [una regla de análisis configurada](add-analysis-rule.md).

1. En la sección **Análisis**, en el **modo Análisis**, seleccione **Ejecutar plantillas de análisis**.

1. Elija la plantilla de PySpark análisis en la lista desplegable **de plantillas de análisis**.

   **Los parámetros de la plantilla de PySpark análisis se rellenarán automáticamente en la definición.**

1. Si la plantilla de análisis tiene parámetros definidos, en **Parámetros**, proporcione valores para los parámetros:

   1. Para cada parámetro, consulte el **nombre del parámetro** y el **valor por defecto** (si está configurado).

   1. Introduzca un **valor** para cada parámetro que desee anular.
**nota**  
Si no proporciona un valor pero existe un valor predeterminado, se utilizará el valor predeterminado.
**importante**  
Los valores de los parámetros pueden tener hasta 1000 caracteres y admiten la codificación UTF-8. Todos los valores de los parámetros se tratan como cadenas y se pasan al script de usuario a través del objeto de contexto.  
Asegúrese de que el script de usuario valide y gestione los valores de los parámetros de forma segura. Para obtener más información sobre la gestión segura de parámetros, consulte[Trabajar con parámetros en plantillas PySpark de análisis](pyspark-parameter-handling.md).

1. Especifique el **tipo de trabajador** admitido y el **número de trabajadores**. 

   Utilice la siguiente tabla para determinar el tipo y la cantidad de trabajadores que necesita para su caso de uso.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/clean-rooms/latest/userguide/run-jobs-with-analysis-template.html)
**nota**  
Los diferentes tipos y número de trabajadores tienen costos asociados. Para obtener más información sobre los precios, consulta [AWS Clean Rooms los precios](https://aws.amazon.com/clean-rooms/pricing/).

1. Seleccione **Ejecutar**.
**nota**  
No puedes ejecutar el trabajo si el miembro que puede recibir los resultados no ha configurado los ajustes de los resultados del trabajo.

1. Siga ajustando los parámetros y vuelva a ejecutar el trabajo, o pulse el botón **\$1** para iniciar un nuevo trabajo en una pestaña nueva.