

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esecuzione di un PySpark processo su una tabella configurata utilizzando un modello di PySpark analisi
<a name="run-jobs-with-analysis-template"></a>

Questa procedura dimostra come utilizzare un modello di PySpark analisi nella AWS Clean Rooms console per analizzare le tabelle configurate con la regola di analisi **personalizzata**. 

**Per eseguire un PySpark processo su una tabella configurata utilizzando un modello di PySpark analisi**

Accedi a Console di gestione AWS e apri la AWS Clean Rooms console all'indirizzo [https://console.aws.amazon.com/cleanrooms.](https://console.aws.amazon.com/cleanrooms/home)

1. **Nel riquadro di navigazione a sinistra, scegli Collaborazioni.**

1. Scegli la collaborazione per la quale le **abilità del tuo socio sono impostate** sullo stato **Run jobs**.

1. Nella scheda **Analisi**, nella sezione **Tabelle**, visualizza le tabelle e il tipo di regola di analisi associato (**Regola di analisi personalizzata**).
**Nota**  
Se non vedi le tabelle che ti aspetti nell'elenco, potrebbe essere per i seguenti motivi:  
Le tabelle non sono state [associate](associate-configured-table.md).
Le tabelle non hanno una [regola di analisi configurata](add-analysis-rule.md).

1. Nella sezione **Analisi**, per la **modalità Analisi**, seleziona **Esegui modelli di analisi**.

1. Scegli il modello di PySpark **analisi dall'elenco a discesa Modello** di analisi.

   **I parametri del modello di PySpark analisi verranno inseriti automaticamente nella Definizione.**

1. Se il modello di analisi ha dei parametri definiti, in **Parametri**, fornisci i valori per i parametri:

   1. Per ogni parametro, visualizzate il **nome del parametro e il** **valore predefinito** (se configurato).

   1. Immettete un **valore** per ogni parametro che desiderate sostituire.
**Nota**  
Se non fornisci un valore ma esiste un valore predefinito, verrà utilizzato il valore predefinito.
**Importante**  
I valori dei parametri possono contenere fino a 1.000 caratteri e supportare la codifica UTF-8. Tutti i valori dei parametri vengono trattati come stringhe e passati allo script utente tramite l'oggetto context.  
Assicuratevi che lo script utente convalidi e gestisca i valori dei parametri in modo sicuro. Per ulteriori informazioni sulla gestione sicura dei parametri, consultate[Utilizzo dei parametri nei modelli di PySpark analisi](pyspark-parameter-handling.md).

1. Specificare il **tipo di lavoratore** supportato e il **numero di lavoratori**. 

   Utilizza la tabella seguente per determinare il tipo e il numero di lavoratori necessari per il tuo caso d'uso.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/clean-rooms/latest/userguide/run-jobs-with-analysis-template.html)
**Nota**  
Diversi tipi di lavoratori e numero di lavoratori hanno costi associati. Per ulteriori informazioni sui prezzi, consulta la pagina [AWS Clean Rooms dei prezzi](https://aws.amazon.com/clean-rooms/pricing/).

1. Scegli **Esegui**.
**Nota**  
Non puoi eseguire il lavoro se il membro che può ricevere risultati non ha configurato le impostazioni dei risultati del lavoro.

1. Continua a modificare i parametri ed esegui nuovamente il lavoro oppure scegli il pulsante **\$1** per iniziare un nuovo lavoro in una nuova scheda.