

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# PySpark Lavori in corso
<a name="run-jobs"></a>

In qualità di [membro che può eseguire query](glossary.md#glossary-member-who-can-query), puoi eseguire un PySpark processo su una tabella configurata utilizzando un [modello di PySpark analisi](create-analysis-template.md) approvato.

**Prerequisiti**

 Prima di eseguire un PySpark job, è necessario disporre di:
+ Un'iscrizione attiva alla AWS Clean Rooms collaborazione
+ Accesso ad almeno un modello di analisi nella collaborazione
+ Accesso ad almeno una tabella configurata nella collaborazione
+ Autorizzazioni per scrivere i risultati di un PySpark lavoro in un bucket S3 specificato

  Per informazioni sulla creazione del ruolo di servizio richiesto, consulta. [Crea un ruolo di servizio per scrivere i risultati di un PySpark lavoro](setting-up-roles.md#create-role-pyspark-job)
+ Il membro responsabile del pagamento dei costi di elaborazione ha aderito alla collaborazione come membro attivo

Per informazioni su come interrogare i dati o visualizzare le query chiamando direttamente l'operazione AWS Clean Rooms `StartProtectedJob` API o utilizzando il AWS SDKs, consulta l'[AWS Clean Rooms API](https://docs.aws.amazon.com/clean-rooms/latest/apireference/Welcome.html) Reference.

Per informazioni sulla registrazione dei lavori, vedere. [Registrazione dell'analisi AWS Clean Rooms](query-logs.md)

Per informazioni sulla ricezione dei risultati delle mansioni, vedere[Ricezione e utilizzo dei risultati delle analisi](receive-query-results.md).

I seguenti argomenti spiegano come eseguire un PySpark job su una tabella configurata in una collaborazione utilizzando la AWS Clean Rooms console.

**Topics**
+ [Esecuzione di un PySpark processo su una tabella configurata utilizzando un modello di PySpark analisi](run-jobs-with-analysis-template.md)
+ [Visualizzazione dei lavori recenti](view-recent-jobs.md)
+ [Visualizzazione dettagli processo](view-job-details.md)

# Esecuzione di un PySpark processo su una tabella configurata utilizzando un modello di PySpark analisi
<a name="run-jobs-with-analysis-template"></a>

Questa procedura dimostra come utilizzare un modello di PySpark analisi nella AWS Clean Rooms console per analizzare le tabelle configurate con la regola di analisi **personalizzata**. 

**Per eseguire un PySpark processo su una tabella configurata utilizzando un modello di PySpark analisi**

Accedi a Console di gestione AWS e apri la AWS Clean Rooms console all'indirizzo [https://console.aws.amazon.com/cleanrooms.](https://console.aws.amazon.com/cleanrooms/home)

1. **Nel riquadro di navigazione a sinistra, scegli Collaborazioni.**

1. Scegli la collaborazione per la quale le **abilità del tuo socio sono impostate** sullo stato **Run jobs**.

1. Nella scheda **Analisi**, nella sezione **Tabelle**, visualizza le tabelle e il tipo di regola di analisi associato (**Regola di analisi personalizzata**).
**Nota**  
Se non vedi le tabelle che ti aspetti nell'elenco, potrebbe essere per i seguenti motivi:  
Le tabelle non sono state [associate](associate-configured-table.md).
Le tabelle non hanno una [regola di analisi configurata](add-analysis-rule.md).

1. Nella sezione **Analisi**, per la **modalità Analisi**, seleziona **Esegui modelli di analisi**.

1. Scegli il modello di PySpark **analisi dall'elenco a discesa Modello** di analisi.

   **I parametri del modello di PySpark analisi verranno inseriti automaticamente nella Definizione.**

1. Se il modello di analisi ha dei parametri definiti, in **Parametri**, fornisci i valori per i parametri:

   1. Per ogni parametro, visualizzate il **nome del parametro e il** **valore predefinito** (se configurato).

   1. Immettete un **valore** per ogni parametro che desiderate sostituire.
**Nota**  
Se non fornisci un valore ma esiste un valore predefinito, verrà utilizzato il valore predefinito.
**Importante**  
I valori dei parametri possono contenere fino a 1.000 caratteri e supportare la codifica UTF-8. Tutti i valori dei parametri vengono trattati come stringhe e passati allo script utente tramite l'oggetto context.  
Assicuratevi che lo script utente convalidi e gestisca i valori dei parametri in modo sicuro. Per ulteriori informazioni sulla gestione sicura dei parametri, consultate[Utilizzo dei parametri nei modelli di PySpark analisi](pyspark-parameter-handling.md).

1. Specificare il **tipo di lavoratore** supportato e il **numero di lavoratori**. 

   Utilizza la tabella seguente per determinare il tipo e il numero di lavoratori necessari per il tuo caso d'uso.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/clean-rooms/latest/userguide/run-jobs-with-analysis-template.html)
**Nota**  
Diversi tipi di lavoratori e numero di lavoratori hanno costi associati. Per ulteriori informazioni sui prezzi, consulta la pagina [AWS Clean Rooms dei prezzi](https://aws.amazon.com/clean-rooms/pricing/).

1. Scegli **Esegui**.
**Nota**  
Non puoi eseguire il lavoro se il membro che può ricevere risultati non ha configurato le impostazioni dei risultati del lavoro.

1. Continua a modificare i parametri ed esegui nuovamente il lavoro oppure scegli il pulsante **\$1** per iniziare un nuovo lavoro in una nuova scheda.

# Visualizzazione dei lavori recenti
<a name="view-recent-jobs"></a>

Puoi visualizzare i lavori eseguiti negli ultimi 90 giorni nella scheda **Analisi**.

**Nota**  
Se la tua unica abilità di iscrizione è **Contribute data** e non sei il [membro che paga i costi di calcolo del lavoro](glossary.md#glossary-member-paying-for-query-compute), la scheda **Analisi** non viene visualizzata sulla console.

**Per visualizzare le offerte di lavoro recenti**

1. Accedi a Console di gestione AWS e apri la AWS Clean Rooms console all'indirizzo [https://console.aws.amazon.com/cleanrooms.](https://console.aws.amazon.com/cleanrooms/home)

1. **Nel riquadro di navigazione a sinistra, scegli Collaborazioni.**

1. Scegli una collaborazione.

1. Nella scheda **Analisi**, in **Analisi**, seleziona **Tutti i lavori** dal menu a discesa e visualizza i lavori eseguiti negli ultimi 90 giorni. 

1. Per ordinare i lavori recenti in base **allo stato**, seleziona uno stato dall'elenco a discesa **Tutti gli stati**.

   ****Gli stati sono: **Inviato, **Avviato****, **Annullato, Operato correttamente**, **Non riuscito** e Scaduto.****

# Visualizzazione dettagli processo
<a name="view-job-details"></a>

Puoi visualizzare i dettagli del lavoro come membro che può eseguire i lavori o come membro che può ricevere risultati.

**Per visualizzare i dettagli del lavoro**

1. Accedi a Console di gestione AWS e apri la AWS Clean Rooms console all'indirizzo [https://console.aws.amazon.com/cleanrooms.](https://console.aws.amazon.com/cleanrooms/home)

1. **Nel riquadro di navigazione a sinistra, scegli Collaborazioni.**

1. Scegli una collaborazione.

1. Nella scheda **Analisi**, in **Analisi**, seleziona **Tutti i lavori** dal menu a discesa, quindi esegui una delle seguenti operazioni: 
   + Scegli il pulsante di opzione per il lavoro specifico che desideri visualizzare, quindi scegli **Visualizza** dettagli.
   + Scegli l'**ID del lavoro protetto**. 

1. Nella pagina dei **dettagli del lavoro**, 
   + Se sei il membro che può eseguire i lavori, visualizza **i dettagli del lavoro****, Job** e **Results**.

     Viene visualizzato un messaggio che conferma che i risultati del lavoro sono stati consegnati al membro che può riceverli.
   + Se sei il membro che può ricevere risultati, visualizza i **dettagli e i **risultati** del Job**.