

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Come funziona l’elaborazione dei dati in Data Wrangler
<a name="canvas-data-processing"></a>

Mentre lavori con i dati in modo interattivo in un flusso di SageMaker dati Amazon Data Wrangler, Amazon SageMaker Canvas applica le trasformazioni solo a un set di dati di esempio per consentirti di visualizzarne l'anteprima. Dopo aver terminato il flusso di dati in SageMaker Canvas, puoi elaborare tutti i dati e salvarli in una posizione adatta ai flussi di lavoro di machine learning.

Dopo aver terminato la trasformazione dei dati in Data Wrangler, si può procedere in diversi modi:
+ [Crea un modello](canvas-processing-export-model.md). Puoi creare un modello Canvas, iniziando a creare direttamente un modello con i dati preparati. Puoi creare un modello dopo aver elaborato l’intero set di dati o esportando solo i dati di esempio che hai utilizzato in Data Wrangler. Canvas salva i dati elaborati (l’intero set di dati o i dati di esempio) come set di dati Canvas.

  Ti consigliamo di utilizzare i dati di esempio per le iterazioni rapide e tutti i dati per addestrare il modello finale. Quando si creano modelli tabulari, i set di dati di dimensioni superiori a 5 GB vengono automaticamente sottoposti a downsampling a 5 GB, mentre i set di dati per i modelli di previsione delle serie temporali di dimensioni superiori a 30 GB vengono sottoposti a downsampling a 30 GB.

  Per ulteriori informazioni sulla creazione di un modello, consulta [Funzionamento dei modelli personalizzati](canvas-build-model.md).
+ [Esporta i dati](canvas-export-data.md). Puoi esportare i dati per utilizzarli nei flussi di lavoro di machine learning. Quando scegli di esportare i dati, puoi procedere in diversi modi:
  + Puoi salvare i dati nell’applicazione Canvas come set di dati. Per ulteriori informazioni sui tipi di file supportati per i set di dati Canvas e sui requisiti aggiuntivi per l’importazione di dati in Canvas, consulta [Creazione di un set di dati](canvas-import-dataset.md).
  + Puoi salvare i dati in Amazon S3. A seconda della disponibilità di memoria Canvas, i dati vengono elaborati nell’applicazione e quindi esportati in Amazon S3. Se la dimensione del set di dati supera quella gestibile da Canvas, per impostazione predefinita Canvas utilizza un processo EMR Serverless per scalare su più istanze di calcolo, elaborare il set di dati completo ed esportarlo in Amazon S3. Puoi anche configurare manualmente un processo di SageMaker elaborazione per avere un controllo più granulare sulle risorse di calcolo utilizzate per elaborare i dati.
+ [Esporta un flusso di dati](canvas-export-data-flow.md). Potresti voler salvare il codice per il tuo flusso di dati per modificare o eseguire le trasformazioni all’esterno di Canvas. Canvas consente di salvare le trasformazioni del flusso di dati come codice Python in un notebook Jupyter, che puoi quindi esportare in Amazon S3 per utilizzarlo altrove nei tuoi flussi di lavoro di machine learning.

Quando esporti i dati da un flusso di dati e li salvi come set di dati Canvas o su Amazon S3, Canvas crea un nuovo nodo di destinazione nel flusso di dati, ovvero un nodo finale che mostra dove sono archiviati i dati elaborati. Puoi aggiungere altri nodi di destinazione al flusso se intendi eseguire più operazioni di esportazione. Ad esempio, puoi esportare i dati da diversi punti del flusso di dati per applicare solo alcune trasformazioni oppure puoi esportare i dati trasformati in diverse posizioni Amazon S3. Per ulteriori informazioni su come aggiungere o modificare un nodo di destinazione, consulta [Aggiunta di nodi di destinazione](canvas-destination-nodes-add.md) e [Modifica di un nodo di destinazione](canvas-destination-nodes-edit.md).

Per ulteriori informazioni sulla configurazione di una pianificazione con Amazon EventBridge per elaborare ed esportare automaticamente i dati in base a una pianificazione, consulta[Creazione di una pianificazione per elaborare automaticamente i nuovi dati](canvas-data-export-schedule-job.md).

# Esportazione per creare un modello
<a name="canvas-processing-export-model"></a>

Con pochi clic nel flusso di dati, puoi esportare i dati trasformati e iniziare a creare un modello di ML in Canvas. Canvas salva i dati come set di dati Canvas e ti indirizza alla pagina di configurazione per la creazione di un nuovo modello.

Per creare un modello Canvas con i dati trasformati:

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo da esportare.

1. Dal menu contestuale, scegli **Crea modello**.

1. Nel pannello laterale **Esporta per creare un modello**, inserisci il **nome** per il nuovo set di dati.

1. Lascia selezionata l’opzione **Elabora l’intero set di dati** per elaborare ed esportare l’intero set di dati prima di procedere con la creazione di un modello. Disattiva questa opzione per addestrare il modello utilizzando i dati di esempio interattivi con cui stai lavorando nel flusso di dati.

1. Inserisci il **nome del modello** per assegnare un nome al nuovo modello.

1. Seleziona un **tipo di problema** o il tipo di modello che intendi creare. Per ulteriori informazioni sui tipi di modello supportati in SageMaker Canvas, consulta[Funzionamento dei modelli personalizzati](canvas-build-model.md).

1. Seleziona la **colonna di destinazione** o il valore che desideri che il modello preveda.

1. Scegli **Esporta e crea modello**.

Dovrebbe aprirsi la scheda **Crea** per un nuovo modello Canvas, dove puoi completare la configurazione e l’addestramento del modello. Per ulteriori informazioni sulla creazione di un modello, consulta [Crea un modello](canvas-build-model-how-to.md).

# Esporta dati
<a name="canvas-export-data"></a>

Esporta i dati per applicare le trasformazioni dal flusso di dati all’intero set di dati importato. Puoi esportare qualsiasi nodo del flusso di dati nelle seguenti posizioni:
+ SageMaker Set di dati Canvas
+ Simple Storage Service (Amazon S3)

Per addestrare i modelli in Canvas, puoi esportare il tuo set di dati completo e trasformato come set di dati Canvas. Se desideri utilizzare i dati trasformati in flussi di lavoro di machine learning esterni a SageMaker Canvas, puoi esportare il tuo set di dati in Amazon S3.

## Esportazione in un set di dati Canvas
<a name="canvas-export-data-canvas"></a>

Utilizza la seguente procedura per esportare un set di dati SageMaker Canvas da un nodo del flusso di dati.

**Per esportare un nodo nel flusso come set di dati SageMaker Canvas**

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo da esportare.

1. Nel menu contestuale, passa il mouse su **Esporta**, quindi seleziona **Esporta dati nel set di dati Canvas**.

1. Nel pannello laterale **Esporta ne set di dati Canvas**, inserisci un **nome** per il nuovo set di dati.

1. Lascia selezionata l'opzione **Elabora l'intero set** di dati se desideri che SageMaker Canvas elabori e salvi l'intero set di dati. Disattiva questa opzione per applicare le trasformazioni solo ai dati di esempio con cui stai lavorando nel flusso di dati.

1. Scegli **Export** (Esporta).

A questo punto, dovresti poter accedere alla pagina **Set di dati** dell’applicazione Canvas e vedere il tuo nuovo set di dati.

## Esportazione in Amazon S3
<a name="canvas-export-data-s3"></a>

Quando esporti i dati in Amazon S3, puoi scalare per trasformare ed elaborare dati di qualsiasi dimensione. Canvas elabora automaticamente i dati in locale se la memoria dell’applicazione è in grado di gestire le dimensioni del set di dati. Se la dimensione del set di dati supera la capacità della memoria locale di 5 GB, Canvas avvia un processo remoto per conto dell’utente per allocare risorse di calcolo aggiuntive ed elaborare i dati più rapidamente. Per impostazione predefinita, Canvas utilizza Amazon EMR serverless per eseguire questi processi remoti. Tuttavia, puoi configurare manualmente Canvas per utilizzare EMR Serverless o un processo di SageMaker elaborazione con le tue impostazioni.

**Nota**  
Quando esegui un processo EMR Serverless, per impostazione predefinita il processo eredita il ruolo IAM, le impostazioni delle chiavi KMS e i tag dell’applicazione Canvas.

Di seguito viene riportato un riepilogo delle opzioni per i processi remoti in Canvas:
+ **EMR Serverless**: questa è l’opzione predefinita utilizzata da Canvas per i processi remoti. EMR Serverless alloca e scala automaticamente le risorse di calcolo per elaborare i dati, così non devi preoccuparti di scegliere le risorse di calcolo giuste per il tuo carico di lavoro. Per ulteriori informazioni su EMR Serverless, consulta la [Guida per l’utente di EMR Serverless](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/emr-serverless.html).
+ **SageMaker SageMaker Elaborazione**: i lavori di elaborazione offrono opzioni più avanzate e un controllo granulare sulle risorse di calcolo utilizzate per elaborare i dati. Ad esempio, puoi specificare il tipo e il numero di istanze di calcolo, configurare il processo nel tuo VPC e controllare l’accesso alla rete, automatizzare i processi di elaborazione e altro ancora. Per ulteriori informazioni sull’automazione dei processi di elaborazione, consulta [Creazione di una pianificazione per elaborare automaticamente i nuovi dati](canvas-data-export-schedule-job.md). Per informazioni più generali sui SageMaker processi di elaborazione, vedere. [Carichi di lavoro di trasformazione dei dati con Processing SageMaker](processing-job.md)

I tipi di file seguenti sono supportati durante l’esportazione in Amazon S3:
+ CSV
+ Parquet

Per iniziare, esamina i prerequisiti seguenti.

### Prerequisiti per i processi EMR Serverless
<a name="canvas-export-data-emr-prereqs"></a>

Per creare un processo remoto che utilizza risorse EMR Serverless, devi disporre delle autorizzazioni richieste. Puoi concedere le autorizzazioni tramite il dominio Amazon SageMaker AI o le impostazioni del profilo utente oppure puoi configurare manualmente il ruolo AWS IAM dell'utente. Per istruzioni su come concedere agli utenti le autorizzazioni per eseguire l’elaborazione di grandi quantità di dati, consulta [Concessione di autorizzazioni agli utenti per utilizzare grandi quantità di dati nel ciclo di vita di ML](canvas-large-data-permissions.md).

Se non desideri configurare queste politiche ma devi comunque elaborare set di dati di grandi dimensioni tramite Data Wrangler, in alternativa puoi utilizzare un processo di elaborazione. SageMaker 

Utilizza le procedure seguenti per esportare i dati in Amazon S3. Per configurare un processo remoto, segui le fasi avanzate facoltative.

**Per esportare un nodo del flusso in Amazon S3**

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo da esportare.

1. Nel menu contestuale, passa il mouse su **Esporta**, quindi seleziona **Esporta dati su Amazon S3**.

1. Nel pannello laterale **Esporta in Amazon S3**, puoi modificare il **nome** per il nuovo set di dati.

1. In **Posizione S3**, inserisci la posizione Amazon S3 in cui esportare il set di dati. Puoi inserire l’URI S3, l’alias o l’ARN della posizione S3 o del punto di accesso S3. Per ulteriori informazioni sui punti di accesso, consulta [Managing data access with Amazon S3 access points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html) in *Amazon S3 User Guide*.

1. (Facoltativo) In **Impostazioni avanzate**, specifica i valori per i campi seguenti:

   1. **Tipo di file**: il formato file dei dati esportati.

   1. **Delimitatore**: il delimitatore utilizzato per separare i valori nel file.

   1. **Compressione**: il metodo di compressione utilizzato per ridurre le dimensioni del file.

   1. **Numero di partizioni**: il numero di file del set di dati che Canvas scrive come output del processo.

   1. **Scegli colonne**: puoi scegliere un sottoinsieme di colonne dai dati da includere nelle partizioni.

1. Lascia selezionata l’opzione **Elabora l’intero set di dati** se desideri che Canvas applichi le trasformazioni del flusso di dati all’intero set di dati ed esporti il risultato. Se deselezioni questa opzione, Canvas applica le trasformazioni solo al campione del set di dati utilizzato nel flusso di dati interattivo di Data Wrangler.
**Nota**  
Se esporti solo un campione di dati, Canvas elabora i dati nell’applicazione e non crea un processo remoto per conto tuo.

1. Lascia selezionata l’opzione **Configurazione automatica del processo** se desideri che Canvas decida automaticamente se eseguire il processo con la memoria dell’applicazione Canvas o con un processo EMR Serverless. Se si deseleziona questa opzione e si configura manualmente il processo, è possibile scegliere di utilizzare un processo EMR Serverless o SageMaker un processo di elaborazione. Per istruzioni su come configurare un processo EMR Serverless o di SageMaker elaborazione, vedere la sezione successiva a questa procedura prima di esportare i dati.

1. Scegli **Export** (Esporta).

Le seguenti procedure mostrano come configurare manualmente le impostazioni del processo remoto per EMR Serverless o SageMaker Processing durante l'esportazione del set di dati completo in Amazon S3.

------
#### [ EMR Serverless ]

Per configurare un processo EMR Serverless durante l’esportazione in Amazon S3, procedi come descritto di seguito:

1. Nel pannello laterale Esporta in Amazon S3, disattiva l’opzione di **configurazione automatica del processo**.

1. Seleziona **EMR Serverless**.

1. In **Nome processo**, inserisci un nome per il processo EMR Serverless. Il nome può contenere solo lettere, numeri, trattini e caratteri di sottolineatura.

1. In **Ruolo IAM**, inserisci il ruolo di esecuzione IAM dell’utente. Questo ruolo deve disporre delle autorizzazioni necessarie per eseguire applicazioni EMR Serverless. Per ulteriori informazioni, consulta [Concessione di autorizzazioni agli utenti per utilizzare grandi quantità di dati nel ciclo di vita di ML](canvas-large-data-permissions.md).

1. (Facoltativo) Per la **chiave KMS**, specificare l'ID della chiave o l'ARN di AWS KMS key un per crittografare i registri dei lavori. Se non inserisci una chiave, Canvas utilizza una chiave predefinita per EMR Serverless.

1. (Facoltativo) Per la **configurazione del monitoraggio**, inserisci il nome di un gruppo di log di Amazon CloudWatch Logs in cui desideri pubblicare i log.

1. (Facoltativo) In **Tag**, aggiungi i tag dei metadati al processo EMR Serverless costituiti da coppie chiave-valore. Questi tag possono essere utilizzati per classificare e cercare i processi.

1. Scegli **Export** (Esporta) per avviare il processo.

------
#### [ SageMaker Processing ]

Per configurare un SageMaker processo di elaborazione durante l'esportazione in Amazon S3, procedi come segue:

1. Nel pannello laterale **Esporta in Amazon S3**, disattiva l’opzione di **configurazione automatica del processo**.

1. **Seleziona SageMaker Elaborazione.**

1. Per **Job name**, inserisci un nome per il tuo job di SageMaker AI Processing.

1. In **Tipo di istanza**, seleziona il tipo di istanza di calcolo per eseguire il processo di elaborazione.

1. In **Numero di istanze**, specifica il numero di istanze di calcolo da avviare.

1. In **Ruolo IAM**, inserisci il ruolo di esecuzione IAM dell’utente. Questo ruolo deve disporre delle autorizzazioni necessarie affinché l' SageMaker IA possa creare ed eseguire lavori di elaborazione per tuo conto. Queste autorizzazioni vengono concesse se hai la [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html)policy allegata al tuo ruolo IAM.

1. In **Dimensioni volume**, inserisci la dimensione dell’archiviazione in GB per il volume di archiviazione di ML collegato a ciascuna istanza di elaborazione. Scegli questo valore in base alla dimensione prevista dei dati di input e output.

1. (Facoltativo) In **Chiave KMS del volume**, specifica una chiave KMS per crittografare il volume di archiviazione. Se non specifichi una chiave, viene utilizzata la chiave di crittografia predefinita di Amazon EBS.

1. (Facoltativo) In **Chiave KMS**, specifica una chiave KMS per crittografare le origini dati di input e output di Amazon S3 utilizzate dal processo di elaborazione.

1. (Facoltativo) In **Configurazione memoria Spark**, procedi come descritto di seguito:

   1. Inserisci la **memoria del driver in MB** per il nodo driver Spark che gestisce il coordinamento e la pianificazione dei processi.

   1. Inserisci la **memoria dell’esecutore in MB** per i nodi dell’esecutore Spark che eseguono le singole attività nel processo.

1. (Facoltativo) In **Configurazione di rete**, procedi come descritto di seguito:

   1. Per la **configurazione IDs della sottorete**, inserisci le sottoreti VPC per le istanze di elaborazione in cui avviare. Per impostazione predefinita, il processo utilizza le impostazioni del VPC predefinito.

   1. Per la **configurazione del gruppo di sicurezza**, inserisci uno dei gruppi IDs di sicurezza per controllare le regole di connettività in entrata e in uscita.

   1. Attiva l’opzione **Abilita la crittografia del traffico tra container** per crittografare le comunicazioni di rete tra i container di elaborazione durante il processo.

1. (Facoltativo) Per le **pianificazioni di affiliazione**, puoi scegliere di creare una EventBridge pianificazione Amazon per far sì che il processo di elaborazione venga eseguito a intervalli ricorrenti. Scegli **Crea nuova pianificazione** e compila la finestra di dialogo. Per ulteriori informazioni sulla compilazione di questa sezione e sull’esecuzione dei processi di elaborazione in base a una pianificazione, consulta [Creazione di una pianificazione per elaborare automaticamente i nuovi dati](canvas-data-export-schedule-job.md).

1. (Facoltativo) Aggiungi i **tag** come coppie chiave-valore in modo da poter classificare e cercare i processi di elaborazione.

1. Scegli **Esporta** per avviare il processo di elaborazione.

------

Dopo aver esportato i dati, dovresti trovare il set di dati completamente elaborato nella posizione Amazon S3 specificata.

# Esportazione di un flusso di dati
<a name="canvas-export-data-flow"></a>

L’esportazione del flusso di dati traduce le operazioni che hai eseguito in Data Wrangler e le esporta in un notebook Jupyter di codice Python che puoi modificare ed eseguire. Questo può essere utile per integrare il codice per le trasformazioni dei dati nelle pipeline di machine learning.

Puoi scegliere qualsiasi nodo di dati nel flusso di dati ed esportarlo. L'esportazione del nodo di dati esporta la trasformazione che il nodo rappresenta e le trasformazioni che la precedono.

**Per esportare un flusso di dati come notebook Jupyter**

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo da esportare.

1. Nel menu contestuale, passa il mouse su **Esporta**, quindi su **Esporta tramite notebook Jupyter**.

1. Seleziona una delle seguenti opzioni:
   + **SageMaker Pipelines**
   + **Amazon S3**
   + **SageMaker Pipeline di inferenza AI**
   + **SageMaker AI Feature Store**
   + **Codice Python**

1. Viene visualizzata la finestra di dialogo **Esporta flusso di dati come notebook**. Selezionare uno dei seguenti:
   + **Scarica una copia locale**
   + **Esporta in una posizione S3**

1. Se hai selezionato **Esporta in una posizione S3**, inserisci la posizione Amazon S3 in cui esportare il notebook.

1. Scegli **Export** (Esporta).

Il notebook Jupyter deve essere scaricato sul computer locale oppure è possibile trovarlo salvato nella posizione Amazon S3 specificata.

# Aggiunta di nodi di destinazione
<a name="canvas-destination-nodes-add"></a>

Un nodo di destinazione in SageMaker Canvas specifica dove archiviare i dati elaborati e trasformati. Quando scegli di esportare i dati trasformati in Amazon S3, Canvas utilizza la posizione del nodo di destinazione specificata, applicando tutte le trasformazioni che hai configurato nel flusso di dati. Per ulteriori informazioni sui processi di esportazione in Amazon S3, consulta la sezione precedente [Esportazione in Amazon S3](canvas-export-data.md#canvas-export-data-s3).

Per impostazione predefinita, la scelta di esportare i dati in Amazon S3 aggiunge un nodo di destinazione al flusso di dati. Tuttavia, se aggiungi più nodi di destinazione al flusso, puoi esportare contemporaneamente diversi set di trasformazioni o variazioni dei dati in diverse posizioni Amazon S3. Ad esempio, puoi creare un nodo di destinazione che esporta i dati dopo aver applicato tutte le trasformazioni e un altro nodo di destinazione che esporta i dati solo dopo aver applicato specifiche trasformazioni iniziali, ad esempio un’operazione di join. Questa flessibilità consente di esportare e archiviare diverse versioni o sottoinsiemi dei dati trasformati in posizioni S3 separate per vari i casi d’uso.

Utilizza la procedura seguente per aggiungere un nodo di destinazione al flusso di dati.

**Per aggiungere un nuovo nodo di destinazione**

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo in cui posizionare il nodo di destinazione.

1. Nel menu contestuale, passa il mouse su **Esporta**, quindi seleziona **Aggiungi destinazione**.

1. Nel pannello laterale **Destinazione di esportazione**, inserisci un **nome per il set di dati** per assegnare un nome all’output.

1. In **Posizione Amazon S3**, inserisci la posizione Amazon S3 in cui esportare l’output. Puoi inserire l’URI S3, l’alias o l’ARN della posizione S3 o del punto di accesso S3. Per ulteriori informazioni sui punti di accesso, consulta [Managing data access with Amazon S3 access points](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html) in *Amazon S3 User Guide*.

1. In **Impostazioni di esportazione**, specifica i seguenti campi:

   1. **Tipo di file**: il formato file dei dati esportati.

   1. **Delimitatore**: il delimitatore utilizzato per separare i valori nel file.

   1. **Compressione**: il metodo di compressione utilizzato per ridurre le dimensioni del file.

1. In **Partizionamento**, specifica i seguenti campi:

   1. **Numero di partizioni**: il numero di file di set di dati che SageMaker Canvas scrive come output del lavoro.

   1. **Scegli colonne**: puoi scegliere un sottoinsieme di colonne dai dati da includere nelle partizioni.

1. Scegli **Aggiungi** per aggiungere semplicemente un nodo di destinazione al flusso di dati oppure scegli **Aggiungi** ed **Esporta** per aggiungere il nodo e avviare un processo di esportazione.

A questo punto, dovresti vedere un nuovo nodo di destinazione nel tuo flusso.

# Modifica di un nodo di destinazione
<a name="canvas-destination-nodes-edit"></a>

Un *nodo di destinazione* in un flusso di dati Amazon SageMaker Canvas specifica la posizione Amazon S3 in cui vengono archiviati i dati elaborati e trasformati, applicando tutte le trasformazioni configurate nel flusso di dati. Puoi modificare la configurazione di un nodo di destinazione esistente e quindi scegliere di rieseguire il processo per sovrascrivere i dati nella posizione Amazon S3 specificata. Per ulteriori informazioni sull’aggiunta di un nuovo nodo di destinazione, consulta [Aggiunta di nodi di destinazione](canvas-destination-nodes-add.md).

Utilizza la procedura seguente per modificare un nodo di destinazione nel flusso di dati e avviare un processo di esportazione.

**Per modificare un nodo di destinazione**

1. Accedi al tuo flusso di dati.

1. Scegli l’icona con tre puntini accanto al nodo di destinazione da modificare.

1. Nel menu contestuale, scegli **Modifica**.

1. Si apre il pannello laterale **Modifica destinazione**. Da questo pannello, puoi modificare dettagli come il nome del set di dati, la posizione Amazon S3 e le impostazioni di esportazione e partizionamento.

1. (Facoltativo) In **Nodi aggiuntivi da esportare**, puoi selezionare più nodi di destinazione da elaborare quando esegui il processo di esportazione.

1. Lascia selezionata l’opzione **Elabora l’intero set di dati** se desideri che Canvas applichi le trasformazioni del flusso di dati all’intero set di dati ed esporti il risultato. Se deselezioni questa opzione, Canvas applica le trasformazioni solo al campione del set di dati utilizzato nel flusso di dati interattivo di Data Wrangler.

1. Lascia selezionata l’opzione **Configurazione automatica del processo** se desideri che Canvas decida automaticamente se eseguire il processo con la memoria dell’applicazione Canvas o con un processo EMR Serverless. Se si deseleziona questa opzione e si configura manualmente il processo, è possibile scegliere di utilizzare un processo EMR Serverless o SageMaker un processo di elaborazione. Per istruzioni su come configurare un processo EMR Serverless o di SageMaker elaborazione, vedere la sezione precedente. [Esportazione in Amazon S3](canvas-export-data.md#canvas-export-data-s3)

1. Una volta completate le modifiche, scegli **Aggiorna**.

Il salvataggio delle modifiche alla configurazione del nodo di destinazione non riesegue automaticamente un processo né sovrascrive i dati che sono già stati elaborati ed esportati. Esporta nuovamente i dati per eseguire un processo con la nuova configurazione. Se decidi di esportare nuovamente i dati con un processo, Canvas utilizza la configurazione aggiornata del nodo di destinazione per trasformare e inviare i dati nella posizione specificata, sovrascrivendo i dati esistenti.

# Creazione di una pianificazione per elaborare automaticamente i nuovi dati
<a name="canvas-data-export-schedule-job"></a>

**Nota**  
La sezione seguente si applica solo ai lavori di SageMaker elaborazione. Se hai utilizzato le impostazioni predefinite di Canvas o EMR Serverless per creare un processo remoto per applicare le trasformazioni al set di dati completo, puoi ignorare questa sezione.

Se elabori i dati periodicamente, puoi creare una pianificazione per eseguire automaticamente il processo di elaborazione. Ad esempio, è possibile creare una pianificazione che esegue automaticamente un processo di elaborazione quando si ottengono nuovi dati. Per ulteriori informazioni sui processi di elaborazione, consulta [Esportazione in Amazon S3](canvas-export-data.md#canvas-export-data-s3).

Quando crei un processo, devi specificare un ruolo IAM con le autorizzazioni per creare il processo. È possibile utilizzare la [AmazonSageMakerCanvasDataPrepFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasDataPrepFullAccess.html)politica per aggiungere autorizzazioni.

Aggiungi la seguente politica di fiducia al ruolo per EventBridge consentirne l'assunzione.

```
{
    "Effect": "Allow",
    "Principal": {
        "Service": "events.amazonaws.com"
    },
    "Action": "sts:AssumeRole"
}
```

**Importante**  
Quando crei una pianificazione, Data Wrangler crea un `eventRule` ingresso. EventBridge Ti vengono addebitati costi sia per le regole degli eventi che crei sia per le istanze utilizzate per eseguire il processo di elaborazione.  
Per informazioni sui EventBridge prezzi, consulta la pagina [ EventBridge dei prezzi di Amazon](https://aws.amazon.com/eventbridge/pricing/). Per informazioni sui prezzi dei lavori di elaborazione, consulta [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

Puoi impostare una pianificazione utilizzando uno dei seguenti metodi:
+ [Espressioni CRON](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-create-rule-schedule.html)
**Nota**  
Data Wrangler non supporta le seguenti espressioni:  
LW\$1
Abbreviazioni per i giorni
Abbreviazioni per i mesi
+ [Espressioni della FREQUENZA](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-create-rule-schedule.html#eb-rate-expressions)
+ Ricorrente: per l'esecuzione del processo Imposta un intervallo orario o giornaliero.
+ Ora specifica: per l'esecuzione del processo imposta giorni e orari specifici.

Le seguenti sezioni forniscono le procedure per la pianificazione dei lavori durante la compilazione delle impostazioni del processo di elaborazione SageMaker AI durante l'[esportazione dei dati in Amazon S3](canvas-export-data.md#canvas-export-data-s3). Tutte le seguenti istruzioni iniziano nella sezione **Pianificazioni degli associati** delle impostazioni del processo di SageMaker elaborazione.

------
#### [ CRON ]

Utilizza la procedura seguente per creare una pianificazione con un'espressione CRON.

1. **Nel pannello laterale **Esporta in Amazon S3**, assicurati di aver disattivato l'interruttore di **configurazione automatica del lavoro** e di aver selezionato l'SageMaker opzione Elaborazione.**

1. Nelle impostazioni del **SageMaker processo di elaborazione**, apri la sezione **Pianificazioni di associazione** e scegli **Crea** nuova pianificazione.

1. Si apre la finestra di dialogo **Crea una nuova pianificazione**. Per **Nome della pianificazione**, specifica il nome della pianificazione.

1. Per **Frequenza di esecuzione**, seleziona **CRON**.

1. Per ciascuno dei campi **Minuti**, **Ore**, **Giorni del mese**, **Mese** e **Giorno della settimana**, inserisci valori di espressione Cron validi.

1. Scegli **Create** (Crea).

1. (Facoltativo) seleziona **Aggiungi un’altra pianificazione** per eseguire il lavoro in base a una pianificazione aggiuntiva.
**Nota**  
È possibile associare un massimo di due pianificazioni. Le pianificazioni sono indipendenti e non si influenzano tra loro a meno che i tempi non si sovrappongano.

1. Seleziona una delle seguenti opzioni:
   + **Pianifica ed esegui ora**: il processo viene eseguito immediatamente, quindi si ripete in base alle pianificazioni.
   + **Solo pianificazione**: il processo viene eseguito solo in base alle pianificazioni specificate.

1. Scegli **Esporta** dopo aver compilato il resto delle impostazioni del processo di esportazione.

------
#### [ RATE ]

Utilizza la procedura seguente per creare una pianificazione con un'espressione della FREQUENZA.

1. **Nel pannello laterale **Esporta in Amazon S3**, assicurati di aver disattivato l'interruttore di **configurazione automatica del lavoro** e di aver selezionato l'SageMaker opzione Elaborazione.**

1. Nelle impostazioni del **SageMaker processo di elaborazione**, apri la sezione **Pianificazioni di associazione** e scegli **Crea** nuova pianificazione.

1. Si apre la finestra di dialogo **Crea una nuova pianificazione**. Per **Nome della pianificazione**, specifica il nome della pianificazione.

1. Per **Frequenza di esecuzione**, seleziona **Frequenza**.

1. Per **Valore**, specifica un numero intero.

1. Per **Unità**, seleziona una delle opzioni seguenti:
   + **Minuti**
   + **Ore**
   + **Giorni**

1. Scegli **Create** (Crea).

1. (Facoltativo) seleziona **Aggiungi un’altra pianificazione** per eseguire il lavoro in base a una pianificazione aggiuntiva.
**Nota**  
È possibile associare un massimo di due pianificazioni. Le pianificazioni sono indipendenti e non si influenzano tra loro a meno che i tempi non si sovrappongano.

1. Seleziona una delle seguenti opzioni:
   + **Pianifica ed esegui ora**: il processo viene eseguito immediatamente, quindi si ripete in base alle pianificazioni.
   + **Solo pianificazione**: il processo viene eseguito solo in base alle pianificazioni specificate.

1. Scegli **Esporta** dopo aver compilato il resto delle impostazioni del processo di esportazione.

------
#### [ Recurring ]

Utilizza la procedura seguente per creare una pianificazione che esegua un processo su base ricorrente.

1. **Nel pannello laterale **Esporta in Amazon S3**, assicurati di aver disattivato l'interruttore di **configurazione automatica del lavoro** e di aver selezionato l'SageMaker opzione Elaborazione.**

1. Nelle impostazioni del **SageMaker processo di elaborazione**, apri la sezione **Pianificazioni di associazione** e scegli **Crea** nuova pianificazione.

1. Si apre la finestra di dialogo **Crea una nuova pianificazione**. Per **Nome della pianificazione**, specifica il nome della pianificazione.

1. In **Frequenza di esecuzione**, scegli **Ricorrente**.

1. Per **Ogni x ore**, specifica la frequenza oraria di esecuzione del processo durante il giorno. I valori validi sono numeri interi compresi nell'intervallo tra **1** e **23**.

1. Per **In giorni**, seleziona una delle seguenti opzioni:
   + **Ogni giorno**
   + **Fine settimana**
   + **Giorni della settimana**
   + **Seleziona giorni**

   1. (Facoltativo) Se hai selezionato **Seleziona giorni**, seleziona i giorni della settimana in cui eseguire il processo.
**Nota**  
La pianificazione viene ripristinata ogni giorno. Se pianifichi l'esecuzione di un processo ogni cinque ore, questo viene eseguito nelle seguenti ore del giorno:  
00:00
05:00
10:00
15:00
20:00

1. Scegli **Create** (Crea).

1. (Facoltativo) seleziona **Aggiungi un’altra pianificazione** per eseguire il lavoro in base a una pianificazione aggiuntiva.
**Nota**  
È possibile associare un massimo di due pianificazioni. Le pianificazioni sono indipendenti e non si influenzano tra loro a meno che i tempi non si sovrappongano.

1. Seleziona una delle seguenti opzioni:
   + **Pianifica ed esegui ora**: il processo viene eseguito immediatamente, quindi si ripete in base alle pianificazioni.
   + **Solo pianificazione**: il processo viene eseguito solo in base alle pianificazioni specificate.

1. Scegli **Esporta** dopo aver compilato il resto delle impostazioni del processo di esportazione.

------
#### [ Specific time ]

Utilizzare la procedura seguente per creare una pianificazione che esegua un processo a orari specifici.

1. **Nel pannello laterale **Esporta in Amazon S3**, assicurati di aver disattivato l'interruttore di **configurazione automatica del lavoro** e di aver selezionato l'SageMaker opzione Elaborazione.**

1. Nelle impostazioni del **SageMaker processo di elaborazione**, apri la sezione **Pianificazioni di associazione** e scegli **Crea** nuova pianificazione.

1. Si apre la finestra di dialogo **Crea una nuova pianificazione**. Per **Nome della pianificazione**, specifica il nome della pianificazione.

1. In **Frequenza di esecuzione**, scegli **Ora di inizio**.

1. In **Ora di inizio**, inserisci un’ora in formato UTC (ad esempio, **09:00**). Per impostazione predefinita, l’ora di inizio si basa sul fuso orario in cui ti trovi.

1. Per **In giorni**, seleziona una delle seguenti opzioni:
   + **Ogni giorno**
   + **Fine settimana**
   + **Giorni della settimana**
   + **Seleziona giorni**

   1. (Facoltativo) Se hai selezionato **Seleziona giorni**, seleziona i giorni della settimana in cui eseguire il processo.

1. Scegli **Create** (Crea).

1. (Facoltativo) seleziona **Aggiungi un’altra pianificazione** per eseguire il lavoro in base a una pianificazione aggiuntiva.
**Nota**  
È possibile associare un massimo di due pianificazioni. Le pianificazioni sono indipendenti e non si influenzano tra loro a meno che i tempi non si sovrappongano.

1. Seleziona una delle seguenti opzioni:
   + **Pianifica ed esegui ora**: il processo viene eseguito immediatamente, quindi si ripete in base alle pianificazioni.
   + **Solo pianificazione**: il processo viene eseguito solo in base alle pianificazioni specificate.

1. Scegli **Esporta** dopo aver compilato il resto delle impostazioni del processo di esportazione.

------

Puoi utilizzare l' SageMaker intelligenza artificiale Console di gestione AWS per visualizzare i lavori la cui esecuzione è pianificata. I processi di elaborazione vengono eseguiti in Pipelines. Ogni processo di elaborazione ha una propria pipeline. Viene eseguito come fase di elaborazione all'interno della pipeline. All'interno di una pipeline puoi visualizzare le pianificazioni che hai creato. Per informazioni sulla visualizzazione di una pipeline, consulta [Visualizzazione dei dettagli di una pipeline](pipelines-studio-list.md).

Per visualizzare i processi pianificati utilizza la procedura seguente.

Per visualizzare i processi che hai programmato, procedi come segue.

1. Apri Amazon SageMaker Studio Classic.

1. Apri Pipelines.

1. Visualizza le pipeline dei lavori che hai creato.

   La pipeline che esegue il processo utilizza il nome del processo come prefisso. Ad esempio, se hai creato un processo denominato `housing-data-feature-enginnering`, il nome della pipeline sarà `canvas-data-prep-housing-data-feature-engineering`

1. Selezionare la pipeline contenente il tuo processo.

1. Visualizza lo stato delle pipeline. Le pipeline con **stato** **Riuscito** hanno eseguito correttamente il processo di elaborazione.

Per interrompere l'esecuzione del processo di elaborazione, effettua le seguenti operazioni:

Per interrompere l'esecuzione di un processo di elaborazione, elimina la regola di evento che specifica la pianificazione. L'eliminazione di una regola di evento interrompe l'esecuzione di tutti i processi associati alla pianificazione. Per informazioni sull'eliminazione di una regola, consulta [Disabilitazione o eliminazione di una regola Amazon](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-delete-rule.html). EventBridge 

Puoi anche interrompere ed eliminare le pipeline associate alle pianificazioni. Per informazioni sull'arresto di una pipeline, consulta. [StopPipelineExecution](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_StopPipelineExecution.html) Per informazioni sull'eliminazione di una pipeline, vedere. [DeletePipeline](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DeletePipeline.html#API_DeletePipeline_RequestSyntax)