

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Monitoraggio dei processi Spark
<a name="monitoring-spark-jobs"></a>

Per monitorare e risolvere i problemi, configura gli endpoint interattivi in modo che i lavori avviati con l'endpoint possano inviare informazioni di log ad Amazon S3, Amazon Logs o entrambi. CloudWatch Le sezioni seguenti descrivono come inviare i log delle applicazioni Spark ad Amazon S3 per i processi Spark che avvii con gli endpoint interattivi di Amazon EMR su EKS.

**Configurazione della policy IAM per i log di Amazon S3**

Prima che i kernel possano inviare i dati dei log ad Amazon S3, nella policy delle autorizzazioni per il ruolo di esecuzione del processo devono essere incluse le seguenti autorizzazioni. Sostituisci *amzn-s3-demo-destination-bucket* con il nome del bucket di accesso.

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "s3:PutObject",
        "s3:GetObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::amzn-s3-demo-bucket",
        "arn:aws:s3:::amzn-s3-demo-bucket/*"
      ],
      "Sid": "AllowS3Putobject"
    }
  ]
}
```

------

**Nota**  
Amazon EMR su EKS può anche creare un bucket S3. Se un bucket Amazon S3 non è disponibile, includi l'autorizzazione `s3:CreateBucket` nella policy IAM.

Dopo avere assegnato al ruolo di esecuzione le autorizzazioni appropriate per l'invio dei log al bucket S3, i dati dei log vengono inviati ai seguenti percorsi di Amazon S3. Ciò accade quando `s3MonitoringConfiguration` viene passato nella sezione `monitoringConfiguration` di una richiesta `create-managed-endpoint`.
+ **Log dei driver**: `logUri/virtual-cluster-id/endpoints/endpoint-id/containers/spark-application-id/spark-application-id-driver/(stderr.gz/stdout.gz)`
+ **Log degli executor**: `logUri/virtual-cluster-id/endpoints/endpoint-id/containers/spark-application-id/executor-pod-name-exec-<Number>/(stderr.gz/stdout.gz)`

**Nota**  
Amazon EMR su EKS non carica i log degli endpoint sul bucket S3.