

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Pianifica processi di monitoraggio della deviazione dell'attributo delle funzionalità
<a name="clarify-model-monitor-feature-attribute-drift-schedule"></a>

Dopo aver creato la linea di base, puoi chiamare il metodo `create_monitoring_schedule()` dell'istanza di classe `ModelExplainabilityMonitor`, per pianificare un monitoraggio orario della spiegabilità dei modelli. Le sezioni seguenti mostrano come creare un monitoraggio della spiegabilità dei modelli, per modelli distribuiti su endpoint in tempo reale e per processi di trasformazione di batch.

**Importante**  
È possibile specificare un input di trasformazione di batch o un input dell'endpoint, ma non entrambi, quando si crea la pianificazione del monitoraggio.

Se è stato inviato un processo di base, il monitoraggio preleva automaticamente la configurazione di analisi dal processo di base. Tuttavia, se si salta la fase di creazione della linea di base o se il set di dati di acquisizione ha una natura diversa dal set di dati di addestramento, è necessario fornire la configurazione dell'analisi. `ModelConfig` è richiesto da `ExplainabilityAnalysisConfig`, il motivo è lo stesso per cui è necessario per il processo di base. Tieni presente che sono necessarie solo le funzionalità per il calcolo dell'attribuzione delle funzionalità, quindi dovresti escludere l'etichettatura Ground Truth.

## Monitoraggio della deviazione dell'attribuzione delle funzionalità per i modelli distribuiti su endpoint in tempo reale
<a name="model-monitor-explain-quality-rt"></a>

Per pianificare un monitoraggio della spiegabilità dei modelli su un endpoint in tempo reale, passa l'istanza `EndpointInput` all'argomento `endpoint_input` dell'istanza `ModelExplainabilityMonitor`, come mostrato nel seguente esempio di codice:

```
from sagemaker.model_monitor import CronExpressionGenerator

model_exp_model_monitor = ModelExplainabilityMonitor(
   role=sagemaker.get_execution_role(),
   ... 
)

schedule = model_exp_model_monitor.create_monitoring_schedule(
   monitor_schedule_name=schedule_name,
   post_analytics_processor_script=s3_code_postprocessor_uri,
   output_s3_uri=s3_report_path,
   statistics=model_exp_model_monitor.baseline_statistics(),
   constraints=model_exp_model_monitor.suggested_constraints(),
   schedule_cron_expression=CronExpressionGenerator.hourly(),
   enable_cloudwatch_metrics=True,
   endpoint_input=EndpointInput(
        endpoint_name=endpoint_name,
        destination="/opt/ml/processing/input/endpoint",
    )
)
```

## Monitoraggio della deviazione dell'attribuzione delle funzionalità per i processi di trasformazione di batch
<a name="model-monitor-explain-quality-bt"></a>

Per pianificare un monitoraggio della spiegabilità dei modelli in un processo di trasformazione di batch, passa l'istanza `BatchTransformInput` all'argomento `batch_transform_input` dell'istanza `ModelExplainabilityMonitor`, come mostrato nel seguente esempio di codice:

```
from sagemaker.model_monitor import CronExpressionGenerator

model_exp_model_monitor = ModelExplainabilityMonitor(
   role=sagemaker.get_execution_role(),
   ... 
)

schedule = model_exp_model_monitor.create_monitoring_schedule(
   monitor_schedule_name=schedule_name,
   post_analytics_processor_script=s3_code_postprocessor_uri,
   output_s3_uri=s3_report_path,
   statistics=model_exp_model_monitor.baseline_statistics(),
   constraints=model_exp_model_monitor.suggested_constraints(),
   schedule_cron_expression=CronExpressionGenerator.hourly(),
   enable_cloudwatch_metrics=True,
   batch_transform_input=BatchTransformInput(
        destination="opt/ml/processing/data",
        model_name="batch-fraud-detection-model",
        input_manifests_s3_uri="s3://amzn-s3-demo-bucket/batch-fraud-detection/on-schedule-monitoring/in/",
        excludeFeatures="0",
   )
)
```