

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Planen Sie Aufträge zur Überwachung von Feature-Attributen
<a name="clarify-model-monitor-feature-attribute-drift-schedule"></a>

Nachdem Sie Ihre SHAP-Baseline erstellt haben, können Sie die `create_monitoring_schedule()` Methode Ihrer `ModelExplainabilityMonitor` Klasseninstance aufrufen, um eine stündliche Überwachung der Modellerklärbarkeit zu planen. In den folgenden Abschnitten erfahren Sie, wie Sie einen Monitor zur Erklärung des Modells für ein Modell erstellen, das auf einem Echtzeit-Endpunkt bereitgestellt wird, sowie für einen Batch-Transformationsauftrag.

**Wichtig**  
Sie können bei der Erstellung Ihres Überwachungsplans entweder eine Batch-Transformationseingabe oder eine Endpunkteingabe angeben, jedoch nicht beides.

Wenn ein Baselining-Auftrag übermittelt wurde, übernimmt der Monitor automatisch die Analysekonfiguration aus dem Baselining-Auftrag. Wenn Sie jedoch den Baselining-Schritt überspringen oder der Capture-Datensatz einen anderen Charakter als der Trainingsdatensatz hat, müssen Sie die Analysekonfiguration angeben. `ModelConfig` ist aus demselben Grund erforderlich, aus dem es `ExplainabilityAnalysisConfig` für den Baselining-Auftrag erforderlich ist. Beachten Sie, dass für die Berechnung der Feature-Attribution nur Features erforderlich sind. Daher sollten Sie die Ground-Truth-Etikettierung ausschließen.

## Überwachung von Abweichungen bei der Merkmalszuweisung bei Modellen, die auf Echtzeit-Endpunkten bereitgestellt werden
<a name="model-monitor-explain-quality-rt"></a>

Um einen Monitor der Modellerklärbarkeit für einen Echtzeit-Endpunkt zu planen, übergeben Sie Ihre `EndpointInput` Instance an das `endpoint_input` Argument Ihrer `ModelExplainabilityMonitor` Instance, wie im folgenden Codebeispiel gezeigt:

```
from sagemaker.model_monitor import CronExpressionGenerator

model_exp_model_monitor = ModelExplainabilityMonitor(
   role=sagemaker.get_execution_role(),
   ... 
)

schedule = model_exp_model_monitor.create_monitoring_schedule(
   monitor_schedule_name=schedule_name,
   post_analytics_processor_script=s3_code_postprocessor_uri,
   output_s3_uri=s3_report_path,
   statistics=model_exp_model_monitor.baseline_statistics(),
   constraints=model_exp_model_monitor.suggested_constraints(),
   schedule_cron_expression=CronExpressionGenerator.hourly(),
   enable_cloudwatch_metrics=True,
   endpoint_input=EndpointInput(
        endpoint_name=endpoint_name,
        destination="/opt/ml/processing/input/endpoint",
    )
)
```

## Funktionen zur Überwachung von Attributionsabweichungen bei Batch-Transformationsaufträgen
<a name="model-monitor-explain-quality-bt"></a>

Um eine Überwachung der Modellerklärbarkeit für einen Batch-Transformationsjauftrag zu planen, übergeben Sie Ihre `BatchTransformInput` Instance an das `batch_transform_input` Argument Ihrer `ModelExplainabilityMonitor` Instance, wie im folgenden Codebeispiel gezeigt:

```
from sagemaker.model_monitor import CronExpressionGenerator

model_exp_model_monitor = ModelExplainabilityMonitor(
   role=sagemaker.get_execution_role(),
   ... 
)

schedule = model_exp_model_monitor.create_monitoring_schedule(
   monitor_schedule_name=schedule_name,
   post_analytics_processor_script=s3_code_postprocessor_uri,
   output_s3_uri=s3_report_path,
   statistics=model_exp_model_monitor.baseline_statistics(),
   constraints=model_exp_model_monitor.suggested_constraints(),
   schedule_cron_expression=CronExpressionGenerator.hourly(),
   enable_cloudwatch_metrics=True,
   batch_transform_input=BatchTransformInput(
        destination="opt/ml/processing/data",
        model_name="batch-fraud-detection-model",
        input_manifests_s3_uri="s3://amzn-s3-demo-bucket/batch-fraud-detection/on-schedule-monitoring/in/",
        excludeFeatures="0",
   )
)
```