

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Infracciones de desviación de atribución de características del modelo
<a name="clarify-model-monitor-model-attribution-drift-violations"></a>

Los trabajos de desviación de atribución de características evalúan las restricciones de referencia proporcionadas por la [configuración de referencia](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelExplainabilityJobDefinition.html#sagemaker-CreateModelExplainabilityJobDefinition-request-ModelExplainabilityBaselineConfig) en comparación con los resultados del análisis de la `MonitoringExecution` actual. Si se detectan infracciones, el trabajo las incluye en el archivo *constraint\$1violations.json* de la ubicación de salida de la ejecución y marca el estado de la ejecución como [Interpretación de los resultados](model-monitor-interpreting-results.md).

Este es el esquema del archivo de infracciones por desviación de la atribución de características.
+ `label`: el nombre de la etiqueta, la configuración del análisis del trabajo `label_headers` o un marcador de posición, por ejemplo `"label0"`.
+ `metric_name`: el nombre del método de análisis de explicabilidad. En la actualidad, solo se admite `shap`.
+ `constraint_check_type`: el tipo de infracción supervisada. En la actualidad, solo se admite `feature_attribution_drift_check`.
+ `description`: un mensaje descriptivo para explicar la infracción.

```
{
    "version": "1.0",
    "violations": [{
        "label": "string",
        "metric_name": "string",
        "constraint_check_type": "string",
        "description": "string"
    }]
}
```

Para cada etiqueta de la sección `explanations`, los trabajos de supervisión calculan la [puntuación nDCG](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.ndcg_score.html) de sus valores SHAP globales en el archivo de restricciones de referencia y en el archivo de resultados del análisis del trabajo (*analysis.json*). Si la puntuación es inferior a 0,9, se registra una infracción. Se evalúa el valor SHAP global combinado, por lo que no hay campos `“feature”` en la entrada de infracción. El siguiente resultado proporciona un ejemplo de varias infracciones registradas.

```
{
    "version": "1.0",
    "violations": [{
        "label": "label0",
        "metric_name": "shap",
        "constraint_check_type": "feature_attribution_drift_check",
        "description": "Feature attribution drift 0.7639720923277322 exceeds threshold 0.9"
    }, {
        "label": "label1",
        "metric_name": "shap",
        "constraint_check_type": "feature_attribution_drift_check",
        "description": "Feature attribution drift 0.7323763972092327 exceeds threshold 0.9"
    }]
}
```