

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Attribution ドリフトをモニタリングするためのパラメータ
<a name="clarify-config-json-monitor-model-explainability-parameters"></a>

Amazon SageMaker Clarify 説明可能性モニターは、[分析設定ファイル](clarify-processing-job-configure-analysis.md) の分析設定に使用されたパラメータのサブセットを再利用します。次のパラメータは JSON ファイルで指定する必要があり、パスは [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelExplainabilityAppSpecification](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelExplainabilityAppSpecification) の `ConfigUri` パラメータで指定する必要があります。
+ `"version"` - (オプション) 設定ファイルのスキーマバージョン。指定しない場合、サポートされている最新のバージョンが使用されます。
+ `"headers"` - (オプション) データセット内の特徴量名のリスト。説明可能性分析にはラベルは必要ありません。
+ `"methods"` - 分析およびレポートのメソッドとそのパラメータのリスト。セクションを省略すると、そのセクションは計算されません。
  + `"shap"` - (オプション) SHAP 値のコンピュテーションに関するセクション。
    + `"baseline"` — (オプション) 行のリスト (少なくとも 1 つ)、または Amazon Simple Storage Service (Amazon S3) オブジェクト URI。Kernel SHAP アルゴリズムのベースラインデータセット (バックグラウンドデータセットとも呼ばれます) として使用されます。形式は、データセット形式と同じである必要があります。各行には、特徴量列 (または値) のみを含める必要があります。各行をモデルに送る前に、除外する必要がある列はすべて省略します。
    + `"num_samples"` - カーネル SHAP アルゴリズムで使用されるサンプルの数。この数値は、SHAP 値を計算するために生成される合成データセットのサイズを決定します。指定しない場合、SageMaker Clarify ジョブは特徴量の数に基づいて値を選択します。
    + `"agg_method"` - グローバル SHAP 値の集計方法。有効な値は次のとおりです。
      + `"mean_abs"` - すべてのインスタンスの SHAP 絶対値の平均値。
      + `"median"` - すべてのインスタンスの SHAP 値の中央値。
      + `"mean_sq"` - すべてのインスタンスの SHAP 値の二乗平均値。
    + `"use_logit"`— (オプション) ロジット関数をモデル予測に適用するかどうかを示すブール値。`"use_logit"` が `true` の場合、SHAP の値は対数オッズ単位になります。デフォルト値は `false` です。
    + `"save_local_shap_values"` - (オプション) ローカル SHAP 値を出力場所に保存するかどうかを示すブール値。`true` を使用して保存します。`false` を使用して保存しません。デフォルトは `false` です。
+ `"predictor"` — (リアルタイムエンドポイントではオプション、バッチ変換には必須) モデルパラメータのセクション。`"shap"` と `"post_training_bias"` セクションが存在する場合は必須。
  + `"model_name"` - `CreateModel` API によってコンテナモードを `SingleModel` として作成されるモデル名。
  + `"instance_type"` - シャドウエンドポイントのインスタンスタイプ。
  + `"initial_instance_count"` - シャドウエンドポイントのインスタンス数。
  + `"content_type"` - (オプション) シャドウエンドポイントで推論を取得するために使用されるモデル入力形式。有効な値は CSV の場合は `"text/csv"`、JSON Lines の場合は `"application/jsonlines"`、Apache Parquet の場合は `application/x-parquet`、コンピュータビジョンの説明可能性を有効にする場合は `application/x-image` です。デフォルト値は `dataset_type` 形式と同じです。
  + `"accept_type"` - (オプション) シャドウエンドポイントで推論を取得するために使用されるモデル出力**形式。有効な値は、CSV の場合は `"text/csv"`、JSON Lines の場合は `"application/jsonlines"` です。省略した場合、SageMaker Clarify はキャプチャされたデータのレスポンスデータ型を使用します。
  + `"content_template"` - (オプション) データセットインスタンスからモデル入力を構築するために使用されるテンプレート文字列。`"content_type"` が `"application/jsonlines"` の場合にのみ使用されます。テンプレートにはプレースホルダー `$features` のみを含める必要があります。これはランタイムに特徴量リストに置き換えられます。例えば `"content_template":"{\"myfeatures\":$features}"` の場合、インスタンス (ラベルなし) が `1,2,3` とすると、モデル入力は JSON Lines `'{"myfeatures":[1,2,3]}'` になります。
  + `"label_headers"` — (オプション) データセット内で `"label"` が受け取る値のリスト。モデルエンドポイントまたはバッチ変換ジョブから返されたスコアを、対応するラベル値に関連付けます。指定されている場合、分析レポートは `“label0”` のようなプレースホルダーの代わりにヘッダーを使用します。

他のパラメーターは、[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelExplainabilityJobInput](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelExplainabilityJobInput) API の `EndpointInput` (リアルタイムエンドポイントの場合) または `BatchTransformInput` (バッチ変換ジョブの場合) で指定する必要があります。
+ `FeaturesAttribute` — エンドポイントまたはバッチジョブの入力データ形式が `"application/jsonlines"` の場合、このパラメータは必須です。データセット形式が JSON Lines の場合、これは特徴量列の検索に使用される JMESPath です。
+ `ProbabilityAttribute` — 確率を示すモデル出力内のインデックスまたは JMESPath の場所。例えば、モデル出力がラベルと確率のリストを含む JSON Lines の場合、最大確率に対応するラベルがバイアス計算用に選択されます。

## CSV および JSON Lines データセットの JSON 設定ファイルの例
<a name="clarify-config-json-monitor-model-explainability-parameters-examples"></a>

CSV および JSON Lines データセットを設定して、特徴量属性ドリフトをモニタリングするために使用される JSON ファイルの例を次に示します。

**Topics**
+ [

### CSV データセット
](#clarify-config-json-monitor-model-explainability-parameters-example-csv)
+ [

### JSON Lines データセット
](#clarify-config-json-monitor-model-explainability-parameters-example-jsonlines)

### CSV データセット
<a name="clarify-config-json-monitor-model-explainability-parameters-example-csv"></a>

次の例のように、数値特徴量列が 3 つあるデータセットを考えてみましょう。

```
0.5814568701544718, 0.6651538910132964, 0.3138080342665499
0.6711642728531724, 0.7466687034026017, 0.1215477472819713
0.0453256543003371, 0.6377430803264152, 0.3558625219713576
0.4785191813363956, 0.0265841045263860, 0.0376935084990697
```

次の例のように、モデル出力に 2 つの列があり、最初の列が予測ラベル、2 番目の列が確率であると仮定します。

```
1, 0.5385257417814224
```

次の JSON 設定ファイルはこの CSV データセットを設定する方法の例を示します。

```
{
                    
    "headers": [
        "feature_1",
        "feature_2",
        "feature_3"
    ],
    "methods": {
        "shap": {
            "baseline": [
                [0.4441164946610942, 0.5190374448171748, 0.20722795300473712]
            ],
            "num_samples": 100,
            "agg_method": "mean_abs"
        }
    },
    "predictor": {
        "model_name": "my_model",
        "instance_type": "ml.m5.xlarge",
        "initial_instance_count": 1
    }
}
```

予測ラベルは `"ProbabilityAttribute"` パラメータによって選択されます。0 から始まる番号付けが使用されるため、1 はモデル出力の 2 列目を示します。

```
"EndpointInput": {
    ...
    "ProbabilityAttribute": 1
    ...
}
```

### JSON Lines データセット
<a name="clarify-config-json-monitor-model-explainability-parameters-example-jsonlines"></a>

次の例のように、4 つの特徴量列と 1 つのラベル列からなるデータセットを考えてみると、最初の特徴量とラベルはバイナリです。

```
{"features":[0, 0.5814568701544718, 0.6651538910132964, 0.3138080342665499], "label":0}
{"features":[1, 0.6711642728531724, 0.7466687034026017, 0.1215477472819713], "label":1}
{"features":[0, 0.0453256543003371, 0.6377430803264152, 0.3558625219713576], "label":1}
{"features":[1, 0.4785191813363956, 0.0265841045263860, 0.0376935084990697], "label":1}
```

次の例のように、モデル入力はデータセット形式と同じで、モデル出力は JSON Lines です。

```
{"predicted_label":1, "probability":0.5385257417814224}
```

次の例で、JSON 設定ファイルはこの JSON Lines データセットを設定する方法を示します。

```
{
    "headers": [
        "feature_1",
        "feature_2",
        "feature_3"
    ],
    "methods": {
        "shap": {
            "baseline": [
                {"features":[0.4441164946610942, 0.5190374448171748, 0.20722795300473712]}
            ],
            "num_samples": 100,
            "agg_method": "mean_abs"
        }
    },
    "predictor": {
        "model_name": "my_model",
        "instance_type": "ml.m5.xlarge",
        "initial_instance_count": 1,
        "content_template":"{\"features\":$features}"
    }
}
```

次に `EndpointInput` (リアルタイムエンドポイントの場合) または `BatchTransformInput` (バッチ変換ジョブの場合) の `"features"` パラメータ値を使用してデータセット内の特徴量を検索し、`"probability"` パラメータ値によってモデル出力から確率値を選択します。

```
"EndpointInput": {
    ...
    "FeaturesAttribute": "features",
    "ProbabilityAttribute": "probability",
    ...
}
```