

自 2025 年 11 月 7 日起，Amazon Fraud Detector 不再向新客戶開放。對於類似 Amazon Fraud Detector 的功能，請探索 Amazon SageMaker、AutoGluon 和 AWS WAF。

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 事件資料儲存
<a name="event-data-storage"></a>

收集資料集之後，您可以使用 Amazon Fraud Detector 在內部存放資料集，或使用 Amazon Simple Storage Service (Amazon S3) 在外部存放資料集。我們建議您根據用於產生詐騙預測的模型，選擇存放資料集的位置。以下是這兩個儲存選項的詳細明細。
+ **內部儲存 - **您的資料集存放於 Amazon Fraud Detector。與事件相關聯的所有事件資料都會一起存放。您可以隨時上傳存放在 Amazon Fraud Detector 的事件資料集。您可以一次將事件串流至 Amazon Fraud Detector API，或使用批次匯入功能匯入大型資料集 （最多 1GB)。當您使用與 Amazon Fraud Detector 一起存放的資料集來訓練模型時，您可以指定時間範圍來限制資料集的大小。
+ **外部儲存 - **您的資料集存放在 Amazon Fraud Detector 以外的外部資料來源中。目前，Amazon Fraud Detector 支援為此目的使用 Amazon Simple Storage Service (Amazon S3)。如果您的模型位於上傳至 Amazon S3 的檔案上，則該檔案不能超過 5GB 的未壓縮資料。如果超過此值，請務必縮短資料集的時間範圍。

下表提供有關模型類型及其支援之資料來源的詳細資訊。


| 模型類型 | 相容的訓練資料來源 | 
| --- | --- | 
|  線上詐騙洞見  |  外部儲存、內部儲存  | 
|  交易詐騙洞見  |  內部儲存  | 
|  帳戶接管洞察  |  內部儲存  | 

如需使用 Amazon Simple Storage Service 在外部存放資料集的資訊，請參閱 [使用 Amazon S3 將事件資料存放在外部](uploading-event-data-to-an-s3-bucket.md)。如需使用 Amazon Fraud Detector 在內部儲存資料集的資訊，請參閱 [使用 Amazon Fraud Detector 在內部存放事件資料](storing-event-data-afd.md)。

# 使用 Amazon S3 將事件資料存放在外部
<a name="uploading-event-data-to-an-s3-bucket"></a>

如果您正在訓練線上詐騙洞見模型，您可以選擇使用 Amazon S3 將事件資料存放在外部。若要將事件資料儲存在 Amazon S3 中，您必須先建立 CSV 格式的文字檔案、新增事件資料，然後將 CSV 檔案上傳至 Amazon S3 儲存貯體。

**注意**  
**交易詐騙洞**見和**帳戶接管洞見**模型類型不支援使用 Amazon S3 存放在外部的資料集

# 建立 CSV 檔案
<a name="creating-csv-file"></a>

Amazon Fraud Detector 要求您 CSV 檔案的第一列包含資料欄標頭。CSV 檔案中的資料欄標頭必須對應至事件類型中定義的變數。如需範例資料集，請參閱 [取得和上傳範例資料集](step-1-get-s3-data.md) 

Online Fraud Insights 模型需要訓練資料集，其中包含至少 2 個變數和最多 100 個變數。除了事件變數之外，訓練資料集必須包含下列標頭：
+ EVENT\$1TIMESTAMP - 定義事件發生的時間
+ EVENT\$1LABEL - 將事件分類為詐騙或合法。資料欄中的值必須對應至事件類型中定義的值。

下列範例 CSV 資料代表來自線上商家的歷史註冊事件：

```
EVENT_TIMESTAMP,EVENT_LABEL,ip_address,email_address
4/10/2019 11:05,fraud,209.146.137.48,fake_burtonlinda@example.net
12/20/2018 20:04,legit,203.0.112.189,fake_davidbutler@example.org
3/14/2019 10:56,legit,169.255.33.54,fake_shelby76@example.net
1/3/2019 8:38,legit,192.119.44.26,fake_curtis40@example.com
9/25/2019 3:12,legit,192.169.85.29,fake_rmiranda@example.org
```

**注意**  
CSV 資料檔案可包含雙引號和逗號做為資料的一部分。

對應的事件類型的簡化版本如下所示。事件變數對應至 CSV 檔案中的標頭，而 中的值`EVENT_LABEL`對應至標籤清單中的值。

```
(
name = 'sample_registration',
eventVariables = ['ip_address', 'email_address'],
labels = ['legit', 'fraud'],
entityTypes = ['sample_customer']
)
```

## 事件時間戳記格式
<a name="timestamp-formats"></a>

確保您的事件時間戳記為必要格式。作為模型建置程序的一部分，線上詐騙洞見模型類型會根據事件時間戳記來排序您的資料，並分割您的資料以供訓練和測試之用。為了獲得效能的公平預估，模型會先在訓練資料集上進行訓練，然後在測試資料集上測試此模型。

Amazon Fraud Detector 支援模型訓練`EVENT_TIMESTAMP`期間 中值的下列日期/時間戳記格式：
+ %yyyy-%mm-%ddT%hh：%mm：%ssZ （僅限無毫秒的 UTC 中的 ISO 8601 標準）

  範例：2019-11-30T13：01：01Z 
+ %yyyy/%mm/%dd %hh：%mm：%ss (AM/PM)

  範例：2019/11/30 下午 1：01：01 或 2019/11/30 13：01：01 
+ %mm/%dd/%yyyy %hh：%mm：%ss

  範例：11/30/2019 下午 1：01：01、11/30/2019 13：01：01 
+ %mm/%dd/%yy %hh：%mm：%ss

  範例：11/30/19 下午 1：01：01、11/30/19 13：01：01 

剖析事件時間戳記的日期/時間戳記格式時，Amazon Fraud Detector 會做出下列假設：
+ 如果您使用的是 ISO 8601 標準，則必須完全符合上述規格
+ 如果您使用其他其中一種格式，還有其他彈性：
  + 對於月和日，您可以提供單位數或雙位數。例如，1/12/2019 是有效的日期。
  + 如果您沒有 hh：mm：ss (taht 是您可以直接提供日期），則不需要包含 hh：mm：ss。您也可以提供僅小時和分鐘的子集 （例如，hh：mm)。不支援僅提供小時。也不支援毫秒。
  + 如果您提供 AM/PM 標籤，則會假設 12 小時制。如果沒有 AM/PM 資訊，則會假設 24 小時制。
  + 您可以使用 “/” 或 “-” 做為日期元素的分隔符號。時間戳記元素假設為 “：”。

## 跨時間取樣資料集
<a name="sample-your-dataset"></a>

我們建議您提供相同時間範圍的詐騙和合法範例。例如，如果您提供過去 6 個月的詐騙事件，您也應該提供平均跨越相同期間的合法事件。如果您的資料集包含高度不均勻的詐騙和合法事件分佈，您可能會收到以下錯誤：*「跨時間的詐騙分佈不可接受的波動。無法正常分割資料集。」* 一般而言，此錯誤的最簡單修正方式是確保詐騙事件和合法事件在相同的時間範圍內進行平均抽樣。如果您在短時間內遇到詐騙大幅遽增，您也可能需要移除資料。

如果您無法產生足夠的資料來建立平均分佈的資料集，其中一種方法是隨機化事件的 EVENT\$1TIMESTAMP，使其平均分佈。不過，這通常會導致效能指標不切實際，因為 Amazon Fraud Detector 會使用 EVENT\$1TIMESTAMP 來評估資料集中適當事件子集的模型。

## Null 和遺失值
<a name="null-missing-values"></a>

Amazon Fraud Detector 會處理 null 值和遺失值。不過，應限制變數的 null 百分比。EVENT\$1TIMESTAMP 和 EVENT\$1LABEL 資料欄不應包含任何缺少的值。

## 檔案驗證
<a name="csv-file-validation"></a>

如果觸發下列任何條件，Amazon Fraud Detector 將無法訓練模型：
+ 如果無法剖析 CSV
+ 如果資料欄的資料類型不正確

# 將事件資料上傳至 Amazon S3 儲存貯體
<a name="uploading-to-an-s3-bucket"></a>

使用事件資料建立 CSV 檔案後，請將檔案上傳至 Amazon S3 儲存貯體。

**上傳到 Amazon S3 儲存貯體**

1. 登入 AWS 管理主控台 ，並在 https：//[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) 開啟 Amazon S3 主控台。

1. 選擇 **Create bucket** (建立儲存貯體)。

   **Create bucket (建立儲存貯體)** 精靈會開啟。

1. 在 **Bucket name (儲存貯體名稱)** 中，為儲存貯體輸入符合 DNS 規範的名稱。

   儲存貯體名稱必須；
   + 在所有 Amazon S3 中都為唯一。
   + 長度必須介於 3 與 63 個字元之間。
   + 不含大寫字元。
   + 以小寫字母或數字開頭。

   建立儲存貯體後，便無法變更其名稱。如需有關命名儲存貯體的資訊，請參閱《*Amazon Simple Storage Service 使用者指南*》中的[儲存貯體命名規則](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules)。
**重要**  
避免在儲存貯體名稱中包含敏感資訊，例如帳戶號碼。在指向儲存貯體中之物件的 URL 中，會顯示儲存貯體名稱。

1. 在**區域中**，選擇您要儲存貯體所在的 AWS 區域。您必須選取您使用 Amazon Fraud Detector 的相同區域，即美國東部 （維吉尼亞北部）、美國東部 （俄亥俄）、美國西部 （奧勒岡）、歐洲 （愛爾蘭）、亞太區域 （新加坡） 或亞太區域 （雪梨）。

1. 在 **Bucket settings for Block Public Access (封鎖公開存取的儲存貯體設定)** 中，選擇要套用至儲存貯體的封鎖公開存取設定。

   建議您將所有設定保持啟用狀態。如需封鎖公開存取的詳細資訊，請參閱《[Amazon Simple Storage Service 使用者指南》中的封鎖對 Amazon S3 儲存的公開存取](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html)。 **

1. 選擇**建立儲存貯體**。

1. 將訓練資料檔案上傳至您的 Amazon S3 儲存貯體。請注意訓練檔案的 Amazon S3 位置路徑 （例如 s3：//bucketname/object.csv)。

# 使用 Amazon Fraud Detector 在內部存放事件資料
<a name="storing-event-data-afd"></a>

您可以選擇將事件資料儲存在 Amazon Fraud Detector 中，並在稍後使用儲存的資料來訓練模型。透過將事件資料儲存在 Amazon Fraud Detector 中，您可以訓練使用自動計算變數來改善效能、簡化模型重新訓練，以及更新詐騙標籤以關閉機器學習回饋迴圈的模型。事件會存放在事件類型資源層級，因此相同事件類型的所有事件都會一起存放在單一事件類型資料集中。在定義事件類型時，您可以選擇在 Amazon Fraud Detector 主控台中切換事件擷取設定，以指定是否要存放該事件類型的*事件*。

您可以在 Amazon Fraud Detector 中存放單一事件或匯入大量事件資料集。您可以使用 [GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html) API 或 [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html) API 串流單一事件。使用 Amazon Fraud Detector 主控台中的批次匯入功能或使用 [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API，即可快速輕鬆地將大型資料集匯入 Amazon Fraud Detector。

您可以隨時使用 Amazon Fraud Detector 主控台來檢查已為每個事件類型存放的事件數量。

# 準備儲存的事件資料
<a name="prepare-storage-event-data"></a>

Amazon Fraud Detector 內部存放的事件資料會存放在`Event Type`資源層級。因此，來自相同事件的所有事件資料都會存放在單一 中`Event Type`。儲存的事件稍後可用於訓練新模型或重新訓練現有模型。使用儲存的事件資料訓練模型時，您可以選擇指定事件的時間範圍，以限制訓練資料集的大小。

每次使用 Amazon Fraud Detector 主控台、`SendEvent`API 或 `CreateBatchImportJob` API 將資料存放在 Amazon Fraud Detector 時，Amazon Fraud Detector 都會在儲存之前驗證您的資料。如果您的資料驗證失敗，則不會儲存事件資料。

**使用 Amazon Fraud Detector 在內部儲存資料的先決條件**
+ 為了確保您的事件資料通過驗證並成功儲存資料集，請確定您已使用 [Data Model Explorer](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset) 提供的洞見來準備資料集。
+ 為您要與 Amazon Fraud Detector 一起存放的事件資料建立事件類型。如果您還沒有，請遵循指示來[建立事件類型](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html)。

## 智慧資料驗證
<a name="smart-data-validation"></a>

當您在 Amazon Fraud Detector 主控台中上傳資料集以進行批次匯入時，Amazon Fraud Detector 會使用智慧型資料驗證 (SDV) 在匯入資料之前驗證資料集。SDV 會掃描上傳的資料檔案，並識別遺失資料、格式不正確或資料類型等問題。除了驗證資料集之外，SDV 也提供驗證報告，列出已識別的所有問題，並建議採取動作來修正最具影響力的問題。SDV 識別的某些問題可能很重要，必須先解決，Amazon Fraud Detector 才能成功匯入您的資料集。如需詳細資訊，請參閱[智慧資料驗證報告](storing-events-batch-import.md#sdv-validation-report)。

SDV 會在檔案層級和資料 （資料列） 層級驗證您的資料集。在檔案層級，SDV 會掃描您的資料檔案並識別問題，例如存取檔案的許可不足、檔案大小不正確、檔案格式和標頭 （事件中繼資料和事件變數）。在資料層級，SDV 會掃描每個事件資料 （資料列），並識別不正確的資料格式、資料長度、時間戳記格式和 null 值等問題。

智慧資料驗證目前僅適用於 Amazon Fraud Detector 主控台，且預設會開啟驗證。如果您不希望 Amazon Fraud Detector 在匯入資料集之前使用智慧資料驗證，請在上傳資料集時關閉 Amazon Fraud Detector 主控台中的驗證。

## 使用 APIs或 AWS SDK 驗證儲存的資料
<a name="validating-stored-data-api"></a>

透過 `SendEvent`、 `GetEventPrediction`或 `CreateBatchImportJob `API 操作上傳事件時，Amazon Fraud Detector 會驗證下列項目：
+ 該事件類型的 EventIngestion 設定為 ENABLED。
+ 無法更新事件時間戳記。具有重複事件 ID 和不同 EVENT\$1TIMESTAMP 的事件將被視為錯誤。
+ 變數名稱和值符合其預期的格式。如需詳細資訊，請參閱[建立變數](create-a-variable.md)
+ 必要的變數會填入值。
+ 所有事件時間戳記都不會超過 18 個月，也不會在未來。

# 使用批次匯入存放事件資料
<a name="storing-events-batch-import"></a>

使用批次匯入功能，您可以使用主控台、API 或 AWS 開發套件，在 Amazon Fraud Detector 中快速輕鬆地上傳大型歷史事件資料集。若要使用批次匯入，請以 CSV 格式建立包含所有事件資料的輸入檔案，將 CSV 檔案上傳至 Amazon S3 儲存貯體，然後啟動*匯入*任務。Amazon Fraud Detector 會先根據事件類型驗證資料，然後自動匯入整個資料集。匯入資料後，即可用於訓練新模型或重新訓練現有模型。

## 輸入和輸出檔案
<a name="input-output-batch"></a>

輸入 CSV 檔案必須包含符合相關聯事件類型中定義的變數加上四個必要變數的標頭。如需詳細資訊，請參閱[準備儲存的事件資料](prepare-storage-event-data.md)。輸入資料檔案的大小上限為 20 GB (GB) 或約 5000 萬個事件。事件數量將根據您的事件大小而有所不同。如果匯入任務成功，則輸出檔案為空。如果匯入失敗，輸出檔案會包含錯誤日誌。

## 建立 CSV 檔案
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector 只會從逗號分隔值 (CSV) 格式的檔案匯入資料。CSV 檔案的第一列必須包含與相關聯事件類型中定義的變數完全相符的資料欄標頭，以及四個強制性變數：EVENT\$1ID、EVENT\$1TIMESTAMP、ENTITY\$1ID 和 ENTITY\$1TYPE。您也可以選擇性地包含 EVENT\$1LABEL 和 LABEL\$1TIMESTAMP （如果包含 EVENT\$1LABEL，則需要 LABEL\$1TIMESTAMP)。

**定義強制性變數**

強制性變數視為事件中繼資料，必須以大寫指定。事件中繼資料會自動包含在模型訓練中。下表列出強制變數、每個變數的描述，以及變數的必要格式。


| 名稱 | 描述 | 要求 | 
| --- | --- | --- | 
|  EVENT\$1ID  |  事件的識別符。例如，如果您的事件是線上交易，EVENT\$1ID 可能是提供給您客戶的交易參考號碼。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  事件發生時的時間戳記。時間戳記必須在 UTC 的 ISO 8601 標準中。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  執行事件之實體的識別符。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1TYPE  |  執行事件的實體，例如商家或客戶  |  批次匯入任務需要 ENTITY\$1TYPE  | 
|  EVENT\$1LABEL  |  將事件分類為 `fraudulent`或 `legitimate`  |  如果包含 LABEL\$1TIMESTAMP，則需要 EVENT\$1LABEL  | 
|  LABEL\$1TIMESTAMP  |  事件標籤上次填入或更新的時間戳記  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## 將 CSV 檔案上傳至 Amazon S3 以進行批次匯入
<a name="upload-csv-S3-for-batch-import"></a>

使用資料建立 CSV 檔案後，請將檔案上傳至 Amazon Simple Storage Service (Amazon S3) 儲存貯體。

**將事件資料上傳至 Amazon S3 儲存貯體**

1. 登入 AWS 管理主控台 ，並在 [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)：// 開啟 Amazon S3 主控台。

1. 選擇 **Create bucket** (建立儲存貯體)。

   **Create bucket (建立儲存貯體)** 精靈會開啟。

1. 在 **Bucket name (儲存貯體名稱)** 中，為儲存貯體輸入符合 DNS 規範的名稱。

   儲存貯體名稱必須；
   + 在所有 Amazon S3 中都為唯一。
   + 長度必須介於 3 與 63 個字元之間。
   + 不含大寫字元。
   + 以小寫字母或數字開頭。

   建立儲存貯體後，便無法變更其名稱。如需有關命名儲存貯體的資訊，請參閱《*Amazon Simple Storage Service 使用者指南*》中的[儲存貯體命名規則](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules)。
**重要**  
避免在儲存貯體名稱中包含敏感資訊，例如帳戶號碼。在指向儲存貯體中之物件的 URL 中，會顯示儲存貯體名稱。

1. 在**區域中**，選擇您要儲存貯體所在的 AWS 區域。您必須選取您使用 Amazon Fraud Detector 的相同區域，即美國東部 （維吉尼亞北部）、美國東部 （俄亥俄）、美國西部 （奧勒岡）、歐洲 （愛爾蘭）、亞太區域 （新加坡） 或亞太區域 （雪梨）。

1. 在 **Bucket settings for Block Public Access (封鎖公開存取的儲存貯體設定)** 中，選擇要套用至儲存貯體的封鎖公開存取設定。

   建議您將所有設定保持啟用狀態。如需封鎖公開存取的詳細資訊，請參閱《[Amazon Simple Storage Service 使用者指南》中的封鎖對 Amazon S3 儲存體的公開存取](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html)。 **

1. 選擇**建立儲存貯體**。

1. 將訓練資料檔案上傳至您的 Amazon S3 儲存貯體。請注意訓練檔案的 Amazon S3 位置路徑 （例如 s3：//bucketname/object.csv)。

## Amazon Fraud Detector 主控台中的批次匯入事件資料
<a name="batch-import-event-data"></a>

您可以使用 `CreateBatchImportJob` API 或使用 AWS 開發套件，在 Amazon Fraud Detector 主控台中輕鬆匯入大量事件資料集。在繼續之前，請確定您已遵循將資料集準備為 CSV 檔案的指示。請確定您也將 CSV 檔案上傳到 Amazon S3 儲存貯體。

**使用 Amazon Fraud Detector 主控台**

**在主控台中批次匯入事件資料**

1. 開啟 AWS 主控台並登入您的帳戶，然後導覽至 Amazon Fraud Detector。

1. 在左側導覽窗格中，選擇**事件**。

1. 選擇您的事件類型。

1. 選取**儲存的事件**索引標籤。

1. 在**儲存的事件詳細資訊**窗格中，確定**事件擷取**為 **ON**。

1. 在**匯入事件資料**窗格中，選擇**新匯入**。

1. 在**新事件匯入**頁面中，提供下列資訊：
   + 【建議】 保留**此資料集的啟用智慧資料驗證 - 將新**設定為預設設定。
   + 針對**資料的 IAM 角色**，選取您為 Amazon S3 儲存貯體建立的 IAM 角色，該儲存貯體包含您計劃匯入的 CSV 檔案。
   + 針對**輸入資料位置**，輸入您擁有 CSV 檔案的 S3 位置。
   + 如果您想要指定個別位置來存放匯入結果，請按一下用於**輸入和結果的個別資料位置**按鈕，並提供有效的 Amazon S3 儲存貯體位置。
**重要**  
請確定您選取的 IAM 角色具有輸入 Amazon S3 儲存貯體的讀取許可，並將許可寫入輸出 Amazon S3 儲存貯體。

1. 選擇 **開始使用**。

1. **匯入事件資料**窗格中**的狀態**欄會顯示驗證和匯入任務的狀態。當您的資料集先經過驗證，然後匯入時，頂端的橫幅會提供狀態的高階描述。

1. 遵循提供給 的指引[監控資料集驗證和匯入任務的進度](#monitor-progress-sdv)。

### 監控資料集驗證和匯入任務的進度
<a name="monitor-progress-sdv"></a>

如果您使用 Amazon Fraud Detector 主控台執行批次匯入任務，Amazon Fraud Detector 預設會在匯入之前驗證您的資料集。您可以在 Amazon Fraud Detector 主控台**的新事件匯入**頁面中監控驗證和匯入任務的進度和狀態。頁面頂端的橫幅提供驗證問題清單和匯入任務狀態的簡短描述。根據驗證問題清單和匯入任務的狀態，您可能需要採取動作，以確保成功驗證和匯入資料集。

下表根據驗證和匯入操作的結果，提供您必須採取之動作的詳細資訊。


| 橫幅訊息 | 狀態 | 代表什麼意思 | 我應該做什麼 | 
| --- | --- | --- | --- | 
| 資料驗證已開始 | 驗證進行中 | SDV 已開始驗證您的資料集 | 等待狀態變更 | 
| 由於資料集發生錯誤，資料驗證無法繼續。修正資料檔案中的錯誤，並啟動新的匯入任務。如需詳細資訊，請參閱驗證報告 | 驗證失敗 | SDV 已識別資料檔案中的問題。必須解決這些問題，才能成功匯入資料集。 | 在匯入事件資料窗格中，選取任務 ID 並檢視驗證報告。遵循報告中的建議來解決列出的所有錯誤。如需詳細資訊，請參閱[使用驗證報告](#using-sdv-validation-report)。 | 
| 資料匯入已開始。驗證已成功完成 | 匯入進行中 | 您的資料集已通過驗證。AFD 已開始匯入您的資料集 | 等待狀態變更 | 
| 驗證已完成，並出現警告。資料匯入已開始 | 匯入進行中 | 資料集中的部分資料驗證失敗。不過，通過驗證的資料符合匯入的最低資料大小要求。 | 監控橫幅中的訊息，並等待狀態變更 | 
| 您的資料已部分匯入。部分資料未通過驗證且未匯入。如需詳細資訊，請參閱驗證報告。 | 已匯入。狀態會顯示警告圖示。 | 資料檔案中失敗驗證的部分資料並未匯入。已匯入通過驗證的其餘資料。 | 在匯入事件資料窗格中，選取任務 ID 並檢視驗證報告。遵循資料層級警告表格中的建議，以處理列出的警告。您不需要處理所有警告。不過，請確定您的資料集有超過 50% 的資料通過驗證才能成功匯入。解決警告之後，請啟動新的匯入任務。如需詳細資訊，請參閱[使用驗證報告](#using-sdv-validation-report)。 | 
| 由於處理錯誤，資料匯入失敗。啟動新的資料匯入任務 | 匯入失敗 | 由於暫時性執行時間錯誤，匯入失敗 | 啟動新的匯入任務 | 
| 已成功匯入資料 | 已匯入 | 驗證和匯入都成功完成 | 選取匯入任務的任務 ID 以檢視詳細資訊，然後繼續模型訓練 | 

**注意**  
我們建議您在資料集成功匯入 Amazon Fraud Detector 後等待 10 分鐘，以確保系統完全擷取它們。

### 智慧資料驗證報告
<a name="sdv-validation-report"></a>

智慧資料驗證會在驗證完成後建立驗證報告。驗證報告提供 SDV 在資料集中識別的所有問題的詳細資訊，並提供建議的動作來修正最具影響力的問題。您可以使用驗證報告來判斷問題是什麼、問題在資料集中的位置、問題的嚴重性，以及如何修正這些問題。即使驗證成功完成，也會建立驗證報告。在這種情況下，您可以檢視報告，以查看是否有任何列出的問題，如果有的話，請決定您是否要修正其中任何問題。

**注意**  
目前版本的 SDV 會掃描資料集，找出可能導致批次匯入失敗的問題。如果驗證和批次匯入成功，您的資料集仍有可能導致模型訓練失敗的問題。即使驗證和匯入成功，仍建議您檢視驗證報告，並解決報告中列出的任何問題，以成功訓練模型。解決問題後，請建立新的批次匯入任務。

**存取驗證報告**

您可以在驗證完成後，使用下列其中一個選項隨時存取驗證報告：

1. 驗證完成後，並在匯入任務進行時，在頂端橫幅中，選擇**檢視驗證報告**。

1. 匯入任務完成後，在**匯入事件資料**窗格中，選擇剛完成之匯入任務的任務 ID。

#### 使用驗證報告
<a name="using-sdv-validation-report"></a>

匯入任務的驗證報告頁面提供此匯入任務的詳細資訊、找到任何重大錯誤的清單、找到資料集中特定事件 （資料列） 的警告清單，以及包含無效值和每個變數缺少值等資訊的資料集簡短摘要。
+ **匯入任務詳細資訊**

  提供匯入任務的詳細資訊。如果您的匯入任務失敗或資料集已部分匯入，請選擇**移至結果檔案**，以檢視無法匯入之事件的錯誤日誌。
+ **嚴重錯誤**

  提供 SDV 所識別之資料集中最具影響力問題的詳細資訊。此窗格中列出的所有問題都很重要，您必須先解決這些問題，才能繼續匯入。如果您嘗試匯入資料集而不解決關鍵問題，匯入任務可能會失敗。

  若要解決關鍵問題，請遵循針對每個警告提供的建議。在您解決重大錯誤窗格中列出的所有問題之後，請建立新的批次匯入任務。
+ **資料層級警告**

  提供資料集中特定事件 （資料列） 的警告摘要。如果已填入資料層級警告窗格，則資料集中的某些事件驗證失敗，且未匯入。

  對於每個警告，**描述**欄會顯示有問題的事件數量。而**範例事件 IDs** 會提供範例事件 IDs的部分清單，您可以用來做為起點，以找出有問題的其餘事件。使用針對警告提供**的建議**來修正問題。另請使用輸出檔案中的錯誤日誌，以取得有關問題的其他資訊。錯誤日誌會針對批次匯入失敗的所有事件產生。若要存取錯誤日誌，請在**匯入任務詳細資訊**窗格中，選擇**移至結果檔案**。
**注意**  
如果資料集中超過 50% 的事件 （資料列） 驗證失敗，匯入任務也會失敗。在此情況下，您必須先修正資料，才能開始新的匯入任務。
+ **資料集摘要** 

   提供資料集驗證報告的摘要。如果警告數量欄顯示超過 0 個警告，請決定是否需要修正這些警告。如果**警告數目**欄顯示 0 秒，請繼續訓練您的模型。

## 使用適用於 Python 的 AWS 開發套件 (Boto3) 批次匯入事件資料
<a name="batch-import-data-sdk"></a>

下列範例顯示 [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API 的範例請求。批次匯入任務必須包含 **jobID**、**inputPath**、**outputPath**、 **eventTypeName** 和 **iamRoleArn**。除非任務處於 CREATE\$1FAILED 狀態，否則 jobID 不能包含過去任務的相同 ID。inputPath 和 outputPath 必須是有效的 S3 路徑。您可以選擇退出在 outputPath 中指定檔案名稱，不過，您仍然需要提供有效的 S3 儲存貯體位置。eventTypeName 和 iamRoleArn 必須存在。IAM 角色必須授予輸入 Amazon S3 儲存貯體的讀取許可，以及輸出 Amazon S3 儲存貯體的寫入許可。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## 取消批次匯入任務
<a name="cancel-batch-import"></a>

您可以使用 `CancelBatchImportJob` API 或 AWS 開發套件，隨時在 Amazon Fraud Detector 主控台中取消進行中的批次匯入任務。

**若要取消主控台中的批次匯入任務，**

1. 開啟 AWS 主控台並登入您的帳戶，然後導覽至 Amazon Fraud Detector。

1. 在左側導覽窗格中，選擇**事件**。

1. 選擇您的事件類型。

1. 選取**儲存的事件**索引標籤。

1. 在**匯入事件資料**窗格中，選擇您要取消之進行中匯入任務的任務 ID。

1. 在事件任務頁面中，按一下**動作**，然後選取**取消事件匯入**。

1. 選擇**停止事件匯入**以取消批次匯入任務。

### 使用適用於 Python 的 AWS 開發套件 (Boto3) 取消批次匯入任務
<a name="cancel-batch-import-sdk"></a>

下列範例顯示 `CancelBatchImportJob` API 的範例請求。取消匯入任務必須包含進行中批次匯入任務的任務 ID。

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# 使用 GetEventPredictions API 操作存放事件資料
<a name="storing-events-geteventprediction-api"></a>

根據預設，傳送至 `GetEventPrediction` API 進行評估的所有事件都會存放在 Amazon Fraud Detector 中。這表示當您產生預測時，Amazon Fraud Detector 會自動儲存事件資料，並使用該資料近乎即時地更新計算的變數。您可以在 Amazon Fraud Detector 主控台中導覽至事件類型，並使用 `PutEventType` API 操作設定**事件擷取**關閉或將 EventIngestion 值更新為 DISABLED，以停用資料儲存。如需 `GetEventPrediction` API 操作的詳細資訊，請參閱 [詐騙預測](getting-fraud-predictions.md)。

**重要**  
我們強烈建議您為*事件類型啟用事件擷取*後，請保持啟用狀態。停用相同事件類型的事件擷取，然後產生預測可能會導致行為不一致。

# 使用 SendEvent API 操作存放事件資料
<a name="storing-events-sendevent-api"></a>

您可以使用 `SendEvent` API 操作在 Amazon Fraud Detector 中存放事件，而無需產生這些事件的詐騙預測。例如，您可以使用 `SendEvent`操作上傳歷史資料集，稍後可用來訓練模型。

**SendEvent API 的事件時間戳記格式**

使用 `SendEvent` API 儲存事件資料時，您必須確保事件時間戳記的格式為必要。Amazon Fraud Detector 支援下列日期/時間戳記格式：
+ %yyyy-%mm-%ddT%hh：%mm：%ssZ （僅限無毫秒的 UTC 中的 ISO 8601 標準）

  範例：2019-11-30T13：01：01Z 
+ %yyyy/%mm/%dd %hh：%mm：%ss (AM/PM)

  範例：2019/11/30 下午 1：01：01 或 2019/11/30 13：01：01 
+ %mm/%dd/%yyyy %hh：%mm：%ss

  範例：11/30/2019 下午 1：01：01、11/30/2019 13：01：01 
+ %mm/%dd/%yy %hh：%mm：%ss

  範例：11/30/19 下午 1：01：01、11/30/19 13：01：01 

剖析事件時間戳記的日期/時間戳記格式時，Amazon Fraud Detector 會做出下列假設：
+ 如果您使用的是 ISO 8601 標準，則必須完全符合上述規格
+ 如果您使用其他其中一種格式，還有其他彈性：
  + 對於月和日，您可以提供單位數或雙位數。例如，1/12/2019 是有效的日期。
  + 如果您沒有 hh：mm：ss （也就是說，您可以直接提供日期），則不需要包含 hh：mm：ss。您也可以提供僅小時和分鐘的子集 （例如，hh：mm)。不支援僅提供小時。也不支援毫秒。
  + 如果您提供 AM/PM 標籤，則會假設 12 小時制。如果沒有 AM/PM 資訊，則會假設 24 小時制。
  + 您可以使用 “/” 或 “-” 做為日期元素的分隔符號。時間戳記元素假設為 “：”。

以下是 `SendEvent` API 呼叫的範例。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# 取得預存事件資料的詳細資訊
<a name="get-stored-event-details"></a>

在 Amazon Fraud Detector 中存放事件資料之後，您可以使用 [GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html) API 檢查為事件存放的最新資料。下列範例程式碼會檢查為`sample_registration`事件存放的最新資料。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# 檢視預存事件資料集的指標
<a name="view-stored-event-metrics"></a>

對於每個事件類型，您可以在 Amazon Fraud Detector 主控台中檢視指標，例如儲存事件的數量、儲存事件的總大小，以及最早和最新儲存事件的時間戳記。

**若要檢視 事件類型的預存事件指標，**

1. 開啟 AWS 主控台並登入您的帳戶。導覽至 Amazon Fraud Detector。

1. 在左側導覽窗格中，選擇**事件**。

1. 選擇您的事件類型。

1. 選取**儲存的事件**索引標籤。

1. **儲存的事件詳細資訊**窗格會顯示指標。這些指標每天會自動更新一次。

1. 或者，按一下**重新整理事件指標**以手動更新您的指標。
**注意**  
如果您剛匯入資料，建議您在完成匯入資料後等待 5 到 10 分鐘，以重新整理和檢視指標。