

Amazon Fraud Detector は、2025 年 11 月 7 日をもって新規顧客に公開されなくなりました。Amazon Fraud Detector と同様の機能については、Amazon SageMaker、AutoGluon、および を参照してください AWS WAF。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Fraud Detector を使用してイベントデータを内部に保存する
<a name="storing-event-data-afd"></a>

イベントデータを Amazon Fraud Detector に保存し、保存されたデータを後でモデルのトレーニングに使用できます。Amazon Fraud Detector にイベントデータを保存することで、自動計算変数を使用してパフォーマンスを改善し、モデルの再トレーニングを簡素化し、不正ラベルを更新して機械学習のフィードバックループを閉じるモデルをトレーニングできます。イベントはイベントタイプリソースレベルで保存されるため、同じイベントタイプのすべてのイベントが 1 つのイベントタイプデータセットにまとめて保存されます。イベントタイプの定義の一環として、Amazon Fraud Detector コンソールの *[Event Ingestion]* (イベントの取り込み) 設定を切り替えることで、そのイベントタイプのイベントを保存するかどうかを必要に応じて指定できます 

Amazon Fraud Detector では、1 つのイベントを保存することも、多数のイベントデータセットをインポートすることもできます。単一のイベントは、[GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html) API または [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html) API を使用してストリーミングできます。大規模なデータセットは、Amazon Fraud Detector コンソールのバッチインポート機能または [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API を使用して、Amazon Fraud Detector にすばやく簡単にインポートできます。

Amazon Fraud Detector コンソールを使用して、イベントタイプごとに既に保存されているイベントの数をいつでも確認できます。

# ストレージ用のイベントデータを準備する
<a name="prepare-storage-event-data"></a>

Amazon Fraud Detector の内部に保存されるイベントデータは、`Event Type`リソースレベルで保存されます。したがって、同じイベントからのすべてのイベントデータは 1 つの に保存されます`Event Type`。保存されたイベントは、後で新しいモデルをトレーニングしたり、既存のモデルを再トレーニングしたりするために使用できます。保存されたイベントデータを使用してモデルをトレーニングする場合、必要に応じてイベントの時間範囲を指定して、トレーニングデータセットのサイズを制限できます。

Amazon Fraud Detector コンソール、`SendEvent`API、または `CreateBatchImportJob` API を使用して Amazon Fraud Detector にデータを保存するたびに、Amazon Fraud Detector は保存前にデータを検証します。データが検証に失敗した場合、イベントデータは保存されません。

**Amazon Fraud Detector を使用してデータを内部に保存するための前提条件**
+ イベントデータが検証に合格し、データセットが正常に保存されるようにするには、[データモデルエクスプローラー](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset)が提供するインサイトを使用してデータセットを準備していることを確認してください。
+ Amazon Fraud Detector で保存するイベントデータのイベントタイプを作成しました。まだ作成していない場合は、「」の指示に従って[イベントタイプを作成します](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html)。

## スマートデータ検証
<a name="smart-data-validation"></a>

バッチインポートのために Amazon Fraud Detector コンソールにデータセットをアップロードすると、Amazon Fraud Detector はスマートデータ検証 (SDV) を使用してデータセットを検証してから、データをインポートします。SDV は、アップロードされたデータファイルをスキャンして、欠落データ、誤った形式やデータ型などの問題を特定します。SDV は、データセットの検証に加えて、特定されたすべての問題を一覧表示し、最も影響の大きい問題を修正するためのアクションを提案する検証レポートも提供します。SDV で特定された問題の一部は重要であり、Amazon Fraud Detector がデータセットを正常にインポートする前に対処する必要があります。詳細については、「[スマートデータ検証レポート](storing-events-batch-import.md#sdv-validation-report)」を参照してください。

SDV は、ファイルレベルとデータ (行) レベルでデータセットを検証します。ファイルレベルでは、SDV はデータファイルをスキャンし、ファイルにアクセスするための不適切なアクセス許可、誤ったファイルサイズ、ファイル形式、ヘッダー (イベントメタデータとイベント変数) などの問題を特定します。データレベルでは、SDV は各イベントデータ (行) をスキャンし、誤ったデータ形式、データの長さ、タイムスタンプ形式、null 値などの問題を特定します。

スマートデータ検証は現在 Amazon Fraud Detector コンソールでのみ使用でき、検証はデフォルトでオンになっています。データセットをインポートする前に Amazon Fraud Detector でスマートデータ検証を使用しない場合は、データセットのアップロード時に Amazon Fraud Detector コンソールで検証をオフにします。

## APIs または AWS SDK の使用時に保存されたデータを検証する
<a name="validating-stored-data-api"></a>

`SendEvent`、`GetEventPrediction`、または `CreateBatchImportJob `API オペレーションを介してイベントをアップロードする場合、Amazon Fraud Detector は以下を検証します。
+ そのイベントタイプの EventIngestion 設定が ENABLED であること。
+ イベントのタイムスタンプは更新できません。繰り返しイベント ID および異なる EVENT\$1TIMESTAMP を持つイベントは、エラーとして扱われます。
+ 変数の名前と値は、期待される形式と一致します。詳細については、「[変数の作成](create-a-variable.md)」を参照してください。
+ 必須変数には値が入力されます。
+ すべてのイベントタイムスタンプは 18 か月を超えず、今後もそうなることはありません。

# バッチインポートを使用してイベントデータを保存する
<a name="storing-events-batch-import"></a>

バッチインポート機能を使用すると、コンソール、API、または AWS SDK を使用して、大規模な履歴イベントデータセットを Amazon Fraud Detector にすばやく簡単にアップロードできます。バッチインポートを使用するには、すべてのイベントデータを含む CSV 形式の入力ファイルを作成し、CSV ファイルを Amazon S3 バケットにアップロードして、*インポート*ジョブを開始します。Amazon Fraud Detector は、まずイベントタイプに基づいてデータを検証し、データセット全体を自動的にインポートします。データがインポートされると、新しいモデルのトレーニングや既存のモデルの再トレーニングに使用する準備が整います。

## 入力ファイルと出力ファイル
<a name="input-output-batch"></a>

入力 CSV ファイルには、関連するイベントタイプで定義されている変数と 4 つの必須変数と一致するヘッダーが含まれている必要があります。詳細については「[ストレージ用のイベントデータを準備する](prepare-storage-event-data.md)」を参照してください。入力データファイルの最大サイズは 20 GB (20 GB)、つまり約 5,000 万イベントです。イベントの数は、イベントのサイズによって異なります。インポートジョブが成功した場合、出力ファイルは空になります。インポートが失敗した場合、出力ファイルにエラーログが含まれます。

## CSV ファイルの作成
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector は、カンマ区切り値 (CSV) 形式のファイルからのみデータをインポートします。CSV ファイルの最初の行には、関連するイベントタイプで定義された変数と、EVENT\$1ID、EVENT\$1TIMESTAMP、ENTITY\$1ID、および ENTITY\$1TYPE という 4 つの必須変数と完全に一致する列ヘッダーが含まれている必要があります。必要に応じて EVENT\$1LABEL と LABEL\$1TIMESTAMP を含めることもできます (EVENT\$1LABEL が含まれている場合は LABEL\$1TIMESTAMP が必要です)。

**必須変数の定義**

必須変数はイベントのメタデータと見なされ、大文字で指定する必要があります。イベントメタデータは、モデルトレーニングに自動的に含まれます。次の表に、必須変数、各変数の説明、および変数に必要な形式を示します。


| 名前 | 説明 | 要件 | 
| --- | --- | --- | 
|  EVENT\$1ID  |  イベントの識別子。例えば、イベントがオンライントランザクションの場合、EVENT\$1ID は顧客に提供されたトランザクション参照番号になります。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  イベントが発生したときのタイムスタンプ。タイムスタンプは UTC の ISO 8601 標準である必要があります。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  イベントを実行するエンティティの識別子。  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1TYPE  |  マーチャントや顧客など、イベントを実行するエンティティ。  |  ENTITY\$1ID は、バッチインポートジョブに必要です。  | 
|  EVENT\$1LABEL  |  イベントを `fraudulent` または `legitimate` として分類します。  |  LABEL\$1TIMESTAMP が含まれている場合は EVENT\$1LABEL が必要です  | 
|  LABEL\$1TIMESTAMP  |  イベントラベルが最後に入力または更新されたときのタイムスタンプ  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## バッチインポートのために CSV ファイルを Amazon S3 にアップロードする
<a name="upload-csv-S3-for-batch-import"></a>

データで CSV ファイルを作成したら、このファイルを Amazon Simple Storage Service (Amazon S3) バケットにアップロードします。

**Amazon S3 バケットにイベントデータをアップロードするには**

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) で Amazon S3 コンソールを開きます。

1. **バケットの作成** を選択します。

   [**バケットの作成**] ウィザードが開きます。

1. [**バケット名**] に、バケットの DNS に準拠する名前を入力します。

   バケット名には次の条件があります。
   + すべての Amazon S3 で一意にする。
   + 3～63 文字で指定する。
   + 大文字を含めないでください。
   + 先頭の文字には小文字の英文字または数字を使用する。

   バケットを作成したら、その名前を変更することはできません。バケットの名前付けの詳細については、[Amazon Simple Storage Service ユーザーガイド](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules)の「*バケットの名前付けルール*」を参照してください。
**重要**  
バケット名にアカウント番号などの機密情報を含めないでください。バケット名は、バケット内のオブジェクトを参照する URL に表示されます。

1. **リージョン**で、バケットを配置する AWS リージョンを選択します。Amazon Fraud Detector を使用しているリージョンと同じリージョンを選択する必要があります。これは、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、アジアパシフィック (シンガポール)、またはアジアパシフィック (シドニー) のいずれかです。

1. [**バケットのパブリックアクセスブロック設定**] で、バケットに適用するパブリックアクセスブロック設定を選択します。

   設定はすべて有効のままにしておくことをお勧めします。パブリックアクセスのブロックの詳細については、*Amazon Simple Storage Service ユーザーガイド*の「[Amazon S3 ストレージへのパブリックアクセスのブロック](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html)」を参照してください。

1. **[バケットを作成]** を選択します。

1. トレーニングデータファイルを Amazon S3 バケットにアップロードします。トレーニングファイルの Amazon S3 の場所 (例: s3://bucketname/object.csv) を書き留めます。

## Amazon Fraud Detector コンソールでのイベントデータのバッチインポート
<a name="batch-import-event-data"></a>

`CreateBatchImportJob` API または AWS SDK を使用して、Amazon Fraud Detector コンソールで多数のイベントデータセットを簡単にインポートできます。先に進む前に、データセットを CSV ファイルとして準備する手順に従ってください。CSV ファイルも Amazon S3 バケットにアップロードしていることを確認します。

**Amazon Fraud Detector コンソールの使用**

**コンソールでイベントデータをバッチインポートするには**

1. AWS コンソールを開いてアカウントにサインインし、Amazon Fraud Detector に移動します。

1. 左側のナビゲーションペインで [**イベント**] を選択します。

1. イベントタイプを選択します。

1. [**保存されたイベント**] タブを選択します。

1. [**保存されたイベントの詳細**] ペインで、[**イベントの取り込み**] が **ON** になっていることを確認します。

1. [**イベントデータのインポート**] ペインで [**新規インポート**] を選択します。

1. [**新しいイベントのインポート**] ページで、次の情報を指定します。
   + [推奨] **このデータセットのスマートデータ検証を有効にする - 新しい**セットをデフォルト設定のままにします。
   + [**データの IAM ロール**] で、インポートする予定の CSV ファイルを保持する Amazon S3 バケット用に作成した IAM ロールを選択します。
   + [**入力データの場所**] では、CSV ファイルがある S3 の場所を入力します。
   + インポート結果を保存するのに別の場所を指定する場合は、[**入力と結果の個別のデータ位置**] ボタンをクリックし、有効な Amazon S3 バケットの場所を指定します。
**重要**  
選択した IAM ロールに、入力 Amazon S3 バケットへの読み取りアクセス許可と、出力 Amazon S3 バケットへの書き込みアクセス許可があることを確認します。

1. **[開始]** を選択します。

1. **イベントデータをインポート**するペインのステータス****列には、検証ジョブとインポートジョブのステータスが表示されます。上部のバナーには、データセットが最初に検証を経てからインポートされるときのステータスの概要が表示されます。

1. 「」に記載されているガイダンスに従ってください[データセットの検証とインポートジョブの進行状況をモニタリングする](#monitor-progress-sdv)。

### データセットの検証とインポートジョブの進行状況をモニタリングする
<a name="monitor-progress-sdv"></a>

Amazon Fraud Detector コンソールを使用してバッチインポートジョブを実行している場合、デフォルトでは、Amazon Fraud Detector はインポート前にデータセットを検証します。Amazon Fraud Detector コンソールの新しい**イベントインポート**ページで、検証ジョブとインポートジョブの進行状況とステータスをモニタリングできます。ページ上部のバナーには、検証結果とインポートジョブのステータスの簡単な説明が表示されます。検証結果とインポートジョブのステータスによっては、データセットの検証とインポートを成功させるためのアクションを実行する必要がある場合があります。

次の表は、検証およびインポートオペレーションの結果に応じて実行する必要があるアクションの詳細を示しています。


| バナーメッセージ | ステータス | 意味 | 実行すべきこと | 
| --- | --- | --- | --- | 
| データ検証が開始されました | 検証中 | SDV がデータセットの検証を開始しました | ステータスが変更されるまで待機する | 
| データセットのエラーのため、データ検証を続行できません。データファイルのエラーを修正し、新しいインポートジョブを開始します。詳細については、検証レポートを参照してください。 | 検証に失敗しました | SDV は、データファイルの問題を特定しました。これらの問題は、データセットのインポートを成功させるために対処する必要があります。 | イベントデータをインポートペインで、ジョブ ID を選択し、検証レポートを表示します。レポートの推奨事項に従って、リストされているすべてのエラーに対処します。詳細については、「[検証レポートの使用](#using-sdv-validation-report)」を参照してください。 | 
| データインポートが開始されました。検証が正常に完了しました | インポート中 | データセットが検証に合格しました。AFD がデータセットのインポートを開始しました | ステータスが変更されるまで待機する | 
| 検証が完了し、警告が表示されました。データインポートが開始されました | インポート中 | データセット内の一部のデータの検証に失敗しました。ただし、検証に合格したデータは、インポートの最小データサイズ要件を満たしています。 | バナーのメッセージをモニタリングし、ステータスが変更されるまで待機する | 
| データの一部がインポートされました。データの一部が検証に失敗し、インポートされませんでした。詳細については、「 検証レポート」を参照してください。 | インポートされました。ステータスには警告アイコンが表示されます。 | 検証に失敗したデータファイル内のデータの一部はインポートされませんでした。検証に合格した残りのデータがインポートされました。 | イベントデータをインポートペインで、ジョブ ID を選択し、検証レポートを表示します。データレベルの警告表の推奨事項に従って、リストされている警告に対処します。すべての警告に対処する必要はありません。ただし、データセットにインポートを成功させるための検証に合格するデータが 50% 以上あることを確認してください。警告に対処したら、新しいインポートジョブを開始します。詳細については、「[検証レポートの使用](#using-sdv-validation-report)」を参照してください。 | 
| 処理エラーのため、データのインポートに失敗しました。新しいデータインポートジョブを開始する | インポート失敗 | 一時的なランタイムエラーによりインポートが失敗しました | 新しいインポートジョブを開始する | 
| データが正常にインポートされました | インポート済み | 検証とインポートの両方が正常に完了しました | インポートジョブのジョブ ID を選択して詳細を表示し、モデルトレーニングに進みます。 | 

**注記**  
データセットが Amazon Fraud Detector に正常にインポートされてから 10 分待って、システムによって完全に取り込まれていることを確認することをお勧めします。

### スマートデータ検証レポート
<a name="sdv-validation-report"></a>

スマートデータ検証は、検証が完了した後に検証レポートを作成します。検証レポートには、SDV がデータセット内で特定したすべての問題の詳細と、最も影響の大きい問題を修正するための推奨アクションが表示されます。検証レポートを使用して、問題の内容、データセット内の問題の場所、問題の重大度、および問題の修正方法を確認できます。検証レポートは、検証が正常に完了した場合でも作成されます。この場合、レポートを表示して、リストされている問題があるかどうかを確認し、問題がある場合は、それらを修正するかどうかを決定できます。

**注記**  
現在のバージョンの SDV は、データセットをスキャンして、バッチインポートが失敗する原因となる可能性のある問題がないか確認します。検証とバッチインポートが成功しても、データセットにモデルトレーニングが失敗する原因となる問題が発生する可能性があります。検証とインポートが成功した場合でも検証レポートを表示し、モデルトレーニングを成功させるためにレポートに記載されている問題に対処することをお勧めします。問題に対処したら、新しいバッチインポートジョブを作成します。

**検証レポートへのアクセス**

次のいずれかのオプションを使用して、検証完了後いつでも検証レポートにアクセスできます。

1. 検証が完了し、インポートジョブの進行中に、上部のバナーで**検証レポートの表示**を選択します。

1. インポートジョブが完了したら、**イベントデータをインポート**ペインで、完了したインポートジョブのジョブ ID を選択します。

#### 検証レポートの使用
<a name="using-sdv-validation-report"></a>

インポートジョブの検証レポートページには、このインポートジョブの詳細、見つかった場合は重大なエラーのリスト、見つかった場合はデータセット内の特定のイベント (行) に関する警告のリスト、無効な値や各変数の欠落値などの情報を含むデータセットの簡単な概要が表示されます。
+ **インポートジョブの詳細**

  インポートジョブの詳細を提供します。インポートジョブが失敗したか、データセットが部分的にインポートされた場合は、**結果ファイルに移動**を選択して、インポートに失敗したイベントのエラーログを表示します。
+ **重大なエラー**

  SDV によって識別されるデータセット内の最も影響の大きい問題の詳細を提供します。このペインにリストされているすべての問題は重要であり、インポートを続行する前に対処する必要があります。重大な問題に対処せずにデータセットをインポートしようとすると、インポートジョブが失敗する可能性があります。

  重大な問題に対処するには、警告ごとに提供される推奨事項に従ってください。「重大なエラー」ペインにリストされているすべての問題に対処したら、新しいバッチインポートジョブを作成します。
+ **データレベルの警告**

  データセット内の特定のイベント (行) の警告の概要を提供します。データレベルの警告ペインが入力されている場合、データセットの一部のイベントが検証に失敗し、インポートされませんでした。

  各警告について、**説明**列には問題のあるイベントの数が表示されます。また、**サンプルイベント IDs** は、問題のある残りのイベントを見つけるための出発点として使用できるサンプルイベント IDs の一部のリストを提供します。警告に記載されている**推奨事項**を使用して問題を解決します。また、問題に関する追加情報については、出力ファイルのエラーログを使用します。エラーログは、バッチインポートに失敗したすべてのイベントに対して生成されます。エラーログにアクセスするには、**ジョブ詳細のインポート**ペインで、**結果ファイルに移動**を選択します。
**注記**  
データセット内のイベント (行) の 50% 以上が検証に失敗した場合、インポートジョブも失敗します。この場合、新しいインポートジョブを開始する前にデータを修正する必要があります。
+ **データセットの概要** 

   データセットの検証レポートの概要を提供します。警告数列に 0 個を超える警告が表示されている場合は、それらの警告を修正する必要があるかどうかを判断します。**警告数**列に 0 秒と表示されている場合は、モデルのトレーニングを続行します。

## AWS SDK for Python (Boto3) を使用したバッチインポートイベントデータ
<a name="batch-import-data-sdk"></a>

次の例は、[CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API のサンプルリクエストを示しています。バッチインポートジョブには、**jobId**、**inputPath**、**outputPath**、**eventTypeName** と **iamRoleArn** が含まれている必要があります。ジョブが CREATE\$1FAILED 状態でない限り、JobID に過去のジョブの同じ ID を含めることはできません。inputPath と outputPath は有効な S3 パスでなければなりません。OutputPath でファイル名の指定をオプトアウトできますが、有効な S3 バケットの場所を指定する必要があります。eventTypeName と iamRoLeArn が存在する必要があります。IAM ロールは、Amazon S3 バケットを入力するための読み取りアクセス許可と、Amazon S3 バケットを出力するための書き込みアクセス許可を付与する必要があります。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## バッチインポートジョブをキャンセルする
<a name="cancel-batch-import"></a>

進行中のバッチインポートジョブは、`CancelBatchImportJob` API または AWS SDK を使用して、Amazon Fraud Detector コンソールで、いつでもキャンセルできます。

**コンソールでバッチインポートジョブをキャンセルするには、**

1. AWS コンソールを開いてアカウントにサインインし、Amazon Fraud Detector に移動します。

1. 左側のナビゲーションペインで [**イベント**] を選択します。

1. イベントタイプを選択します。

1. [**保存されたイベント**] タブを選択します。

1. [**イベントデータのインポート**] ペインで、キャンセルする進行中のインポートジョブのジョブ ID を選択します。

1. [イベントジョブ] ページで、[**アクション**] を選択し、[**イベントのインポートのキャンセル**] をクリックします。

1. [**イベントのインポートの停止**] をクリックして、バッチインポートジョブをキャンセルします。

### AWS SDK for Python (Boto3) を使用したバッチインポートジョブのキャンセル
<a name="cancel-batch-import-sdk"></a>

次の例は、`CancelBatchImportJob` API のサンプルリクエストを示しています。インポートのキャンセルジョブには、進行中のバッチインポートジョブのジョブ ID を含める必要があります。

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# GetEventPredictions API オペレーションを使用してイベントデータを保存する
<a name="storing-events-geteventprediction-api"></a>

デフォルトでは、評価のために `GetEventPrediction` API に送信されたすべてのイベントは Amazon Fraud Detector に保存されます。つまり、Amazon Fraud Detector は、予測を生成し、そのデータを使用して計算された変数をほぼリアルタイムで更新するときに、イベントデータを自動的に保存します。Amazon Fraud Detector コンソールでイベントタイプに移動し、[**イベント取り込み**] をオフに設定するか、`PutEventType` API オペレーションを使用して EventIngestion 値を DISABLED に更新することにより、データストレージを無効にできます。`GetEventPrediction` API オペレーションの詳細については、「[不正予測](getting-fraud-predictions.md)」を参照してください。

**重要**  
イベントタイプの [*イベント取り込み*] を有効にしたら、それを有効のままにしておくことを強くお勧めします。同じイベントタイプに対してイベント取り込みを無効にしてから予測を生成すると、動作が矛盾する可能性があります。

# SendEvent API オペレーションを使用してイベントデータを保存する
<a name="storing-events-sendevent-api"></a>

`SendEvent` API オペレーションを使用して、イベントの不正予測を生成せずに Amazon Fraud Detector にイベントを保存できます。例えば、`SendEvent` オペレーションを使用して履歴データセットをアップロードできます。このデータセットは、後でモデルのトレーニングに使用できます。

**SendEvent API のイベントタイムスタンプ形式**

`SendEvent` API を使用してイベントデータを保存する場合は、イベントのタイムスタンプが必要な形式であることを確認する必要があります。Amazon Fraud Detector は、次の日付/タイムスタンプ形式をサポートしています。
+ %yyyy-%mm-%ddT%hh:%mm:%ssZ (ミリ秒なし、UTC のみの ISO 8601 標準)

  例: 2019-11-30T13:01:01Z 
+ %yyyy/%mm/%dd %hh:%mm:%ss (AM/PM)

  例: 2019/11/30 1:01:01 PM、または 2019/11/30 13:01:01 
+ %mm/%dd/%yyyy %hh:%mm:%ss

  例: 11/30/2019 1:01:01 PM、または 11/30/2019 13:01:01 
+ %mm/%dd/%yy %hh:%mm:%ss

  例: 11/30/19 1:01:01 PM、または 11/30/19 13:01:01 

Amazon Fraud Detector は、イベントタイムスタンプの日付/タイムスタンプ形式を解析するときに、次の仮定を行います。
+ ISO 8601 標準を使用する場合は、前述の仕様と完全に一致する必要があります。
+ 他の形式のいずれかを使用している場合は、さらに柔軟性があります。
  + 月および日には、1 桁または 2 桁の数字を指定できます。例えば、2019 年 1 月 12 日は有効な日付です。
  + hh:mm:ss を持っていない場合は、含める必要はありません (つまり、日付を指定するだけです)。時と分だけのサブセット (例えば、hh:mm) を指定することもできます。時のみの指定はサポートされていません。ミリ秒もサポートされていません。
  + AM/PM ラベルを指定した場合は、12 時間時計と見なされます。AM/PM 情報がない場合は、24 時間時計と見なされます。
  + 日付要素の区切り文字として「/」または「-」を使用できます。タイムスタンプ要素には「:」が想定されます。

`SendEvent` API コールの例を以下に示します。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# 保存されたイベントデータの詳細を取得する
<a name="get-stored-event-details"></a>

Amazon Fraud Detector にイベントデータを保存したら、[GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html) API を使用して、イベント用に保存された最新のデータを確認できます。次のコード例では、`sample_registration`イベントに保存されている最新のデータをチェックします。

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# 保存されたイベントデータセットのメトリクスを表示する
<a name="view-stored-event-metrics"></a>

イベントタイプごとに、Amazon Fraud Detector コンソールで、保存されたイベントの数、保存されたイベントの合計サイズ、最も早い保存されたイベントと最新の保存されたイベントのタイムスタンプなどのメトリクスを表示できます。

**イベントタイプの保存されたイベントメトリクスを表示するには、次の手順を実行します。**

1.  AWS コンソールを開き、アカウントにサインインします。Amazon Fraud Detector に移動します。

1. 左側のナビゲーションペインで [**イベント**] を選択します。

1. イベントタイプを選択します。

1. [**保存されたイベント**] タブを選択します。

1. [**保存されたイベントの詳細**] ペインにメトリクスが表示されます。これらのメトリクスは 1 日 1 回自動的に更新されます。

1. 必要に応じて、**[イベントのメトリクスを更新]**をクリックして、メトリクスを手動で更新します。
**注記**  
データをインポートしたばかりの場合は、データのインポートが完了してから 5～10 分待って、メトリクスを更新して表示することをお勧めします。