

Amazon Fraud Detector는 2025년 11월 7일부터 신규 고객에게 더 이상 공개되지 않습니다. Amazon Fraud Detector와 유사한 기능을 알아보려면 Amazon SageMaker, AutoGluon 및를 살펴보세요 AWS WAF.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon Fraud Detector를 사용하여 이벤트 데이터를 내부적으로 저장
<a name="storing-event-data-afd"></a>

이벤트 데이터를 Amazon Fraud Detector에 저장하고 나중에 저장된 데이터를 사용하여 모델을 훈련하도록 선택할 수 있습니다. Amazon Fraud Detector에 이벤트 데이터를 저장하면 자동 계산 변수를 사용하는 모델을 훈련하여 성능을 개선하고, 모델 재학습을 간소화하고, 사기 레이블을 업데이트하여 기계 학습 피드백 루프를 닫을 수 있습니다. 이벤트는 이벤트 유형 리소스 수준에 저장되므로 동일한 이벤트 유형의 모든 이벤트는 단일 이벤트 유형 데이터 세트에 함께 저장됩니다. 이벤트 유형을 정의하는 과정에서 Amazon Fraud Detector 콘솔에서 이벤트 *수집* 설정을 전환하여 해당 이벤트 유형에 대한 이벤트를 저장할지 여부를 선택적으로 지정할 수 있습니다.

Amazon Fraud Detector에서 단일 이벤트를 저장하거나 많은 수의 이벤트 데이터 세트를 가져올 수 있습니다. [GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html) API 또는 [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html) API를 사용하여 단일 이벤트를 스트리밍할 수 있습니다. Amazon Fraud Detector 콘솔의 배치 가져오기 기능을 사용하거나 [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API를 사용하여 대규모 데이터 세트를 Amazon Fraud Detector로 빠르고 쉽게 가져올 수 있습니다.

언제든지 Amazon Fraud Detector 콘솔을 사용하여 각 이벤트 유형에 대해 이미 저장된 이벤트 수를 확인할 수 있습니다.

# 스토리지를 위한 이벤트 데이터 준비
<a name="prepare-storage-event-data"></a>

Amazon Fraud Detector를 사용하여 내부적으로 저장된 이벤트 데이터는 `Event Type` 리소스 수준에서 저장됩니다. 따라서 동일한 이벤트의 모든 이벤트 데이터는 단일에 저장됩니다`Event Type`. 저장된 이벤트는 나중에 새 모델을 훈련하거나 기존 모델을 재학습하는 데 사용할 수 있습니다. 저장된 이벤트 데이터를 사용하여 모델을 훈련할 때 선택적으로 이벤트의 시간 범위를 지정하여 훈련 데이터 세트의 크기를 제한할 수 있습니다.

Amazon Fraud Detector 콘솔, `SendEvent` API 또는 `CreateBatchImportJob` API를 사용하여 Amazon Fraud Detector에 데이터를 저장할 때마다 Amazon Fraud Detector는 저장하기 전에 데이터를 검증합니다. 데이터가 검증에 실패하면 이벤트 데이터가 저장되지 않습니다.

**Amazon Fraud Detector를 사용하여 내부적으로 데이터를 저장하기 위한 사전 조건**
+ 이벤트 데이터가 검증을 통과하고 데이터 세트가 성공적으로 저장되도록 하려면 [데이터 모델 탐색기](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset)에서 제공하는 인사이트를 사용하여 데이터 세트를 준비해야 합니다.
+ Amazon Fraud Detector에 저장하려는 이벤트 데이터에 대한 이벤트 유형을 생성했습니다. 그렇지 않은 경우 지침에 따라 [이벤트 유형 생성을 수행합니다](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html).

## 스마트 데이터 검증
<a name="smart-data-validation"></a>

배치 가져오기를 위해 Amazon Fraud Detector 콘솔에 데이터 세트를 업로드하면 Amazon Fraud Detector는 데이터를 가져오기 전에 스마트 데이터 검증(SDV)을 사용하여 데이터 세트를 검증합니다. SDV는 업로드된 데이터 파일을 스캔하고 누락된 데이터, 잘못된 형식 또는 데이터 유형과 같은 문제를 식별합니다. 데이터 세트를 검증하는 것 외에도 SDV는 식별된 모든 문제를 나열하고 가장 영향을 미치는 문제를 해결하기 위한 조치를 제안하는 검증 보고서도 제공합니다. SDV로 식별되는 일부 문제는 중요할 수 있으며 Amazon Fraud Detector가 데이터 세트를 성공적으로 가져오려면 먼저 해결해야 합니다. 자세한 내용은 [스마트 데이터 검증 보고서](storing-events-batch-import.md#sdv-validation-report) 단원을 참조하십시오.

SDV는 파일 수준과 데이터(행) 수준에서 데이터 세트를 검증합니다. 파일 수준에서 SDV는 데이터 파일을 스캔하고 파일에 액세스할 수 있는 부적절한 권한, 잘못된 파일 크기, 파일 형식 및 헤더(이벤트 메타데이터 및 이벤트 변수)와 같은 문제를 식별합니다. 데이터 수준에서 SDV는 각 이벤트 데이터(행)를 스캔하고 잘못된 데이터 형식, 데이터 길이, 타임스탬프 형식 및 null 값과 같은 문제를 식별합니다.

스마트 데이터 검증은 현재 Amazon Fraud Detector 콘솔에서만 사용할 수 있으며 기본적으로 검증이 켜져 있습니다. 데이터 세트를 가져오기 전에 Amazon Fraud Detector가 스마트 데이터 검증을 사용하지 않도록 하려면 데이터 세트를 업로드할 때 Amazon Fraud Detector 콘솔에서 검증을 끄세요.

## APIs 또는 AWS SDK를 사용할 때 저장된 데이터 검증
<a name="validating-stored-data-api"></a>

`SendEvent`, `GetEventPrediction`또는 `CreateBatchImportJob `API 작업을 통해 이벤트를 업로드할 때 Amazon Fraud Detector는 다음을 검증합니다.
+ 해당 이벤트 유형에 대한 EventIngestion 설정은 ENABLED입니다.
+ 이벤트 타임스탬프는 업데이트할 수 없습니다. 이벤트 ID가 반복되고 EVENT\$1TIMESTAMP가 다른 이벤트는 오류로 처리됩니다.
+ 변수 이름과 값은 예상 형식과 일치합니다. 자세한 내용은 [변수 생성](create-a-variable.md) 섹션을 참조하세요.
+ 필수 변수는 값으로 채워집니다.
+ 모든 이벤트 타임스탬프는 18개월을 초과하지 않으며 미래가 아닙니다.

# 배치 가져오기를 사용하여 이벤트 데이터 저장
<a name="storing-events-batch-import"></a>

배치 가져오기 기능을 사용하면 콘솔, API 또는 AWS SDK를 사용하여 Amazon Fraud Detector에서 대규모 과거 이벤트 데이터 세트를 빠르고 쉽게 업로드할 수 있습니다. 배치 가져오기를 사용하려면 모든 이벤트 데이터가 포함된 CSV 형식의 입력 파일을 생성하고, Amazon S3 버킷에 CSV 파일을 업로드하고, *가져오기* 작업을 시작합니다. Amazon Fraud Detector는 먼저 이벤트 유형에 따라 데이터를 검증한 다음 전체 데이터 세트를 자동으로 가져옵니다. 데이터를 가져온 후에는 새 모델을 훈련하거나 기존 모델을 재학습하는 데 사용할 준비가 된 것입니다.

## 입력 및 출력 파일
<a name="input-output-batch"></a>

입력 CSV 파일에는 연결된 이벤트 유형에 정의된 변수와 일치하는 헤더와 4개의 필수 변수가 포함되어야 합니다. 자세한 정보는 [스토리지를 위한 이벤트 데이터 준비](prepare-storage-event-data.md)을 참조하세요. 입력 데이터 파일의 최대 크기는 20기가바이트(GB) 또는 약 5천만 개의 이벤트입니다. 이벤트 수는 이벤트 크기에 따라 다릅니다. 가져오기 작업이 성공하면 출력 파일이 비어 있습니다. 가져오기에 실패한 경우 출력 파일에 오류 로그가 포함됩니다.

## CSV 파일 생성
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector는 쉼표로 구분된 값(CSV) 형식의 파일에서만 데이터를 가져옵니다. CSV 파일의 첫 번째 행에는 연결된 이벤트 유형에 정의된 변수와 정확히 일치하는 열 헤더와 EVENT\$1ID, EVENT\$1TIMESTAMP, ENTITY\$1ID, ENTITY\$1TYPE의 4가지 필수 변수가 포함되어야 합니다. EVENT\$1LABEL 및 LABEL\$1TIMESTAMP를 선택적으로 포함할 수도 있습니다( EVENT\$1LABEL이 포함된 경우 LABEL\$1TIMESTAMP 필요).

**필수 변수 정의**

필수 변수는 이벤트 메타데이터로 간주되며 대문자로 지정해야 합니다. 이벤트 메타데이터는 모델 훈련에 자동으로 포함됩니다. 다음 표에는 필수 변수, 각 변수에 대한 설명 및 변수에 필요한 형식이 나열되어 있습니다.


| 이름 | 설명 | 요구 사항 | 
| --- | --- | --- | 
|  EVENT\$1ID  |  이벤트의 식별자입니다. 예를 들어 이벤트가 온라인 트랜잭션인 경우 EVENT\$1ID는 고객에게 제공된 트랜잭션 참조 번호일 수 있습니다.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  이벤트가 발생한 시간의 타임스탬프입니다. 타임스탬프는 UTC의 ISO 8601 표준이어야 합니다.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  이벤트를 수행하는 개체의 식별자입니다.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1TYPE  |  판매자 또는 고객과 같이 이벤트를 수행하는 엔터티  |  배치 가져오기 작업에는 ENTITY\$1TYPE이 필요합니다.  | 
|  EVENT\$1LABEL  |  이벤트를 `fraudulent` 또는 로 분류합니다. `legitimate`   |  LABEL\$1TIMESTAMP가 포함된 경우 EVENT\$1LABEL이 필요합니다.  | 
|  LABEL\$1TIMESTAMP  |  이벤트 레이블이 마지막으로 채워지거나 업데이트된 시점의 타임스탬프  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## 배치 가져오기를 위해 Amazon S3에 CSV 파일 업로드
<a name="upload-csv-S3-for-batch-import"></a>

데이터로 CSV 파일을 생성한 후 Amazon Simple Storage Service(Amazon S3) 버킷에 파일을 업로드합니다.

**Amazon S3 버킷에 이벤트 데이터를 업로드하려면**

1. 에 로그인 AWS Management Console 하고 [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) Amazon S3 콘솔을 엽니다.

1. **버킷 만들기**를 선택합니다.

   **버킷 만들기** 마법사가 열립니다.

1. **버킷 이름**에 버킷의 DNS 호환 이름을 입력합니다.

   버킷 이름은 다음과 같아야 합니다.
   + 모든 Amazon S3에서 고유해야 합니다.
   + 3\$163자 이내여야 합니다.
   + 대문자가 없어야 합니다.
   + 소문자 또는 숫자로 시작해야 합니다.

   버킷을 생성한 후에는 해당 이름을 변경할 수 없습니다. 버킷 이름 지정에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [ 버킷 이름 지정 규칙을](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules) 참조하세요.
**중요**  
버킷 이름에 계정 번호와 같은 중요한 정보를 포함하지 마십시오. 버킷 이름은 버킷의 객체를 가리키는 URL에 표시됩니다.

1. **리전**에서 버킷이 상주할 AWS 리전을 선택합니다. Amazon Fraud Detector를 사용하는 리전, 즉 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오레곤), 유럽(아일랜드), 아시아 태평양(싱가포르) 또는 아시아 태평양(시드니)을 선택해야 합니다.

1. **Bucket settings for Block Public Access(퍼블릭 액세스 차단을 위한 버킷 설정)**에서 버킷에 적용할 퍼블릭 액세스 차단 설정을 선택합니다.

   모든 설정을 활성화된 상태로 두는 것이 좋습니다. 퍼블릭 액세스 차단에 대한 자세한 내용은 [ Amazon Simple Storage Service 사용 설명서의 Amazon S3 스토리지에 대한 퍼블릭 액세스 차단을 참조하세요](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html). ** 

1. **버킷 생성**을 선택합니다.

1. 훈련 데이터 파일을 Amazon S3 버킷에 업로드합니다. 훈련 파일의 Amazon S3 위치 경로(예: s3://bucketname/object.csv)를 기록해 둡니다.

## Amazon Fraud Detector 콘솔에서 이벤트 데이터 일괄 가져오기
<a name="batch-import-event-data"></a>

`CreateBatchImportJob` API 또는 AWS SDK를 사용하여 Amazon Fraud Detector 콘솔에서 많은 수의 이벤트 데이터 세트를 쉽게 가져올 수 있습니다. 계속하기 전에 지침에 따라 데이터 세트를 CSV 파일로 준비했는지 확인합니다. Amazon S3 버킷에도 CSV 파일을 업로드했는지 확인합니다.

**Amazon Fraud Detector 콘솔 사용**

**콘솔에서 이벤트 데이터 일괄 가져오기**

1. AWS 콘솔을 열고 계정에 로그인한 다음 Amazon Fraud Detector로 이동합니다.

1. 왼쪽 탐색 창에서 **이벤트**를 선택합니다.

1. 이벤트 유형을 선택합니다.

1. **저장된 이벤트** 탭을 선택합니다.

1. **저장된 이벤트 세부 정보** 창에서 **이벤트 수집**이 **ON**인지 확인합니다.

1. **이벤트 데이터 가져오기** 창에서 **새 가져오기**를 선택합니다.

1. **새 이벤트 가져오기** 페이지에서 다음 정보를 제공합니다.
   + [권장] **이 데이터 세트에 대해 스마트 데이터 검증 활성화 - 새**를 기본 설정으로 설정한 상태로 둡니다.
   + **데이터에 대한 IAM 역할**에서 가져오려는 CSV 파일이 있는 Amazon S3 버킷에 대해 생성한 IAM 역할을 선택합니다.
   + **입력 데이터 위치에** CSV 파일이 있는 S3 위치를 입력합니다.
   + 가져오기 결과를 저장할 별도의 위치를 지정하려면 **입력 및 결과에 대한 데이터 위치 분리** 버튼을 클릭하고 유효한 Amazon S3 버킷 위치를 제공합니다.
**중요**  
선택한 IAM 역할에 입력 Amazon S3 버킷에 대한 읽기 권한과 출력 Amazon S3 버킷에 대한 쓰기 권한이 있는지 확인합니다.

1. **시작**을 선택합니다.

1. **이벤트 데이터 가져오기** 창의 **상태** 열에는 검증 및 가져오기 작업의 상태가 표시됩니다. 상단의 배너는 데이터 세트가 먼저 검증을 거친 다음 가져오기를 수행할 때 상태에 대한 높은 수준의 설명을 제공합니다.

1. 에 제공된 지침을 따릅니다[데이터 세트 검증 및 가져오기 작업 진행 상황 모니터링](#monitor-progress-sdv).

### 데이터 세트 검증 및 가져오기 작업 진행 상황 모니터링
<a name="monitor-progress-sdv"></a>

Amazon Fraud Detector 콘솔을 사용하여 배치 가져오기 작업을 수행하는 경우 기본적으로 Amazon Fraud Detector는 가져오기 전에 데이터 세트를 검증합니다. Amazon Fraud Detector 콘솔의 **새 이벤트 가져오기** 페이지에서 검증 및 가져오기 작업의 진행 상황과 상태를 모니터링할 수 있습니다. 페이지 상단의 배너는 검증 결과와 가져오기 작업의 상태에 대한 간략한 설명을 제공합니다. 검증 결과 및 가져오기 작업 상태에 따라 데이터 세트의 성공적인 검증 및 가져오기를 보장하기 위한 조치를 취해야 할 수 있습니다.

다음 표에는 검증 및 가져오기 작업의 결과에 따라 수행해야 하는 작업에 대한 세부 정보가 나와 있습니다.


| 배너 메시지 | Status | 의미 | 어떻게 해야 하나요? | 
| --- | --- | --- | --- | 
| 데이터 검증이 시작되었습니다. | 검증 진행 중 | SDV가 데이터 세트 검증을 시작했습니다. | 상태가 변경될 때까지 기다립니다. | 
| 데이터 세트의 오류로 인해 데이터 검증을 진행할 수 없습니다. 데이터 파일의 오류를 수정하고 새 가져오기 작업을 시작합니다. 자세한 내용은 검증 보고서를 참조하세요. | 검증 실패 | SDV가 데이터 파일에서 문제를 식별했습니다. 데이터 세트를 성공적으로 가져오려면 이러한 문제를 해결해야 합니다. | 이벤트 데이터 가져오기 창에서 작업 ID를 선택하고 검증 보고서를 확인합니다. 보고서의 권장 사항에 따라 나열된 모든 오류를 해결합니다. 자세한 내용은 [검증 보고서 사용](#using-sdv-validation-report) 단원을 참조하십시오. | 
| 데이터 가져오기가 시작되었습니다. 검증이 성공적으로 완료되었습니다. | 가져오기 진행 중 | 데이터 세트가 검증을 통과했습니다. AFD가 데이터 세트를 가져오기 시작했습니다. | 상태가 변경될 때까지 기다립니다. | 
| 경고와 함께 검증이 완료되었습니다. 데이터 가져오기가 시작되었습니다. | 가져오기 진행 중 | 데이터 세트의 일부 데이터가 검증에 실패했습니다. 그러나 검증을 통과한 데이터는 가져오기를 위한 최소 데이터 크기 요구 사항을 충족합니다. | 배너의 메시지를 모니터링하고 상태가 변경될 때까지 기다립니다. | 
| 데이터를 부분적으로 가져왔습니다. 일부 데이터는 검증에 실패했으며 가져오지 못했습니다. 자세한 내용은 검증 보고서를 참조하세요. | 가져옴. 상태는 경고 아이콘을 표시합니다. | 검증에 실패한 데이터 파일의 일부 데이터를 가져오지 못했습니다. 검증을 통과한 나머지 데이터를 가져왔습니다. | 이벤트 데이터 가져오기 창에서 작업 ID를 선택하고 검증 보고서를 확인합니다. 데이터 수준 경고 표의 권장 사항에 따라 나열된 경고를 해결합니다. 모든 경고를 해결할 필요는 없습니다. 그러나 데이터 세트에 성공적인 가져오기에 대한 검증을 통과하는 데이터의 50% 이상이 있는지 확인합니다. 경고를 해결한 후 새 가져오기 작업을 시작합니다. 자세한 내용은 [검증 보고서 사용](#using-sdv-validation-report) 단원을 참조하십시오. | 
| 처리 오류로 인해 데이터 가져오기에 실패했습니다. 새 데이터 가져오기 작업 시작 | 가져오기에 실패했습니다. | 일시적인 런타임 오류로 인해 가져오기에 실패했습니다. | 새 가져오기 작업 시작 | 
| 데이터를 성공적으로 가져왔습니다. | 가져옴 | 검증과 가져오기가 모두 성공적으로 완료되었습니다. | 가져오기 작업의 작업 ID를 선택하여 세부 정보를 확인한 다음 모델 교육을 진행합니다. | 

**참고**  
데이터 세트를 Amazon Fraud Detector로 성공적으로 가져온 후 시스템에서 완전히 수집되도록 10분을 기다리는 것이 좋습니다.

### 스마트 데이터 검증 보고서
<a name="sdv-validation-report"></a>

스마트 데이터 검증은 검증이 완료된 후 검증 보고서를 생성합니다. 검증 보고서는 SDV가 데이터 세트에서 식별한 모든 문제에 대한 세부 정보와 가장 큰 영향을 미치는 문제를 해결하기 위한 권장 작업을 제공합니다. 검증 보고서를 사용하여 문제가 무엇인지, 데이터 세트에서 문제가 어디에 있는지, 문제의 심각도, 문제를 해결하는 방법을 확인할 수 있습니다. 검증이 성공적으로 완료되면 검증 보고서가 생성됩니다. 이 경우 보고서를 보고 나열된 문제가 있는지 확인하고 문제가 있는 경우 수정할지 여부를 결정할 수 있습니다.

**참고**  
현재 버전의 SDV는 데이터 세트에서 배치 가져오기가 실패할 수 있는 문제를 스캔합니다. 검증 및 배치 가져오기에 성공하더라도 데이터 세트에 모델 훈련이 실패할 수 있는 문제가 있을 수 있습니다. 검증 및 가져오기가 성공한 경우에도 검증 보고서를 보고 성공적인 모델 훈련을 위해 보고서에 나열된 문제를 해결하는 것이 좋습니다. 문제를 해결한 후 새 배치 가져오기 작업을 생성합니다.

**검증 보고서 액세스**

다음 옵션 중 하나를 사용하여 검증이 완료된 후 언제든지 검증 보고서에 액세스할 수 있습니다.

1. 검증이 완료되고 가져오기 작업이 진행되는 동안 상단 배너에서 **검증 보고서 보기를** 선택합니다.

1. 가져오기 작업이 완료되면 **이벤트 데이터 가져오기** 창에서 방금 완료한 가져오기 작업의 작업 ID를 선택합니다.

#### 검증 보고서 사용
<a name="using-sdv-validation-report"></a>

가져오기 작업의 검증 보고서 페이지에는이 가져오기 작업의 세부 정보, 발견된 경우 중요한 오류 목록, 발견된 경우 데이터 세트의 특정 이벤트(행)에 대한 경고 목록, 유효하지 않은 값, 각 변수의 누락된 값과 같은 정보가 포함된 데이터 세트의 간략한 요약이 제공됩니다.
+ **작업 세부 정보 가져오기**

  가져오기 작업에 대한 세부 정보를 제공합니다. 가져오기 작업이 실패했거나 데이터 세트를 부분적으로 가져온 경우 **결과 파일로 이동을** 선택하여 가져오지 못한 이벤트의 오류 로그를 확인합니다.
+ **심각한 오류**

  SDV로 식별되는 데이터 세트에서 가장 영향을 미치는 문제에 대한 세부 정보를 제공합니다. 이 창에 나열된 모든 문제는 중요하며 가져오기를 진행하기 전에 해결해야 합니다. 중요한 문제를 해결하지 않고 데이터 세트를 가져오려고 하면 가져오기 작업이 실패할 수 있습니다.

  중요한 문제를 해결하려면 각 경고에 제공된 권장 사항을 따르세요. 심각한 오류 창에 나열된 모든 문제를 해결한 후 새 배치 가져오기 작업을 생성합니다.
+ **데이터 수준 경고**

  데이터 세트의 특정 이벤트(행)에 대한 경고 요약을 제공합니다. 데이터 수준 경고 창이 채워지면 데이터 세트의 일부 이벤트가 검증에 실패하여 가져오지 못한 것입니다.

  각 경고에 대해 **설명** 열에는 문제가 있는 이벤트 수가 표시됩니다. 또한 **샘플 이벤트 IDs**는 문제가 있는 나머지 이벤트를 찾기 위한 시작점으로 사용할 수 있는 샘플 이벤트 IDs의 일부 목록을 제공합니다. 경고에 제공된 **권장 사항을** 사용하여 문제를 해결합니다. 또한 문제에 대한 추가 정보를 보려면 출력 파일의 오류 로그를 사용합니다. 오류 로그는 배치 가져오기에 실패한 모든 이벤트에 대해 생성됩니다. 오류 로그에 액세스하려면 **가져오기 작업 세부 정보** 창에서 **결과 파일로 이동을** 선택합니다.
**참고**  
데이터 세트의 이벤트(행) 중 50% 이상이 검증에 실패하면 가져오기 작업도 실패합니다. 이 경우 새 가져오기 작업을 시작하기 전에 데이터를 수정해야 합니다.
+ **데이터 세트 요약** 

   데이터 세트의 검증 보고서 요약을 제공합니다. 경고 수 열에 0개 이상의 경고가 표시되면 해당 경고를 수정해야 하는지 여부를 결정합니다. **경고 수** 열에 0이 표시되면 모델 훈련을 계속합니다.

## Python용 AWS SDK(Boto3)를 사용하여 이벤트 데이터 일괄 가져오기
<a name="batch-import-data-sdk"></a>

다음 예제에서는 [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html) API에 대한 샘플 요청을 보여줍니다. 배치 가져오기 작업에는 **jobID**, **inputPath**, **outputPath**, **eventTypeName** 및 **iamRoleArn**이 포함되어야 합니다. 작업이 CREATE\$1FAILED 상태에 있지 않는 한 jobID는 이전 작업의 동일한 ID를 포함할 수 없습니다. inputPath 및 outputPath는 유효한 S3 경로여야 합니다. outputPath에서 파일 이름 지정을 옵트아웃할 수 있지만 유효한 S3 버킷 위치를 제공해야 합니다. eventTypeName 및 iamRoleArn이 있어야 합니다. IAM 역할은 Amazon S3 버킷을 입력할 수 있는 읽기 권한과 Amazon S3 버킷을 출력할 수 있는 쓰기 권한을 부여해야 합니다.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## 배치 가져오기 작업 취소
<a name="cancel-batch-import"></a>

Amazon Fraud Detector 콘솔에서 `CancelBatchImportJob` API 또는 AWS SDK를 사용하여 언제든지 진행 중인 배치 가져오기 작업을 취소할 수 있습니다.

**콘솔에서 배치 가져오기 작업을 취소하려면**

1. AWS 콘솔을 열고 계정에 로그인한 다음 Amazon Fraud Detector로 이동합니다.

1. 왼쪽 탐색 창에서 **이벤트**를 선택합니다.

1. 이벤트 유형을 선택합니다.

1. **저장된 이벤트** 탭을 선택합니다.

1. **이벤트 데이터 가져오기** 창에서 취소하려는 진행 중인 가져오기 작업의 작업 ID를 선택합니다.

1. 이벤트 작업 페이지에서 **작업을** 클릭하고 **이벤트 가져오기 취소**를 선택합니다.

1. **이벤트 가져오기 중지**를 선택하여 배치 가져오기 작업을 취소합니다.

### Python용 AWS SDK(Boto3)를 사용하여 배치 가져오기 작업 취소
<a name="cancel-batch-import-sdk"></a>

다음 예제에서는 `CancelBatchImportJob` API에 대한 샘플 요청을 보여줍니다. 가져오기 작업 취소에는 진행 중인 배치 가져오기 작업의 작업 ID가 포함되어야 합니다.

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# GetEventPredictions API 작업을 사용하여 이벤트 데이터 저장
<a name="storing-events-geteventprediction-api"></a>

기본적으로 평가를 위해 `GetEventPrediction` API로 전송되는 모든 이벤트는 Amazon Fraud Detector에 저장됩니다. 즉, Amazon Fraud Detector는 예측을 생성할 때 이벤트 데이터를 자동으로 저장하고 해당 데이터를 사용하여 계산된 변수를 거의 실시간으로 업데이트합니다. Amazon Fraud Detector 콘솔에서 이벤트 유형으로 이동하여 **이벤트 수집**을 OFF로 설정하거나 `PutEventType` API 작업을 사용하여 EventIngestion 값을 DISABLED로 업데이트하여 데이터 스토리지를 비활성화할 수 있습니다. `GetEventPrediction` API 작업에 대한 자세한 내용은 섹션을 참조하세요[사기 예측](getting-fraud-predictions.md).

**중요**  
이벤트 유형에 대해 이벤트 *수집*을 활성화한 후에는 활성화 상태를 유지하는 것이 좋습니다. 동일한 이벤트 유형에 대해 이벤트 수집을 비활성화한 다음 예측을 생성하면 동작이 일관되지 않을 수 있습니다.

# SendEvent API 작업을 사용하여 이벤트 데이터 저장
<a name="storing-events-sendevent-api"></a>

`SendEvent` API 작업을 사용하면 해당 이벤트에 대한 사기 예측을 생성하지 않고도 Amazon Fraud Detector에 이벤트를 저장할 수 있습니다. 예를 들어 `SendEvent` 작업을 사용하여 기록 데이터 세트를 업로드할 수 있으며, 나중에 모델을 훈련하는 데 사용할 수 있습니다.

**SendEvent API의 이벤트 타임스탬프 형식**

`SendEvent` API를 사용하여 이벤트 데이터를 저장할 때는 이벤트 타임스탬프가 필수 형식인지 확인해야 합니다. Amazon Fraud Detector는 다음 날짜/타임스탬프 형식을 지원합니다.
+ %yyyy-%mm-%ddT%hh:%mm:%ssZ(밀리초 없이 UTC 전용 ISO 8601 표준)

  예: 2019-11-30T13:01:01Z 
+ %yyyy/%mm/%dd %hh:%mm:%ss(AM/PM)

  예: 2019/11/30 1:01:01 PM 또는 2019/11/30 13:01:01 
+ %mm/%dd/%yyyy %hh:%mm:%ss

  예: 11/30/2019 1:01:01 PM, 11/30/2019 13:01:01 
+ %mm/%dd/%yy %hh:%mm:%ss

  예: 11/30/19 1:01:01 PM, 11/30/19 13:01:01 

Amazon Fraud Detector는 이벤트 타임스탬프에 대한 날짜/타임스탬프 형식을 구문 분석할 때 다음과 같이 가정합니다.
+ ISO 8601 표준을 사용하는 경우 이전 사양과 정확히 일치해야 합니다.
+ 다른 형식 중 하나를 사용하는 경우 추가 유연성이 있습니다.
  + 월과 일에는 한 자릿수 또는 두 자릿수를 입력할 수 있습니다. 예를 들어 1/12/2019은 유효한 날짜입니다.
  + hh:mm:ss가 없는 경우 hh:mm:ss를 포함할 필요가 없습니다(즉, 날짜를 제공할 수 있음). 시간 및 분(예: hh:mm)의 하위 집합만 제공할 수도 있습니다. 시간만 제공하는 것은 지원되지 않습니다. 밀리초도 지원되지 않습니다.
  + AM/PM 레이블을 입력하면 12시간 시계가 가정됩니다. AM/PM 정보가 없는 경우 24시간 시계를 가정합니다.
  + 날짜 요소의 구분 기호로 “/” 또는 “-”를 사용할 수 있습니다. 타임스탬프 요소에는 “:”가 사용됩니다.

다음은 `SendEvent` API 직접 호출의 예입니다.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# 저장된 이벤트 데이터의 세부 정보 가져오기
<a name="get-stored-event-details"></a>

Amazon Fraud Detector에 이벤트 데이터를 저장한 후 [GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html) API를 사용하여 이벤트에 대해 저장된 최신 데이터를 확인할 수 있습니다. 다음 예제 코드는 `sample_registration` 이벤트에 대해 저장된 최신 데이터를 확인합니다.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# 저장된 이벤트 데이터 세트의 지표 보기
<a name="view-stored-event-metrics"></a>

각 이벤트 유형에 대해 Amazon Fraud Detector 콘솔에서 저장된 이벤트 수, 저장된 이벤트의 총 크기, 가장 빠른 이벤트와 가장 최근 저장된 이벤트의 타임스탬프와 같은 지표를 볼 수 있습니다.

**이벤트 유형의 저장된 이벤트 지표를 보려면**

1.  AWS 콘솔을 열고 계정에 로그인합니다. Amazon Fraud Detector로 이동합니다.

1. 왼쪽 탐색 창에서 **이벤트**를 선택합니다.

1. 이벤트 유형을 선택합니다.

1. **저장된 이벤트** 탭을 선택합니다.

1. **저장된 이벤트 세부 정보** 창에 지표가 표시됩니다. 이러한 지표는 하루에 한 번 자동으로 업데이트됩니다.

1. 선택적으로 **이벤트 지표 새로 고침**을 클릭하여 지표를 수동으로 업데이트합니다.
**참고**  
방금 데이터를 가져온 경우 데이터 가져오기를 완료한 후 5\$110분 정도 기다렸다가 지표를 새로 고치고 보는 것이 좋습니다.