

Amazon Fraud Detector tidak lagi terbuka untuk pelanggan baru per 7 November 2025. Untuk kemampuan yang mirip dengan Amazon Fraud Detector, jelajahi Amazon SageMaker AutoGluon,, dan AWS WAF.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Penyimpanan data acara
<a name="event-data-storage"></a>

Setelah mengumpulkan kumpulan data, Anda menyimpan kumpulan data secara internal menggunakan Amazon Fraud Detector atau secara eksternal dengan Amazon Simple Storage Service (Amazon S3). Kami menyarankan Anda memilih tempat menyimpan dataset Anda berdasarkan model yang Anda gunakan untuk menghasilkan prediksi penipuan. Berikut ini adalah rincian rinci dari dua opsi penyimpanan ini.
+ **Penyimpanan internal-** Dataset Anda disimpan dengan Amazon Fraud Detector. Semua data peristiwa yang terkait dengan suatu peristiwa disimpan bersama. Anda dapat mengunggah kumpulan data acara yang disimpan dengan Amazon Fraud Detector kapan saja. Anda dapat melakukan streaming peristiwa satu per satu ke Amazon Fraud Detector API, atau mengimpor kumpulan data besar (hingga 1GB) menggunakan fitur impor batch. Saat melatih model menggunakan kumpulan data yang disimpan dengan Amazon Fraud Detector, Anda dapat menentukan rentang waktu untuk membatasi ukuran kumpulan data Anda. 
+ **Penyimpanan eksternal-** Dataset Anda disimpan dalam sumber data eksternal selain Amazon Fraud Detector. Saat ini, Amazon Fraud Detector mendukung penggunaan Amazon Simple Storage Service (Amazon S3) untuk tujuan ini. Jika model Anda ada di file yang diunggah ke Amazon S3, file itu tidak boleh lebih dari 5GB data yang tidak terkompresi. Jika lebih dari itu, pastikan untuk mempersingkat rentang waktu dataset Anda.

Tabel berikut memberikan rincian tentang jenis model dan sumber data yang didukungnya.


| Jenis model | Sumber data pelatihan yang kompatibel | 
| --- | --- | 
|  Wawasan Penipuan Online  |  Penyimpanan eksternal, Penyimpanan internal  | 
|  Wawasan Penipuan Transaksi  |  Penyimpanan internal  | 
|  Wawasan Pengambilalihan Akun  |  Penyimpanan internal  | 

Untuk informasi tentang menyimpan kumpulan data Anda secara eksternal dengan Amazon Simple Storage Service, lihat. [Simpan data acara Anda secara eksternal dengan Amazon S3](uploading-event-data-to-an-s3-bucket.md) Untuk informasi tentang menyimpan kumpulan data Anda secara internal dengan Amazon Fraud Detector, lihat. [Simpan data acara Anda secara internal dengan Amazon Fraud Detector](storing-event-data-afd.md)

# Simpan data acara Anda secara eksternal dengan Amazon S3
<a name="uploading-event-data-to-an-s3-bucket"></a>

Jika Anda melatih model Wawasan Penipuan Online, Anda dapat memilih untuk menyimpan data acara secara eksternal dengan Amazon S3. Untuk menyimpan data acara di Amazon S3, Anda harus terlebih dahulu membuat file teks dalam format CSV, menambahkan data acara, lalu mengunggah file CSV ke bucket Amazon S3. 

**catatan**  
Jenis model **Wawasan Penipuan Transaksi** dan **Wawasan Pengambilalihan Akun** tidak mendukung kumpulan data yang disimpan secara eksternal dengan Amazon S3

# Buat file CSV
<a name="creating-csv-file"></a>

Amazon Fraud Detector mengharuskan baris pertama file CSV Anda berisi header kolom. Header kolom dalam file CSV Anda harus memetakan ke variabel yang ditentukan dalam jenis acara. Untuk contoh kumpulan data, lihat [Dapatkan dan unggah contoh dataset](step-1-get-s3-data.md) 

Model Online Fraud Insights membutuhkan dataset pelatihan yang memiliki setidaknya 2 variabel dan hingga 100 variabel. Selain variabel acara, kumpulan data pelatihan harus berisi header berikut:
+ EVENT\$1TIMESTAMP - Mendefinisikan kapan peristiwa terjadi
+ EVENT\$1LABEL - Mengklasifikasikan acara sebagai penipuan atau sah. Nilai dalam kolom harus sesuai dengan nilai yang ditentukan dalam jenis acara.

Contoh data CSV berikut mewakili peristiwa pendaftaran historis dari pedagang online: 

```
EVENT_TIMESTAMP,EVENT_LABEL,ip_address,email_address
4/10/2019 11:05,fraud,209.146.137.48,fake_burtonlinda@example.net
12/20/2018 20:04,legit,203.0.112.189,fake_davidbutler@example.org
3/14/2019 10:56,legit,169.255.33.54,fake_shelby76@example.net
1/3/2019 8:38,legit,192.119.44.26,fake_curtis40@example.com
9/25/2019 3:12,legit,192.169.85.29,fake_rmiranda@example.org
```

**catatan**  
File data CSV dapat berisi tanda kutip ganda dan koma sebagai bagian dari data Anda. 

Versi sederhana dari jenis acara yang sesuai diwakili di bawah ini. Variabel peristiwa sesuai dengan header dalam file CSV dan nilai `EVENT_LABEL` sesuai dengan nilai dalam daftar label.

```
(
name = 'sample_registration',
eventVariables = ['ip_address', 'email_address'],
labels = ['legit', 'fraud'],
entityTypes = ['sample_customer']
)
```

## Format Timestamp Acara
<a name="timestamp-formats"></a>

Pastikan stempel waktu acara Anda dalam format yang diperlukan. Sebagai bagian dari proses pembuatan model, tipe model Wawasan Penipuan Online memesan data Anda berdasarkan stempel waktu acara, dan membagi data Anda untuk tujuan pelatihan dan pengujian. Untuk mendapatkan perkiraan kinerja yang adil, model pertama-tama melatih kumpulan data pelatihan, dan kemudian menguji model ini pada kumpulan data pengujian.

Amazon Fraud Detector mendukung date/timestamp format berikut untuk nilai `EVENT_TIMESTAMP` selama pelatihan model:
+ %YYYY-%mm-%ddt%HH: %mm: %SSZ (standar ISO 8601 di UTC hanya tanpa milidetik)

  Contoh: 2019-11-30T 13:01:01 Z 
+ %yyy/%mm/%dd %hh: %mm: %ss (AM/PM)

  Contoh: 2019/11/30 13:01:01 PM, atau 2019/11/30 13:01:01 
+ %mm/%dd/%yyyy %hh: %mm: %ss

  Contoh: 30/11/2019 13:01:01 PM, 11/30/2019 13:01:01 
+ %mm/%dd/%yy %hh: %mm: %ss

  Contoh: 30/11/19 13:01:01 PM, 11/30/19 13:01:01 

Amazon Fraud Detector membuat asumsi berikut saat mengurai date/timestamp format untuk stempel waktu acara:
+ Jika Anda menggunakan standar ISO 8601, itu harus sama persis dengan spesifikasi sebelumnya
+ Jika Anda menggunakan salah satu format lain, ada fleksibilitas tambahan:
  + Selama berbulan-bulan dan berhari-hari, Anda dapat memberikan digit tunggal atau ganda. Misalnya, 1/12/2019 adalah tanggal yang valid.
  + Anda tidak perlu menyertakan hh:mm: ss jika Anda tidak memilikinya (ya, Anda cukup memberikan tanggal). Anda juga dapat memberikan subset hanya jam dan menit (misalnya, hh:mm). Hanya menyediakan jam tidak didukung. Milidetik juga tidak didukung.
  + Jika Anda memberikan AM/PM label, jam 12 jam diasumsikan. Jika tidak ada AM/PM informasi, jam 24 jam diasumsikan.
  + Anda dapat menggunakan “/” atau “-” sebagai pembatas untuk elemen tanggal. “:” diasumsikan untuk elemen stempel waktu.

## Mengambil sampel kumpulan data Anda sepanjang waktu
<a name="sample-your-dataset"></a>

Kami menyarankan Anda memberikan contoh penipuan dan sampel yang sah dari rentang waktu yang sama. Misalnya, jika Anda memberikan peristiwa penipuan dari 6 bulan terakhir, Anda juga harus memberikan acara yang sah yang secara merata mencakup periode waktu yang sama. Jika kumpulan data Anda berisi distribusi penipuan dan peristiwa yang sah yang sangat tidak merata, Anda mungkin menerima kesalahan berikut: *“Distribusi penipuan sepanjang waktu sangat fluktuasi. Tidak dapat membagi kumpulan data dengan benar.”* Biasanya, perbaikan termudah untuk kesalahan ini adalah memastikan bahwa peristiwa penipuan dan peristiwa yang sah diambil sampelnya secara merata di seluruh jangka waktu yang sama. Anda juga mungkin perlu menghapus data jika Anda mengalami lonjakan besar dalam penipuan dalam waktu singkat. 

Jika Anda tidak dapat menghasilkan data yang cukup untuk membuat kumpulan data yang terdistribusi secara merata, salah satu pendekatannya adalah dengan mengacak EVENT\$1TIMESTAMP peristiwa Anda sehingga terdistribusi secara merata. Namun, hal ini sering mengakibatkan metrik kinerja menjadi tidak realistis karena Amazon Fraud Detector menggunakan EVENT\$1TIMESTAMP untuk mengevaluasi model pada subset peristiwa yang sesuai dalam kumpulan data Anda. 

## Nilai nol dan hilang
<a name="null-missing-values"></a>

Amazon Fraud Detector menangani nilai nol dan hilang. Namun, persentase nol untuk variabel harus dibatasi. Kolom EVENT\$1TIMESTAMP dan EVENT\$1LABEL tidak boleh berisi nilai yang hilang.

## Validasi file
<a name="csv-file-validation"></a>

Amazon Fraud Detector akan gagal melatih model jika salah satu kondisi berikut dipicu:
+ Jika CSV tidak dapat diurai
+ Jika tipe data untuk kolom salah

# Unggah data acara Anda ke bucket Amazon S3
<a name="uploading-to-an-s3-bucket"></a>

Setelah Anda membuat file CSV dengan data acara, unggah file ke bucket Amazon S3 Anda.

**Untuk mengunggah ke bucket Amazon S3**

1. Masuk ke Konsol Manajemen AWS dan buka konsol Amazon S3 di. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Pilih **Buat bucket**.

   **Buat bucket** membuka wizard.

1. Di **Nama bucket**, masukkan nama yang sesuai dengan DNS untuk bucket Anda.

   Nama kelompok harus:
   + Unik di seluruh Amazon S3.
   + Panjangnya antara 3 dan 63 karakter.
   + Tidak mengandung karakter huruf besar.
   + Mulai dengan huruf kecil atau angka.

   Setelah membuat bucket, Anda tidak dapat mengubah namanya. Untuk informasi tentang penamaan bucket, lihat [Aturan penamaan bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.
**penting**  
Hindari menyertakan informasi sensitif, seperti nomor akun, dalam nama bucket. Nama ember terlihat di titik URLs itu ke objek di ember.

1. Di **Wilayah**, pilih AWS Wilayah tempat Anda ingin ember berada. Anda harus memilih Wilayah yang sama di mana Anda menggunakan Amazon Fraud Detector, yaitu US East (Virginia N.), US East (Ohio), US West (Oregon), Eropa (Irlandia), Asia Pasifik (Singapura) atau Asia Pasifik (Sydney). 

1. Pada **Pengaturan bucket untuk Blokir Akses Publik**, pilih pengaturan Blokir Akses Publik yang ingin Anda terapkan ke bucket. 

   Kami menyarankan Anda membiarkan semua pengaturan diaktifkan. Untuk informasi selengkapnya tentang memblokir akses publik, lihat [Memblokir akses publik ke penyimpanan Amazon S3 Anda](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.

1. Pilih **Buat bucket**.

1. Unggah file data pelatihan ke bucket Amazon S3 Anda. Perhatikan jalur lokasi Amazon S3 untuk file pelatihan Anda (misalnya, s3://bucketname/object.csv).

# Simpan data acara Anda secara internal dengan Amazon Fraud Detector
<a name="storing-event-data-afd"></a>

Anda dapat memilih untuk menyimpan data peristiwa di Amazon Fraud Detector dan menggunakan data yang disimpan nanti untuk melatih model Anda. Dengan menyimpan data peristiwa di Amazon Fraud Detector, Anda dapat melatih model yang menggunakan variabel yang dihitung otomatis untuk meningkatkan kinerja, menyederhanakan pelatihan ulang model, dan memperbarui label penipuan untuk menutup loop umpan balik pembelajaran mesin. Peristiwa disimpan pada tingkat sumber daya Jenis Peristiwa, sehingga semua peristiwa dari jenis peristiwa yang sama disimpan bersama dalam satu set data tipe peristiwa. Sebagai bagian dari menentukan jenis peristiwa, Anda dapat menentukan secara opsional apakah akan menyimpan peristiwa untuk jenis peristiwa tersebut dengan mengaktifkan *setelan Event Ingestion* di konsol Amazon Fraud Detector. 

Anda dapat menyimpan peristiwa tunggal atau mengimpor sejumlah besar kumpulan data peristiwa di Amazon Fraud Detector. Peristiwa tunggal dapat dialirkan menggunakan [GetEventPrediction](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEventPrediction.html)API atau [SendEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_SendEvent.html)API. Kumpulan data besar dapat dengan cepat dan mudah diimpor ke Amazon Fraud Detector menggunakan fitur impor batch di konsol Amazon Fraud Detector atau menggunakan API. [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html)

Anda dapat menggunakan konsol Amazon Fraud Detector kapan saja untuk memeriksa jumlah peristiwa yang sudah disimpan untuk setiap jenis acara.

# Siapkan data acara untuk penyimpanan
<a name="prepare-storage-event-data"></a>

Data peristiwa yang disimpan secara internal dengan Amazon Fraud Detector disimpan di tingkat `Event Type` sumber daya. Jadi, semua data peristiwa yang berasal dari peristiwa yang sama disimpan dalam satu`Event Type`. Peristiwa yang disimpan nantinya dapat digunakan untuk melatih model baru atau melatih kembali model yang sudah ada. Saat melatih model menggunakan data peristiwa yang disimpan, Anda dapat secara opsional menentukan rentang waktu peristiwa untuk membatasi ukuran kumpulan data pelatihan Anda. 

Setiap kali Anda menyimpan data di Amazon Fraud Detector, menggunakan konsol Amazon Fraud Detector, `SendEvent` API, atau `CreateBatchImportJob` API, Amazon Fraud Detector memvalidasi data Anda sebelum menyimpan. Jika data Anda gagal validasi, data peristiwa tidak disimpan.

**Prasyarat untuk menyimpan data secara internal dengan Amazon Fraud Detector**
+ Untuk memastikan bahwa data peristiwa Anda lolos validasi dan kumpulan data berhasil disimpan, pastikan Anda telah menggunakan wawasan yang disediakan oleh [penjelajah model Data](https://docs.aws.amazon.com/frauddetector/latest/ug/create-event-dataset.html#prepare-event-dataset) untuk menyiapkan kumpulan data Anda. 
+ Membuat jenis acara untuk data acara yang ingin Anda simpan dengan Amazon Fraud Detector. Jika belum, ikuti intstructions untuk [Membuat jenis acara](https://docs.aws.amazon.com//frauddetector/latest/ug/create-event-type.html).

## Validasi Data Cerdas
<a name="smart-data-validation"></a>

Saat Anda mengunggah kumpulan data di konsol Amazon Fraud Detector untuk impor batch, Amazon Fraud Detector menggunakan Smart Data Validation (SDV) untuk memvalidasi kumpulan data Anda sebelum mengimpor data Anda. SDV memindai file data yang diunggah dan mengidentifikasi masalah seperti data yang hilang, dan format atau tipe data yang salah. Selain memvalidasi kumpulan data Anda, SDV juga menyediakan laporan validasi yang mencantumkan semua masalah yang diidentifikasi dan menyarankan tindakan untuk memperbaiki masalah yang paling berdampak. Beberapa masalah yang diidentifikasi oleh SDV mungkin penting dan harus ditangani sebelum Amazon Fraud Detector berhasil mengimpor dataset Anda. Untuk informasi selengkapnya, lihat [Laporan Validasi Data Cerdas](storing-events-batch-import.md#sdv-validation-report). 

SDV memvalidasi kumpulan data Anda di tingkat file dan pada tingkat data (baris). Pada tingkat file, SDV memindai file data Anda dan mengidentifikasi masalah seperti izin yang tidak memadai untuk mengakses file, ukuran file yang salah, format file, dan header (metadata peristiwa dan variabel peristiwa). Pada tingkat data, SDV memindai setiap data peristiwa (baris) dan mengidentifikasi masalah seperti format data yang salah, panjang data, format stempel waktu, dan nilai nol. 

Validasi Data Cerdas saat ini hanya tersedia di konsol Amazon Fraud Detector dan validasi diaktifkan secara default. Jika Anda tidak ingin Amazon Fraud Detector menggunakan Validasi Data Cerdas sebelum mengimpor kumpulan data, matikan validasi di konsol Amazon Fraud Detector saat mengunggah kumpulan data Anda. 

## Memvalidasi data yang disimpan saat menggunakan APIs atau AWS SDK
<a name="validating-stored-data-api"></a>

Saat mengunggah peristiwa melalui`SendEvent`,, atau operasi `CreateBatchImportJob ` API`GetEventPrediction`, Amazon Fraud Detector memvalidasi hal-hal berikut:
+  EventIngestion Pengaturan untuk jenis acara tersebut diaktifkan.
+ Stempel waktu acara tidak dapat diperbarui. Peristiwa dengan ID peristiwa berulang dan EVENT\$1TIMESTAMP yang berbeda akan diperlakukan sebagai kesalahan.
+ Nama dan nilai variabel cocok dengan format yang diharapkan. Untuk informasi selengkapnya, lihat [Buat variabel](create-a-variable.md)
+ Variabel yang diperlukan diisi dengan nilai.
+ Semua stempel waktu acara tidak lebih dari 18 bulan dan tidak di masa depan.

# Simpan data acara menggunakan impor batch
<a name="storing-events-batch-import"></a>

Dengan fitur impor batch, Anda dapat dengan cepat dan mudah mengunggah kumpulan data peristiwa historis besar di Amazon Fraud Detector menggunakan konsol, API, atau AWS SDK. *Untuk menggunakan impor batch, buat file input dalam format CSV yang berisi semua data peristiwa, unggah file CSV ke bucket Amazon S3, dan mulai pekerjaan Impor.* Amazon Fraud Detector pertama memvalidasi data berdasarkan jenis peristiwa, dan kemudian secara otomatis mengimpor seluruh kumpulan data. Setelah data diimpor, data siap digunakan untuk melatih model baru atau untuk melatih ulang model yang ada.

## File input dan output
<a name="input-output-batch"></a>

File CSV masukan harus berisi header yang cocok dengan variabel yang ditentukan dalam jenis peristiwa terkait ditambah empat variabel wajib. Untuk informasi selengkapnya, lihat [Siapkan data acara untuk penyimpanan](prepare-storage-event-data.md). Ukuran maksimum file data input adalah 20 Gigabytes (GB), atau sekitar 50 juta acara. Jumlah acara akan bervariasi menurut ukuran acara Anda. Jika pekerjaan impor berhasil, file output kosong. Jika impor tidak berhasil, file output berisi log kesalahan. 

## Buat file CSV
<a name="create-csv-stored-data"></a>

Amazon Fraud Detector mengimpor data hanya dari file yang berada dalam format Comma-separated values (CSV). Baris pertama file CSV Anda harus berisi header kolom yang sama persis dengan variabel yang ditentukan dalam jenis peristiwa terkait ditambah empat variabel wajib: EVENT\$1ID, EVENT\$1TIMESTAMP, ENTITY\$1ID, dan ENTITY\$1TYPE. Anda juga dapat secara opsional menyertakan EVENT\$1LABEL dan LABEL\$1TIMESTAMP (LABEL\$1TIMESTAMP diperlukan jika EVENT\$1LABEL disertakan). 

**Tentukan variabel wajib**

Variabel wajib dianggap sebagai metadata peristiwa dan harus ditentukan dalam huruf besar. Metadata acara secara otomatis disertakan untuk pelatihan model. Tabel berikut mencantumkan variabel wajib, deskripsi setiap variabel, dan format yang diperlukan untuk variabel tersebut.


| Nama | Deskripsi | Persyaratan | 
| --- | --- | --- | 
|  EVENT\$1ID  |  Pengenal untuk acara tersebut. Misalnya, jika acara Anda adalah transaksi online, EVENT\$1ID mungkin merupakan nomor referensi transaksi yang diberikan kepada pelanggan Anda.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  EVENT\$1TIMESTAMP  |  Stempel waktu kapan peristiwa itu terjadi. Stempel waktu harus dalam standar ISO 8601 di UTC.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1ID  |  Pengidentifikasi untuk entitas yang melakukan acara.  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/frauddetector/latest/ug/storing-events-batch-import.html)  | 
|  ENTITY\$1TYPE  |  Entitas yang melakukan acara, seperti pedagang atau pelanggan  |  ENTITY\$1TYPE diperlukan untuk pekerjaan impor batch  | 
|  EVENT\$1LABEL  |  Mengklasifikasikan acara sebagai `fraudulent` atau `legitimate`  |  EVENT\$1LABEL diperlukan jika LABEL\$1TIMESTAMP disertakan  | 
|  LABEL\$1TIMESTAMP  |  Stempel waktu saat label acara terakhir diisi atau diperbarui  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/frauddetector/latest/ug/storing-events-batch-import.html)  | 

## Unggah file CSV ke Amazon S3 untuk impor batch
<a name="upload-csv-S3-for-batch-import"></a>

Setelah membuat file CSV dengan data, unggah file tersebut ke bucket Amazon Simple Storage Service (Amazon S3).

**Untuk mengunggah data peristiwa ke bucket Amazon S3**

1. Masuk ke Konsol Manajemen AWS dan buka konsol Amazon S3 di. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)

1. Pilih **Buat bucket**.

   **Buat bucket** membuka wizard.

1. Di **Nama bucket**, masukkan nama yang sesuai dengan DNS untuk bucket Anda.

   Nama kelompok harus:
   + Unik di seluruh Amazon S3.
   + Panjangnya antara 3 dan 63 karakter.
   + Tidak mengandung karakter huruf besar.
   + Mulai dengan huruf kecil atau angka.

   Setelah membuat bucket, Anda tidak dapat mengubah namanya. Untuk informasi tentang penamaan bucket, lihat [Aturan penamaan bucket](https://docs.aws.amazon.com/AmazonS3/latest/userguide/BucketRestrictions.html#bucketnamingrules) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.
**penting**  
Hindari menyertakan informasi sensitif, seperti nomor akun, dalam nama bucket. Nama ember terlihat di titik URLs itu ke objek di ember.

1. Di **Wilayah**, pilih AWS Wilayah tempat Anda ingin ember berada. Anda harus memilih Wilayah yang sama di mana Anda menggunakan Amazon Fraud Detector, yaitu US East (Virginia N.), US East (Ohio), US West (Oregon), Eropa (Irlandia), Asia Pasifik (Singapura) atau Asia Pasifik (Sydney). 

1. Pada **Pengaturan bucket untuk Blokir Akses Publik**, pilih pengaturan Blokir Akses Publik yang ingin Anda terapkan ke bucket. 

   Kami menyarankan Anda membiarkan semua pengaturan diaktifkan. Untuk informasi selengkapnya tentang memblokir akses publik, lihat [Memblokir akses publik ke penyimpanan Amazon S3 Anda](https://docs.aws.amazon.com/AmazonS3/latest/dev/access-control-block-public-access.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*.

1. Pilih **Buat bucket**.

1. Unggah file data pelatihan ke bucket Amazon S3 Anda. Perhatikan jalur lokasi Amazon S3 untuk file pelatihan Anda (misalnya, s3://bucketname/object.csv).

## Data peristiwa impor batch di konsol Amazon Fraud Detector
<a name="batch-import-event-data"></a>

Anda dapat dengan mudah mengimpor sejumlah besar kumpulan data peristiwa Anda di konsol Amazon Fraud Detector, menggunakan `CreateBatchImportJob` API atau menggunakan AWS SDK. Sebelum melanjutkan, pastikan Anda telah mengikuti instruksi untuk menyiapkan kumpulan data Anda sebagai file CSV. Pastikan Anda juga mengunggah file CSV ke bucket Amazon S3.

**Menggunakan konsol Amazon Fraud Detector**

**Untuk mengimpor data peristiwa secara batch di konsol**

1. Buka AWS Console dan masuk ke akun Anda, lalu navigasikan ke Amazon Fraud Detector.

1. Di panel navigasi kiri, pilih **Acara**.

1. Pilih jenis acara Anda.

1. Pilih tab **Acara tersimpan**.

1. **Di panel **Detail peristiwa tersimpan**, pastikan bahwa **konsumsi Acara** AKTIF.**

1. Di panel **Impor data peristiwa**, pilih **Impor Baru**.

1. Di halaman **impor acara baru**, berikan informasi berikut:
   + [Disarankan] Biarkan **Aktifkan Validasi Data Cerdas untuk kumpulan data ini - set baru** ke pengaturan default.
   + Untuk **peran IAM untuk data**, pilih peran IAM yang Anda buat untuk bucket Amazon S3 yang menyimpan file CSV yang akan Anda impor.
   + Untuk **lokasi data Input**, masukkan lokasi S3 tempat Anda memiliki file CSV. 
   + Jika Anda ingin menentukan lokasi terpisah untuk menyimpan hasil impor, klik tombol **Pisahkan lokasi data untuk input dan hasil**, lalu berikan lokasi bucket Amazon S3 yang valid.
**penting**  
Pastikan bahwa peran IAM yang Anda pilih memiliki izin baca ke bucket Amazon S3 masukan dan tulis izin ke bucket Amazon S3 keluaran Anda.

1. Pilih **Mulai**.

1. Kolom **Status** di panel **data Impor peristiwa** menampilkan status validasi dan pekerjaan impor Anda. Spanduk di bagian atas memberikan deskripsi status tingkat tinggi saat dataset Anda pertama kali melewati validasi dan kemudian impor.

1. Ikuti panduan yang diberikan kepada[Memantau kemajuan validasi dataset dan pekerjaan impor](#monitor-progress-sdv).

### Memantau kemajuan validasi dataset dan pekerjaan impor
<a name="monitor-progress-sdv"></a>

Jika Anda menggunakan konsol Amazon Fraud Detector untuk melakukan pekerjaan impor batch, secara default, Amazon Fraud Detector memvalidasi kumpulan data Anda sebelum mengimpor. Anda dapat memantau kemajuan dan status validasi dan pekerjaan impor di halaman **impor peristiwa baru** di konsol Amazon Fraud Detector. Spanduk di bagian atas halaman memberikan deskripsi singkat tentang temuan validasi dan status pekerjaan impor. Bergantung pada temuan validasi dan status pekerjaan impor Anda, Anda mungkin diminta untuk mengambil tindakan untuk memastikan validasi dan impor kumpulan data Anda berhasil.

Tabel berikut memberikan rincian tindakan yang harus Anda ambil tergantung pada hasil validasi dan operasi impor.


| Pesan spanduk | Status | Apa artinya | Apa yang harus saya lakukan | 
| --- | --- | --- | --- | 
| Validasi data telah dimulai | Validasi sedang berlangsung | SDV telah mulai memvalidasi dataset Anda | Tunggu status berubah | 
| Validasi data tidak dapat dilanjutkan karena kesalahan dalam kumpulan data Anda. Perbaiki kesalahan dalam file data Anda dan mulai pekerjaan impor baru. Lihat laporan validasi untuk informasi lebih lanjut | Validasi gagal | SDV mengidentifikasi masalah dalam file data Anda. Masalah-masalah ini harus diatasi agar berhasil mengimpor dataset Anda. | Di panel Impor data peristiwa, pilih Job Id dan lihat laporan validasi. Ikuti Rekomendasi dalam laporan untuk mengatasi semua kesalahan yang tercantum. Untuk informasi selengkapnya, lihat [Menggunakan laporan validasi](#using-sdv-validation-report). | 
| Impor data telah dimulai. Validasi berhasil diselesaikan | Impor sedang berlangsung | Dataset Anda lulus validasi. AFD telah mulai mengimpor dataset Anda | Tunggu status berubah | 
| Validasi dilengkapi dengan peringatan. Impor data telah dimulai | Impor sedang berlangsung | Beberapa data dalam dataset Anda gagal validasi. Namun, data yang lulus validasi memenuhi persyaratan ukuran data minimum untuk impor. | Pantau pesan di spanduk dan tunggu statusnya berubah | 
| Data Anda sebagian diimpor. Beberapa data gagal validasi dan tidak diimpor. Lihat laporan validasi untuk informasi selengkapnya. | Diimpor. Status menampilkan ikon peringatan. | Beberapa data dalam file data Anda yang gagal validasi tidak diimpor. Sisa data yang lulus validasi diimpor. | Di panel Impor data peristiwa, pilih Job Id dan lihat laporan validasi. Ikuti Rekomendasi dalam tabel Peringatan tingkat data untuk mengatasi peringatan yang tercantum. Anda tidak perlu mengatasi semua peringatan. Namun, pastikan bahwa dataset Anda memiliki lebih dari 50% data yang lolos validasi untuk impor yang berhasil. Setelah Anda mengatasi peringatan, mulailah pekerjaan impor baru. Untuk informasi selengkapnya, lihat [Menggunakan laporan validasi](#using-sdv-validation-report). | 
| Impor data gagal karena kesalahan pemrosesan. Memulai pekerjaan impor data baru | Impor gagal | Impor gagal karena kesalahan run-time sementara | Memulai pekerjaan impor baru | 
| Data berhasil diimpor | Impor | Baik validasi dan impor berhasil diselesaikan | Pilih Job Id pekerjaan impor Anda untuk melihat detail dan kemudian lanjutkan dengan pelatihan model | 

**catatan**  
Kami merekomendasikan menunggu 10 menit setelah kumpulan data berhasil diimpor ke Amazon Fraud Detector untuk memastikan bahwa mereka sepenuhnya tertelan oleh sistem.

### Laporan Validasi Data Cerdas
<a name="sdv-validation-report"></a>

Validasi Data Cerdas membuat laporan validasi setelah validasi selesai. Laporan validasi memberikan rincian semua masalah yang telah diidentifikasi SDV dalam kumpulan data Anda, dengan tindakan yang disarankan untuk memperbaiki masalah yang paling berdampak. Anda dapat menggunakan laporan validasi untuk menentukan apa masalahnya, lokasi masalah dalam kumpulan data, tingkat keparahan masalah, dan cara memperbaikinya. Laporan validasi dibuat bahkan ketika validasi selesai dengan sukses. Dalam hal ini, Anda dapat melihat laporan untuk melihat apakah ada masalah yang tercantum dan jika ada, putuskan apakah Anda ingin memperbaikinya.

**catatan**  
Versi SDV saat ini memindai kumpulan data Anda untuk masalah yang mungkin menyebabkan impor batch gagal. Jika validasi dan impor batch berhasil, kumpulan data Anda masih dapat mengalami masalah yang dapat menyebabkan pelatihan model gagal. Sebaiknya Anda melihat laporan validasi meskipun validasi dan impor berhasil, dan mengatasi masalah apa pun yang tercantum dalam laporan untuk pelatihan model yang berhasil. Setelah Anda mengatasi masalah, buat pekerjaan impor batch baru. 

**Mengakses laporan validasi**

Anda dapat mengakses laporan validasi kapan saja setelah validasi selesai menggunakan salah satu opsi berikut:

1. Setelah validasi selesai dan saat pekerjaan impor sedang berlangsung, di spanduk atas, pilih **Lihat laporan validasi**.

1. Setelah pekerjaan impor selesai, di panel **data Impor peristiwa**, pilih ID Pekerjaan dari pekerjaan impor yang baru saja selesai. 

#### Menggunakan laporan validasi
<a name="using-sdv-validation-report"></a>

Halaman laporan validasi pekerjaan impor Anda memberikan rincian pekerjaan impor ini, daftar kesalahan kritis jika ada yang ditemukan, daftar peringatan tentang peristiwa tertentu (baris) dalam kumpulan data Anda jika ditemukan, dan ringkasan singkat kumpulan data Anda yang mencakup informasi seperti nilai yang tidak valid, dan nilai yang hilang untuk setiap variabel.
+ **Impor detail pekerjaan**

  Memberikan rincian pekerjaan impor. Jika pekerjaan impor Anda gagal atau kumpulan data Anda diimpor sebagian, pilih **Buka file hasil untuk** melihat log kesalahan peristiwa yang gagal diimpor. 
+ **Kesalahan kritis**

  Memberikan detail masalah yang paling berdampak dalam kumpulan data Anda yang diidentifikasi oleh SDV. Semua masalah yang tercantum di panel ini sangat penting dan Anda harus mengatasinya sebelum melanjutkan dengan impor. Jika Anda mencoba mengimpor kumpulan data tanpa mengatasi masalah kritis, pekerjaan impor Anda mungkin gagal.

  Untuk mengatasi masalah kritis, ikuti rekomendasi yang diberikan untuk setiap peringatan. Setelah Anda mengatasi semua masalah yang tercantum di panel Kesalahan kritis, buat pekerjaan impor batch baru. 
+ **Peringatan tingkat data**

  Memberikan ringkasan peringatan untuk peristiwa tertentu (baris) dalam kumpulan data Anda. Jika panel peringatan tingkat data diisi, beberapa peristiwa dalam kumpulan data Anda gagal validasi dan tidak diimpor. 

  Untuk setiap peringatan, kolom **Deskripsi** menampilkan jumlah peristiwa yang memiliki masalah. Dan **acara Sample IDs** menyediakan sebagian daftar contoh peristiwa yang dapat IDs Anda gunakan sebagai titik awal untuk menemukan sisa peristiwa yang memiliki masalah. Gunakan **Rekomendasi** yang disediakan untuk peringatan untuk memperbaiki masalah. Juga gunakan log kesalahan dari file output Anda untuk informasi tambahan tentang masalah ini. Log kesalahan dibuat untuk semua peristiwa yang gagal impor batch. Untuk mengakses log kesalahan, di panel **Impor rincian pekerjaan**, pilih **Buka file hasil**. 
**catatan**  
Jika lebih dari 50% peristiwa (baris) dalam kumpulan data Anda gagal validasi, pekerjaan impor juga gagal. Dalam hal ini, Anda harus memperbaiki data sebelum memulai pekerjaan impor baru. 
+ **Ringkasan kumpulan data** 

   Memberikan ringkasan laporan validasi kumpulan data Anda. Jika kolom Jumlah peringatan menunjukkan lebih dari 0 peringatan, putuskan apakah Anda perlu memperbaiki peringatan tersebut. Jika kolom **Jumlah peringatan** menunjukkan 0, lanjutkan untuk melatih model Anda. 

## Data peristiwa impor batch menggunakan AWS SDK for Python (Boto3)
<a name="batch-import-data-sdk"></a>

Contoh berikut menunjukkan permintaan sampel untuk [CreateBatchImportJob](https://docs.aws.amazon.com//frauddetector/latest/api/API_CreateBatchImportJob.html)API. Pekerjaan impor batch harus menyertakan **JoBid**, **InputPath, **OutputPath****, dan. **eventTypeName**iamRoleArn**** JoBid tidak dapat berisi ID yang sama dari pekerjaan sebelumnya, kecuali pekerjaan tersebut ada dalam status CREATE\$1FAILED. InputPath dan outputPath harus jalur S3 yang valid. Anda dapat memilih untuk tidak menentukan nama file di OutputPath, namun, Anda masih perlu memberikan lokasi bucket S3 yang valid. Itu eventTypeName dan iamRoleArn harus ada. Peran IAM harus memberikan izin baca untuk memasukkan bucket Amazon S3 dan izin menulis untuk mengeluarkan bucket Amazon S3. 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.create_batch_import_job (
jobId = 'sample_batch_import',
inputPath = 's3://bucket_name/input_file_name.csv',
outputPath = 's3://bucket_name/',
eventTypeName = 'sample_registration',
iamRoleArn: 'arn:aws:iam::************:role/service-role/AmazonFraudDetector-DataAccessRole-*************'
)
```

## Batalkan pekerjaan impor batch
<a name="cancel-batch-import"></a>

Anda dapat membatalkan pekerjaan impor batch yang sedang berlangsung kapan saja di konsol Amazon Fraud Detector, menggunakan `CancelBatchImportJob` API, atau AWS SDK. 

**Untuk membatalkan pekerjaan impor batch di konsol,**

1. Buka AWS Console dan masuk ke akun Anda, lalu navigasikan ke Amazon Fraud Detector.

1. Di panel navigasi kiri, pilih **Acara**.

1. Pilih jenis acara Anda.

1. Pilih tab **Acara tersimpan**.

1. Di panel **Impor data peristiwa**, pilih Id pekerjaan dari pekerjaan impor yang sedang berlangsung yang ingin Anda batalkan.

1. Di halaman pekerjaan acara, klik **Tindakan** dan pilih **Batalkan impor acara**.

1. Pilih **Hentikan impor acara** untuk membatalkan pekerjaan impor batch.

### Membatalkan pekerjaan impor batch menggunakan AWS SDK for Python (Boto3)
<a name="cancel-batch-import-sdk"></a>

Contoh berikut menunjukkan permintaan sampel untuk `CancelBatchImportJob` API. Pekerjaan pembatalan impor harus menyertakan ID pekerjaan dari pekerjaan impor batch yang sedang berlangsung. 

```
import boto3
fraudDetector = boto3.client('frauddetector')
fraudDetector.cancel_batch_import_job (
    jobId = 'sample_batch'
)
```

# Menyimpan data peristiwa menggunakan operasi GetEventPredictions API
<a name="storing-events-geteventprediction-api"></a>

Secara default, semua peristiwa yang dikirim ke `GetEventPrediction` API untuk evaluasi disimpan di Amazon Fraud Detector. Ini berarti Amazon Fraud Detector akan secara otomatis menyimpan data peristiwa saat Anda membuat prediksi dan menggunakan data tersebut untuk memperbarui variabel yang dihitung secara mendekati waktu nyata. Anda dapat menonaktifkan penyimpanan data dengan menavigasi ke jenis peristiwa di konsol Amazon Fraud Detector dan menyetel **Event ingestion** OFF atau memperbarui EventIngestion nilai ke DISABLED menggunakan operasi API. `PutEventType` Untuk informasi selengkapnya tentang operasi `GetEventPrediction` API, lihat[Prediksi penipuan](getting-fraud-predictions.md). 

**penting**  
Kami sangat menyarankan bahwa setelah Anda mengaktifkan *Event ingestion* untuk jenis Event, tetap aktifkan. Menonaktifkan konsumsi Acara untuk jenis Peristiwa yang sama dan kemudian menghasilkan prediksi dapat mengakibatkan perilaku yang tidak konsisten.

# Menyimpan data peristiwa menggunakan operasi SendEvent API
<a name="storing-events-sendevent-api"></a>

Anda dapat menggunakan operasi `SendEvent` API untuk menyimpan peristiwa di Amazon Fraud Detector tanpa membuat prediksi penipuan untuk peristiwa tersebut. Misalnya, Anda dapat menggunakan `SendEvent` operasi untuk mengunggah kumpulan data historis, yang nantinya dapat Anda gunakan untuk melatih model.

**Format Timestamp Acara untuk API SendEvent **

Saat menyimpan data peristiwa menggunakan `SendEvent` API, Anda harus memastikan bahwa stempel waktu acara Anda dalam format yang diperlukan. Amazon Fraud Detector mendukung date/timestamp format berikut:
+ %YYYY-%mm-%ddt%HH: %mm: %SSZ (standar ISO 8601 di UTC hanya tanpa milidetik)

  Contoh: 2019-11-30T 13:01:01 Z 
+ %yyy/%mm/%dd %hh: %mm: %ss (AM/PM)

  Contoh: 2019/11/30 13:01:01 PM, atau 2019/11/30 13:01:01 
+ %mm/%dd/%yyyy %hh: %mm: %ss

  Contoh: 30/11/2019 13:01:01 PM, 11/30/2019 13:01:01 
+ %mm/%dd/%yy %hh: %mm: %ss

  Contoh: 30/11/19 13:01:01 PM, 11/30/19 13:01:01 

Amazon Fraud Detector membuat asumsi berikut saat mengurai date/timestamp format untuk stempel waktu acara:
+ Jika Anda menggunakan standar ISO 8601, itu harus sama persis dengan spesifikasi sebelumnya
+ Jika Anda menggunakan salah satu format lain, ada fleksibilitas tambahan:
  + Selama berbulan-bulan dan berhari-hari, Anda dapat memberikan digit tunggal atau ganda. Misalnya, 1/12/2019 adalah tanggal yang valid.
  + Anda tidak perlu menyertakan hh:mm: ss jika Anda tidak memilikinya (yaitu, Anda cukup memberikan tanggal). Anda juga dapat memberikan subset hanya jam dan menit (misalnya, hh:mm). Hanya menyediakan jam tidak didukung. Milidetik juga tidak didukung.
  + Jika Anda memberikan AM/PM label, jam 12 jam diasumsikan. Jika tidak ada AM/PM informasi, jam 24 jam diasumsikan.
  + Anda dapat menggunakan “/” atau “-” sebagai pembatas untuk elemen tanggal. “:” diasumsikan untuk elemen stempel waktu.

Berikut ini adalah contoh panggilan `SendEvent` API. 

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.send_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration',
            eventTimestamp = '2020-07-13T23:18:21Z',
            eventVariables =  {
    			'email_address' : 'johndoe@exampledomain.com',
    			'ip_address' : '1.2.3.4'},
            assignedLabel  = ‘legit’,
            labelTimestamp = '2020-07-13T23:18:21Z',
            entities       = [{'entityType':'sample_customer', 'entityId':'12345'}],        
)
```

# Dapatkan detail data peristiwa yang disimpan
<a name="get-stored-event-details"></a>

Setelah menyimpan data peristiwa di Amazon Fraud Detector, Anda dapat memeriksa data terbaru yang disimpan untuk suatu peristiwa menggunakan [GetEvent](https://docs.aws.amazon.com//frauddetector/latest/api/API_GetEvent.html)API. Kode contoh berikut memeriksa data terbaru yang disimpan untuk `sample_registration` acara tersebut.

```
import boto3
fraudDetector = boto3.client('frauddetector')

fraudDetector.get_event(
            eventId        = '802454d3-f7d8-482d-97e8-c4b6db9a0428',
            eventTypeName  = 'sample_registration'
)
```

# Lihat metrik kumpulan data peristiwa yang disimpan
<a name="view-stored-event-metrics"></a>

Untuk setiap jenis peristiwa, Anda dapat melihat metrik seperti, jumlah peristiwa yang disimpan, ukuran total peristiwa yang disimpan, dan stempel waktu dari peristiwa tersimpan paling awal dan terbaru, di konsol Amazon Fraud Detector. 

**Untuk melihat metrik peristiwa yang disimpan dari jenis peristiwa,**

1. Buka AWS Konsol dan masuk ke akun Anda. Arahkan ke Amazon Fraud Detector.

1. Di panel navigasi kiri, pilih **Acara**.

1. Pilih jenis acara Anda.

1. Pilih tab **Acara tersimpan**.

1. Panel **detail peristiwa yang disimpan** menampilkan metrik. Metrik ini diperbarui secara otomatis sekali per hari.

1. Secara opsional klik **Segarkan metrik peristiwa untuk memperbarui metrik** Anda secara manual. 
**catatan**  
Jika Anda baru saja mengimpor data Anda, kami sarankan menunggu 5 - 10 menit setelah Anda selesai mengimpor data untuk menyegarkan dan melihat metrik.