

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Manajemen log
<a name="LogManagement"></a>

CloudWatch Log menyediakan kemampuan manajemen log tingkat lanjut yang membantu Anda mengatur, mengubah, dan menganalisis data log Anda dengan lebih efektif. Fitur-fitur ini termasuk [sentralisasi data lintas akun dan lintas wilayah](CloudWatchLogs_Centralization.md), [penemuan data otomatis dan manajemen skema, transformasi log selama konsumsi,](data-source-discovery-management.md) [dan [analitik yang disempurnakan dengan](CloudWatchLogs-Facets.md) aspek](CloudWatch-Logs-Transformation.md) untuk eksplorasi log interaktif.

**Topics**
+ [Penemuan dan manajemen sumber data](data-source-discovery-management.md)
+ [Fitur diaktifkan oleh sumber data](features-enabled-by-data-sources.md)
+ [Didukung Layanan AWS untuk sumber data](supported-aws-services-data-sources.md)
+ [Sumber pihak ketiga yang didukung untuk sumber data](supported-third-party-sources-data-sources.md)

# Penemuan dan manajemen sumber data
<a name="data-source-discovery-management"></a>

CloudWatch Log secara otomatis menemukan dan mengkategorikan data log Anda berdasarkan sumber dan jenis data, sehingga lebih mudah untuk memahami dan mengelola log Anda dalam skala besar. Fitur ini menyediakan penemuan skema untuk sumber yang AWS dijual seperti Amazon VPC Flow Logs,, dan Route 53 CloudTrail, serta alat keamanan pihak ketiga.

Konsol Manajemen Log menyediakan tampilan tingkat tinggi dari log Anda yang diatur berdasarkan sumber dan jenis data, bukan hanya grup log. Organisasi ini membantu Anda:
+ Lihat log yang dikategorikan berdasarkan AWS layanan, sumber pihak ketiga (seperti Okta atau CrowdStrike), dan sumber kustom
+ Memahami skema dan struktur data log Anda secara otomatis
+ Buat kebijakan indeks bidang berdasarkan bidang skema yang ditemukan
+ Kelola log dengan lebih efisien di berbagai sumber data
+ Log kueri oleh sumber data yang berbeda

Saat Anda [mengaktifkan pencatatan CloudWatch Log untuk AWS layanan yang didukung](AWS-logs-and-resource-policy.md), CloudWatch Log secara otomatis menerapkan skema yang sesuai ke log Anda. Aplikasi skema otomatis ini membantu menjaga konsistensi dan memberikan wawasan langsung ke dalam struktur log Anda.

## Apa itu Sumber Data CloudWatch Log?
<a name="what-is-cloudwatch-data-sources"></a>

CloudWatch Sumber Data Log adalah fitur yang menyediakan cara baru untuk mengatur dan mengkategorikan data log Anda berdasarkan sumber yang menghasilkan log. Sementara CloudWatch Log secara tradisional menggunakan grup log untuk mengatur log, Sumber Data menawarkan lapisan organisasi tambahan yang mengelompokkan log berdasarkan layanan asal dan jenis log mereka.

### Bagaimana Sumber Data bekerja
<a name="how-data-sources-work"></a>

Sumber Data menyediakan organisasi log berbasis layanan dan penemuan yang disederhanakan di seluruh infrastruktur Anda AWS . Anda dapat dengan mudah menemukan log dari layanan tertentu dan memfilter berdasarkan jenis log tanpa perlu mengetahui nama atau struktur grup log individu.

Untuk sumber pihak ketiga dan opsional untuk sumber log aplikasi, Sumber Data bekerja dengan CloudWatch pipeline untuk mengkategorikan log Anda. Saat mengonfigurasi pipeline untuk menyerap dan mengubah log, Anda menentukan nama dan jenis sumber data. CloudWatch Log kemudian secara otomatis mengkategorikan semua log yang diproses pipa. Untuk informasi selengkapnya, lihat [CloudWatch saluran pipa](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch-pipelines.html) di *Panduan CloudWatch Pengguna Amazon*.

 Sumber Data mengkategorikan log menggunakan dua pengidentifikasi kunci:
+ **Nama Sumber Data**: AWS Layanan, sumber pihak ketiga, atau aplikasi yang menghasilkan log (misalnya, Route 53, Amazon VPC, Okta SSO CloudTrail, atau Falcon). CrowdStrike 
+ **Jenis Sumber Data**: Jenis log spesifik yang dihasilkan oleh layanan tersebut. 

Skema mendefinisikan struktur data log, termasuk bidang apa yang ada dan bagaimana informasi diatur. Sumber data tunggal dapat menghasilkan beberapa jenis log dengan skema dan tujuan yang berbeda. Misalnya, sumber AWS CloudTrail data memiliki dua jenis: peristiwa manajemen (yang melacak operasi bidang kontrol seperti membuat atau menghapus sumber daya) dan peristiwa data (yang melacak operasi bidang data seperti akses objek S3). Setiap jenis memiliki skema yang berbeda karena mereka menangkap berbagai jenis informasi.

## Cara memulai
<a name="how-to-get-started-data-sources"></a>

CloudWatch Log mengkategorikan log Anda ke sumber data berdasarkan asalnya. Metode ini tergantung pada jenis log yang Anda kerjakan:

### Layanan AWS log
<a name="aws-service-logs"></a>

Log dari Layanan AWS yang [didukung](supported-aws-services-data-sources.md) secara otomatis dikelompokkan berdasarkan sumber data tanpa konfigurasi apa pun yang diperlukan. CloudWatch Log mengenali log ini dan menerapkan nama dan jenis sumber data yang sesuai berdasarkan layanan asal.

### Log pihak ketiga
<a name="third-party-logs"></a>

Log pihak ketiga memerlukan saluran pipa untuk kategorisasi sumber data. Saat mengonfigurasi pipeline untuk menyerap log dari sumber pihak ketiga yang didukung seperti Microsoft Office 365, Okta CrowdStrike, atau Palo Alto Networks, Anda menentukan [nama sumber data dan ketik](supported-third-party-sources-data-sources.md) dalam konfigurasi pipeline. CloudWatch Log secara otomatis mengkategorikan semua log yang diproses pipeline menggunakan pengidentifikasi tersebut. 

Pipelines secara opsional dapat mengubah log pihak ketiga menjadi format Open Cybersecurity Schema Framework (OCSF) untuk analisis peristiwa keamanan standar. Ketika transformasi OCSF diaktifkan, nama dan jenis sumber data secara otomatis ditentukan berdasarkan pemetaan skema OCSF. Tanpa transformasi OCSF, Anda menentukan nama sumber data dan mengetik konfigurasi pipeline.

### Log aplikasi
<a name="application-logs"></a>

Untuk log aplikasi kustom, Anda dapat mengkategorikannya berdasarkan sumber data menggunakan salah satu metode berikut:
+ **Tag grup log** - Tambahkan tag ke grup log Anda menggunakan kunci `cw:datasource:name` dan `cw:datasource:type` untuk menentukan nama dan jenis sumber data masing-masing untuk semua log yang dicerna dalam grup log. Nilai tag dapat mencapai 64 karakter dan mungkin hanya berisi huruf kecil, angka dan garis bawah. Mereka harus mulai dengan huruf atau angka dan mereka mungkin tidak mengandung garis bawah ganda (\$1\$1).
+ **Konfigurasi saluran pipa** - Konfigurasikan informasi sumber data melalui pipeline pemrosesan log saat menelan log aplikasi Anda.

**catatan**  
Nama sumber data tidak dapat dimulai dengan “aws” atau “amazon” untuk menghindari konflik dengan log AWS layanan.

## Bidang sistem
<a name="system-fields"></a>

CloudWatch Log secara otomatis menambahkan tiga bidang sistem ke log yang dikategorikan berdasarkan sumber data. Bidang ini berfungsi sebagai aspek default:
+ `@data_source_name`- Berisi nama sumber data, atau “Tidak Diketahui” jika tidak ditentukan
+ `@data_source_type`- Berisi jenis sumber data, atau “Tidak Diketahui” jika tidak ditentukan
+ `@data_format`- Menunjukkan format data log

Ketika nama atau jenis sumber data tidak dapat ditentukan, bidang ini disetel ke “Tidak Diketahui”. Sumber data dengan nilai “Tidak Diketahui” masih terlihat dalam aspek dan di tabel sumber data di bawah “Manajemen Log” di Konsol, memungkinkan Anda mengidentifikasi log yang tidak dikategorikan dan dari grup log mana mereka berasal.

`@data_format`Bidang dapat berisi salah satu nilai berikut:
+ `Default`- Log tertelan tanpa modifikasi.
+ `Custom`- Log diproses melalui prosesor pipa atau log yang dicerna ke dalam grup log dengan name/type tag sumber data.
+ `OCSF-<version>`- Log diproses dengan prosesor OCSF (Open Cybersecurity Schema Framework) di pipeline.
+ `AWS-OTEL-LOG-V<version>`- OpenTelemetry log dicerna melalui titik akhir CloudWatch OTLP.
+ `AWS-OTEL-TRACE-V<version>`- OpenTelemetry jejak tertelan melalui titik akhir CloudWatch OTLP.

Bidang sistem ini memungkinkan Anda untuk memfilter dan menanyakan log Anda berdasarkan sumber dan formatnya, sehingga lebih mudah untuk bekerja dengan log dari berbagai asal dan saluran pemrosesan.

## Mengakses Sumber Data
<a name="accessing-data-sources"></a>

### Konsol
<a name="console-access"></a>

Di konsol CloudWatch Log, Anda menggunakan tab **Manajemen Log** untuk mengakses sumber data Anda. CloudWatch Log secara otomatis mengkonsolidasikan data log Anda berdasarkan sumber dan tipe data, terus menemukan data yang baru dicerna. Dari daftar sumber data, Anda dapat membuat saluran pipa, menentukan indeks bidang dan aspek.

### AWS CLI
<a name="aws-cli-access"></a>

Gunakan perintah berikut untuk membuat daftar sumber data dan jenis log yang berbeda di akun Anda:

```
aws logs list-aggregate-log-group-summaries --group-by DATA_SOURCE_NAME_AND_TYPE
```

## Hubungan dengan grup log
<a name="relationship-to-log-groups"></a>

Sumber data melengkapi daripada mengganti grup log. Log Anda terus disimpan dalam grup log seperti sebelumnya, tetapi sekarang mereka juga secara otomatis ditandai dengan informasi sumber data. Organisasi ganda ini memungkinkan Anda untuk:
+ Gunakan grup log untuk kebijakan kontrol akses dan penyimpanan berbutir halus
+ Gunakan sumber data untuk penemuan dan analisis log berbasis layanan
+ Log kueri menggunakan salah satu metode organisasi tergantung pada kebutuhan Anda

Sumber data membuatnya lebih mudah untuk bekerja dengan log dalam skala besar dengan memberikan tampilan layanan-sentris dari data log Anda di seluruh infrastruktur Anda. AWS 

# Fitur diaktifkan oleh sumber data
<a name="features-enabled-by-data-sources"></a>

Sumber data memungkinkan pemrosesan log tingkat lanjut dan kemampuan analitik melalui penemuan lapangan dan struktur data yang konsisten.
+ **Aspek: Aspek** adalah bidang log yang diindeks yang menyediakan pemfilteran dan analisis interaktif tanpa menulis kueri. CloudWatch Log secara otomatis membuat aspek untuk nama dan jenis sumber data, dan Anda dapat membuat kebijakan aspek pada bidang yang ditemukan untuk mempercepat pemecahan masalah. Aspek menampilkan distribusi dan penghitungan nilai dalam Wawasan CloudWatch Log, sehingga mudah untuk mengidentifikasi pola melalui eksplorasi. point-and-click
+ **Pipelines**: Buat pipeline transformasi yang berlaku untuk semua log dari nama dan jenis sumber data tertentu. Ini memungkinkan Anda untuk menentukan aturan pemrosesan yang konsisten untuk log dari sumber yang sama.
+ **Penemuan lapangan**: CloudWatch Log secara otomatis menemukan bidang dan tipe datanya untuk setiap nama sumber data dan kombinasi tipe berdasarkan prosesor pipeline. Untuk log AWS terkelola, struktur bidang sudah ditentukan sebelumnya. Untuk log aplikasi, sebaiknya pertahankan format log yang konsisten untuk memaksimalkan kompatibilitas dengan alat analitik seperti tabel Amazon S3 yang memerlukan struktur bidang yang terdefinisi dengan baik.

Anda dapat melihat daftar lengkap bidang dan tipenya untuk sumber data apa pun menggunakan `GetLogFields` API:

```
aws logs get-log-fields --data-source-name <name>  --data-source-type <type>
```

Penemuan dan konsistensi lapangan ini memungkinkan analisis dan integrasi tingkat lanjut, karena alat eksternal dapat bekerja dengan struktur bidang yang dapat diprediksi saat memproses data log Anda.

# Didukung Layanan AWS untuk sumber data
<a name="supported-aws-services-data-sources"></a>

Tabel berikut mencantumkan Layanan AWS yang secara otomatis dikategorikan oleh CloudWatch Log sebagai sumber data:


| Nama Sumber Data (bidang @data\$1source\$1name) | Jenis Sumber Data (bidang @data\$1source\$1type) | 
| --- | --- | 
| amazon\$1api\$1gateway | access | 
| amazon\$1bedrock\$1agentcore | browser\$1usage | 
| amazon\$1bedrock\$1agentcore | code\$1interpreter\$1application | 
| amazon\$1bedrock\$1agentcore | code\$1interpreter\$1usage | 
| amazon\$1bedrock\$1agentcore | gateway\$1application | 
| amazon\$1bedrock\$1agentcore | identity\$1workload\$1application | 
| amazon\$1bedrock\$1agentcore | memory\$1application | 
| amazon\$1bedrock\$1agentcore | online\$1evaluation\$1config | 
| amazon\$1bedrock\$1agentcore | runtime\$1application | 
| amazon\$1bedrock\$1agentcore | runtime\$1usage | 
| amazon\$1bedrock\$1agents | application | 
| amazon\$1bedrock\$1agents | event | 
| amazon\$1bedrock\$1knowledge\$1bases | application | 
| amazon\$1cloudfront | access | 
| amazon\$1cloudfront | connection | 
| amazon\$1cloudwatch | rum\$1app\$1monitor | 
| amazon\$1cognito | user\$1pool | 
| amazon\$1ec2 | verified\$1access | 
| amazon\$1eks | api\$1server | 
| amazon\$1eks | audit | 
| amazon\$1eks | authenticator | 
| amazon\$1eks | controller\$1manager | 
| amazon\$1eks | scheduler | 
| amazon\$1elasticache | cluster | 
| amazon\$1eventbridge | eventbus\$1error | 
| amazon\$1eventbridge | eventbus\$1info | 
| amazon\$1eventbridge | pipes\$1execution | 
| amazon\$1interactive\$1video\$1service | chat | 
| amazon\$1managed\$1prometheus | scraper | 
| amazon\$1managed\$1prometheus | workspace | 
| amazon\$1msk | broker | 
| amazon\$1msk | connect | 
| amazon\$1opensearch\$1service | pipeline | 
| amazon\$1q\$1business | events | 
| amazon\$1q\$1business | sync\$1job | 
| amazon\$1q\$1connect | events | 
| amazon\$1route53 | global\$1resolver\$1query | 
| amazon\$1route53 | hosted\$1zones | 
| amazon\$1route53 | profiles\$1resolver\$1query | 
| amazon\$1route53 | resolver\$1query | 
| amazon\$1sagemaker | workteam\$1activity | 
| amazon\$1ses | ingress\$1endpoints | 
| amazon\$1ses | rule\$1sets | 
| amazon\$1ses | traffic\$1policy | 
| amazon\$1vpc | flow | 
| amazon\$1vpc | route\$1server\$1peer | 
| amazon\$1vpc\$1lattice | access | 
| amazon\$1vpc\$1lattice | resource\$1access | 
| amazon\$1workmail | access\$1control | 
| amazon\$1workmail | authentication | 
| amazon\$1workmail | personal\$1access | 
| amazon\$1workmail | workmail\$1access | 
| amazon\$1workmail | workmail\$1availability | 
| aws\$1b2b\$1data\$1interchange | execution | 
| aws\$1backup | data\$1access | 
| aws\$1backup | hypervisor | 
| aws\$1clean\$1rooms | analysis | 
| aws\$1client\$1vpn | connection | 
| aws\$1client\$1vpn | event | 
| aws\$1cloudtrail | data | 
| aws\$1cloudtrail | management | 
| aws\$1elemental\$1mediapackage | egress\$1access | 
| aws\$1elemental\$1mediapackage | ingress\$1access | 
| aws\$1elemental\$1mediatailor | ad\$1decision | 
| aws\$1elemental\$1mediatailor | manifest | 
| aws\$1elemental\$1mediatailor | transcode | 
| aws\$1entity\$1resolution | id\$1mapping\$1workflow | 
| aws\$1entity\$1resolution | matching\$1workflow | 
| aws\$1iot\$1fleetwise | error | 
| aws\$1mainframe\$1modernization | batch\$1job | 
| aws\$1mainframe\$1modernization | config | 
| aws\$1mainframe\$1modernization | console | 
| aws\$1mainframe\$1modernization | dataset\$1import | 
| aws\$1network\$1firewall | alert | 
| aws\$1network\$1firewall | flow | 
| aws\$1network\$1firewall | tls | 
| aws\$1nlb | access | 
| aws\$1pcs | job\$1completion | 
| aws\$1pcs | scheduler | 
| aws\$1security\$1hub\$1cspm | asff\$1finding | 
| aws\$1shield | protection\$1flow | 
| aws\$1step\$1functions | express | 
| aws\$1step\$1functions | standard | 
| aws\$1transfer\$1family | server | 
| aws\$1waf | access | 

# Sumber pihak ketiga yang didukung untuk sumber data
<a name="supported-third-party-sources-data-sources"></a>

Tabel berikut mencantumkan sumber pihak ketiga yang secara otomatis dikategorikan oleh CloudWatch Log sebagai sumber data saat dicerna melalui saluran pipa:


| Nama Sumber Data (bidang @data\$1source\$1name) | Jenis Sumber Data (bidang @data\$1source\$1type) | 
| --- | --- | 
| crowdstrike\$1falcon | detection\$1finding | 
| crowdstrike\$1falcon | process\$1activity | 
| github\$1auditlogs | account\$1change | 
| github\$1auditlogs | api\$1activity | 
| github\$1auditlogs | entity\$1management | 
| microsoft\$1entraid | account\$1change | 
| microsoft\$1entraid | authentication | 
| microsoft\$1entraid | entity\$1management | 
| microsoft\$1entraid | user\$1access\$1management | 
| microsoft\$1office365 | account\$1change | 
| microsoft\$1office365 | application\$1lifecycle | 
| microsoft\$1office365 | authentication | 
| microsoft\$1office365 | compliance\$1finding | 
| microsoft\$1office365 | detection\$1finding | 
| microsoft\$1office365 | email\$1activity | 
| microsoft\$1office365 | file\$1hosting\$1activity | 
| microsoft\$1office365 | group\$1management | 
| microsoft\$1office365 | incident\$1finding | 
| microsoft\$1office365 | user\$1access\$1management | 
| microsoft\$1office365 | vulnerability\$1finding | 
| microsoft\$1office365 | web\$1resources\$1activity | 
| microsoft\$1windows | account\$1change | 
| microsoft\$1windows | authentication | 
| microsoft\$1windows | entity\$1management | 
| microsoft\$1windows | event\$1log\$1activity | 
| microsoft\$1windows | file\$1system\$1activity | 
| microsoft\$1windows | group\$1management | 
| microsoft\$1windows | kernel\$1activity | 
| okta\$1auth0 | api\$1activity | 
| okta\$1auth0 | authentication | 
| okta\$1sso | api\$1activity | 
| okta\$1sso | authentication | 
| okta\$1sso | detection\$1finding | 
| okta\$1sso | entity\$1management | 
| paloaltonetworks\$1nextgenerationfirewall | authentication | 
| paloaltonetworks\$1nextgenerationfirewall | detection\$1finding | 
| paloaltonetworks\$1nextgenerationfirewall | network\$1activity | 
| paloaltonetworks\$1nextgenerationfirewall | process\$1activity | 
| sentinelone\$1endpointsecurity | dns\$1activity | 
| sentinelone\$1endpointsecurity | file\$1system\$1activity | 
| sentinelone\$1endpointsecurity | http\$1activity | 
| sentinelone\$1endpointsecurity | process\$1activity | 
| servicenow\$1cmdb | api\$1activity | 
| servicenow\$1cmdb | datastore\$1activity | 
| servicenow\$1cmdb | entity\$1management | 
| wiz\$1cnapp | api\$1activity | 
| wiz\$1cnapp | authentication | 
| wiz\$1cnapp | compliance\$1finding | 
| wiz\$1cnapp | detection\$1finding | 
| wiz\$1cnapp | vulnerability\$1finding | 
| zscaler\$1internetaccess | authentication | 
| zscaler\$1internetaccess | dns\$1activity | 
| zscaler\$1internetaccess | http\$1activity | 
| zscaler\$1internetaccess | network\$1activity | 