

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 로그 관리
<a name="LogManagement"></a>

CloudWatch Logs는 로그 데이터를 보다 효과적으로 구성, 변환 및 분석하는 데 도움이 되는 고급 로그 관리 기능을 제공합니다. 이러한 기능에는 [교차 계정 및 교차 리전 데이터 중앙 집중화](CloudWatchLogs_Centralization.md), [자동 데이터 검색 및 스키마 관리,](data-source-discovery-management.md) [수집 중 로그 변환](CloudWatch-Logs-Transformation.md), [대화형 로그 탐색을 위한 패싯을 사용한 향상된 분석이](CloudWatchLogs-Facets.md) 포함됩니다.

**Topics**
+ [데이터 소스 검색 및 관리](data-source-discovery-management.md)
+ [데이터 소스에서 활성화된 기능](features-enabled-by-data-sources.md)
+ [데이터 소스 AWS 서비스 에 대해 지원됨](supported-aws-services-data-sources.md)
+ [데이터 소스에 지원되는 타사 소스](supported-third-party-sources-data-sources.md)

# 데이터 소스 검색 및 관리
<a name="data-source-discovery-management"></a>

CloudWatch Logs는 데이터 소스 및 유형별로 로그 데이터를 자동으로 검색하고 분류하므로 로그를 대규모로 더 쉽게 이해하고 관리할 수 있습니다. 이 기능은 Amazon VPC 흐름 로그, CloudTrail, Route 53과 같은 AWS 판매 소스와 타사 보안 도구에 대한 스키마 검색을 제공합니다.

로그 관리 콘솔은 로그 그룹만 제공하는 것이 아니라 데이터 소스 및 유형별로 구성된 로그를 개괄적으로 보여줍니다. 이 조직은 다음을 지원합니다.
+  AWS 서비스, 타사 소스(예: Okta 또는 CrowdStrike) 및 사용자 지정 소스별로 분류된 로그 보기
+ 로그 데이터의 스키마 및 구조를 자동으로 이해
+ 검색된 스키마 필드를 기반으로 필드 인덱스 정책 생성
+ 다양한 데이터 소스에서 로그를 보다 효율적으로 관리
+ 다양한 데이터 소스별 쿼리 로그

[지원되는 AWS 서비스에 대해 CloudWatch Logs 로깅을 활성화](AWS-logs-and-resource-policy.md)하면 CloudWatch Logs는 로그에 적절한 스키마를 자동으로 적용합니다. 이 자동 스키마 애플리케이션은 일관성을 유지하고 로그 구조에 대한 즉각적인 인사이트를 제공하는 데 도움이 됩니다.

## CloudWatch Logs 데이터 소스란 무엇입니까?
<a name="what-is-cloudwatch-data-sources"></a>

CloudWatch Logs 데이터 소스는 로그를 생성하는 소스를 기반으로 로그 데이터를 구성하고 분류하는 새로운 방법을 제공하는 기능입니다. CloudWatch Logs는 일반적으로 로그 그룹을 사용하여 로그를 구성하지만 데이터 소스는 원래 서비스 및 로그 유형별로 로그를 그룹화하는 추가 조직 계층을 제공합니다.

### 데이터 소스 작동 방식
<a name="how-data-sources-work"></a>

데이터 소스는 AWS 인프라 전반에서 서비스 기반 로그 구성과 간소화된 검색을 제공합니다. 개별 로그 그룹 이름이나 구조를 알 필요 없이 특정 서비스의 로그를 쉽게 찾고 로그 유형별로 필터링할 수 있습니다.

타사 소스 및 선택적으로 애플리케이션 로그 소스의 경우 데이터 소스는 CloudWatch 파이프라인과 함께 작동하여 로그를 분류합니다. 로그를 수집하고 변환하도록 파이프라인을 구성할 때 데이터 소스 이름과 유형을 지정합니다. 그런 다음 CloudWatch Logs는 파이프라인이 처리하는 모든 로그를 자동으로 분류합니다. 자세한 내용은 Amazon [CloudWatch 사용 설명서의 CloudWatch 파이프라인](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch-pipelines.html)을 참조하세요. *Amazon CloudWatch *

 데이터 소스는 두 가지 키 식별자를 사용하여 로그를 분류합니다.
+ **데이터 소스 이름**: 로그를 생성하는 AWS 서비스, 타사 소스 또는 애플리케이션(예: Route 53, Amazon VPC, CloudTrail, Okta SSO 또는 CrowdStrike Falcon).
+ **데이터 소스 유형**: 해당 서비스에서 생성된 특정 유형의 로그입니다.

스키마는 존재하는 필드와 정보 구성 방식을 포함하여 로그 데이터의 구조를 정의합니다. 단일 데이터 소스는 스키마와 용도가 다른 여러 유형의 로그를 생성할 수 있습니다. 예를 들어 AWS CloudTrail 데이터 소스에는 관리 이벤트(리소스 생성 또는 삭제와 같은 컨트롤 플레인 작업 추적)와 데이터 이벤트(S3 객체 액세스와 같은 데이터 영역 작업 추적)의 두 가지 유형이 있습니다. 각 유형은 다양한 종류의 정보를 캡처하기 때문에 스키마가 다릅니다.

## 시작하는 방법
<a name="how-to-get-started-data-sources"></a>

CloudWatch Logs는 로그를 오리진에 따라 데이터 소스로 분류합니다. 메서드는 작업 중인 로그 유형에 따라 다릅니다.

### AWS 서비스 로그
<a name="aws-service-logs"></a>

[지원되는 AWS 서비스](supported-aws-services-data-sources.md)의 로그는 구성 없이 데이터 소스별로 자동으로 그룹화됩니다. CloudWatch Logs는 이러한 로그를 인식하고 원본 서비스에 따라 적절한 데이터 소스 이름 및 유형을 적용합니다.

### 타사 로그
<a name="third-party-logs"></a>

타사 로그에는 데이터 소스 분류를 위한 파이프라인이 필요합니다. Microsoft Office 365, Okta, CrowdStrike 또는 Palo Alto Networks와 같은 지원되는 타사 소스에서 로그를 수집하도록 파이프라인을 구성할 때 파이프라인 구성에 [데이터 소스 이름과 유형을](supported-third-party-sources-data-sources.md) 지정합니다. CloudWatch Logs는 파이프라인이 해당 식별자를 사용하여 처리하는 모든 로그를 자동으로 분류합니다.

파이프라인은 표준화된 보안 이벤트 분석을 위해 선택적으로 타사 로그를 OCSF(Open Cybersecurity Schema Framework) 형식으로 변환할 수 있습니다. OCSF 변환이 활성화되면 OCSF 스키마 매핑에 따라 데이터 소스 이름과 유형이 자동으로 결정됩니다. OCSF 변환이 없으면 파이프라인 구성에서 데이터 소스 이름과 유형을 지정합니다.

### 애플리케이션 로그
<a name="application-logs"></a>

사용자 지정 애플리케이션 로그의 경우 다음 방법 중 하나를 사용하여 데이터 소스별로 분류할 수 있습니다.
+ **로그 그룹 태그** - `cw:datasource:name` 및 키를 사용하여 로그 그룹에 태그를 추가하여 로그 그룹에 수집된 모든 로그에 대한 데이터 소스 이름과 유형을 각각 `cw:datasource:type` 지정합니다. 태그 값은 최대 64자일 수 있으며 소문자, 숫자 및 밑줄만 포함할 수 있습니다. 문자 또는 숫자로 시작해야 하며 이중 밑줄(\$1\$1)을 포함할 수 없습니다.
+ **파이프라인 구성** - 애플리케이션 로그를 수집할 때 로그 처리 파이프라인을 통해 데이터 소스 정보를 구성합니다.

**참고**  
 AWS 서비스 로그와의 충돌을 방지하기 위해 데이터 소스 이름은 "aws" 또는 "amazon"으로 시작할 수 없습니다.

## 시스템 필드
<a name="system-fields"></a>

CloudWatch Logs는 데이터 소스별로 분류된 로그에 시스템 필드 3개를 자동으로 추가합니다. 이러한 필드는 기본 패싯 역할을 합니다.
+ `@data_source_name` - 데이터 소스의 이름을 포함하거나 확인되지 않은 경우 "알 수 없음"
+ `@data_source_type` - 데이터 소스의 유형을 포함하거나 확인되지 않은 경우 "알 수 없음"
+ `@data_format` - 로그 데이터의 형식을 나타냅니다.

데이터 소스 이름 또는 유형을 확인할 수 없는 경우 이러한 필드는 "알 수 없음"으로 설정됩니다. "알 수 없음" 값이 있는 데이터 소스는 여전히 콘솔의 "로그 관리" 아래의 패싯과 데이터 소스 테이블에 표시되므로 분류되지 않은 로그와 로그 그룹의 출처를 식별할 수 있습니다.

`@data_format` 필드에는 다음 값 중 하나가 포함될 수 있습니다.
+ `Default` - 수정 없이 수집된 로그입니다.
+ `Custom` - 파이프라인 프로세서를 통해 처리된 로그 또는 데이터 소스 이름/유형 태그를 사용하여 로그 그룹에 수집된 로그입니다.
+ `OCSF-<version>` - 파이프라인에서 OCSF(Open Cybersecurity Schema Framework) 프로세서로 처리된 로그입니다.
+ `AWS-OTEL-LOG-V<version>` - CloudWatch OTLP 엔드포인트를 통해 수집된 OpenTelemetry 로그입니다.
+ `AWS-OTEL-TRACE-V<version>` - CloudWatch OTLP 엔드포인트를 통해 수집된 OpenTelemetry 트레이스입니다.

이러한 시스템 필드를 사용하면 소스 및 형식을 기반으로 로그를 필터링하고 쿼리할 수 있으므로 다양한 오리진 및 처리 파이프라인의 로그로 더 쉽게 작업할 수 있습니다.

## 데이터 원본 액세스
<a name="accessing-data-sources"></a>

### 콘솔
<a name="console-access"></a>

CloudWatch Logs 콘솔에서 **로그 관리** 탭을 사용하여 데이터 소스에 액세스합니다. CloudWatch Logs는 데이터 소스 및 유형별로 로그 데이터를 자동으로 통합하여 새로 수집된 데이터를 지속적으로 검색합니다. 데이터 소스 목록에서 파이프라인을 생성하고 필드 인덱스와 패싯을 정의할 수 있습니다.

### AWS CLI
<a name="aws-cli-access"></a>

다음 명령을 사용하여 계정의 고유한 데이터 소스 및 로그 유형을 나열합니다.

```
aws logs list-aggregate-log-group-summaries --group-by DATA_SOURCE_NAME_AND_TYPE
```

## 로그 그룹과의 관계
<a name="relationship-to-log-groups"></a>

데이터 소스는 로그 그룹을 대체하는 대신 보완됩니다. 로그는 이전과 같이 로그 그룹에 계속 저장되지만, 이제는 데이터 소스 정보로도 자동으로 태그가 지정됩니다. 이 이중 조직을 사용하면 다음을 수행할 수 있습니다.
+ 세분화된 액세스 제어 및 보존 정책에 로그 그룹 사용
+ 서비스 기반 로그 검색 및 분석에 데이터 소스 사용
+ 필요에 따라 두 조직 방법을 사용하여 로그 쿼리

데이터 소스를 사용하면 AWS 인프라 전반의 로그 데이터에 대한 서비스 중심 보기를 제공하여 대규모 로그 작업을 더 쉽게 수행할 수 있습니다.

# 데이터 소스에서 활성화된 기능
<a name="features-enabled-by-data-sources"></a>

데이터 소스는 필드 검색 및 일관된 데이터 구조를 통해 고급 로그 처리 및 분석 기능을 지원합니다.
+ **패싯**: 패싯은 쿼리를 작성하지 않고도 대화형 필터링 및 분석을 제공하는 인덱싱된 로그 필드입니다. CloudWatch Logs는 데이터 소스 이름 및 유형에 대한 패싯을 자동으로 생성하며, 검색된 필드에 대한 패싯 정책을 생성하여 문제 해결을 가속화할 수 있습니다. 패싯은 CloudWatch Logs Insights에 값 분포와 개수를 표시하므로 point-and-click 탐색을 통해 패턴을 쉽게 식별할 수 있습니다.
+ **파이프라인**: 특정 데이터 소스 이름 및 유형의 모든 로그에 적용되는 변환 파이프라인을 생성합니다. 이를 통해 동일한 소스의 로그에 대한 일관된 처리 규칙을 정의할 수 있습니다.
+ **필드 검색**: CloudWatch Logs는 파이프라인 프로세서를 기반으로 각 데이터 소스 이름 및 유형 조합에 대한 필드와 해당 데이터 유형을 자동으로 검색합니다. AWS 관리형 로그의 경우 필드 구조가 사전 정의되어 있습니다. 애플리케이션 로그의 경우 일관된 로그 형식을 유지하여 잘 정의된 필드 구조가 필요한 Amazon S3 테이블과 같은 분석 도구와의 호환성을 극대화하는 것이 좋습니다.

`GetLogFields` API를 사용하여 모든 데이터 소스의 전체 필드 및 유형 목록을 볼 수 있습니다.

```
aws logs get-log-fields --data-source-name <name>  --data-source-type <type>
```

외부 도구가 로그 데이터를 처리할 때 예측 가능한 필드 구조를 사용할 수 있으므로이 필드 검색 및 일관성을 통해 고급 분석 및 통합이 가능합니다.

# 데이터 소스 AWS 서비스 에 대해 지원됨
<a name="supported-aws-services-data-sources"></a>

다음 표에는 CloudWatch Logs에 의해 데이터 소스로 자동으로 분류 AWS 서비스 되는가 나열되어 있습니다.


| 데이터 소스 이름(@data\$1source\$1name 필드) | 데이터 소스 유형(@data\$1source\$1type 필드) | 
| --- | --- | 
| amazon\$1api\$1gateway | access | 
| amazon\$1bedrock\$1agentcore | browser\$1usage | 
| amazon\$1bedrock\$1agentcore | code\$1interpreter\$1application | 
| amazon\$1bedrock\$1agentcore | code\$1interpreter\$1usage | 
| amazon\$1bedrock\$1agentcore | gateway\$1application | 
| amazon\$1bedrock\$1agentcore | identity\$1workload\$1application | 
| amazon\$1bedrock\$1agentcore | memory\$1application | 
| amazon\$1bedrock\$1agentcore | online\$1evaluation\$1config | 
| amazon\$1bedrock\$1agentcore | runtime\$1application | 
| amazon\$1bedrock\$1agentcore | runtime\$1usage | 
| amazon\$1bedrock\$1agents | application | 
| amazon\$1bedrock\$1agents | event | 
| amazon\$1bedrock\$1knowledge\$1bases | application | 
| amazon\$1cloudfront | access | 
| amazon\$1cloudfront | connection | 
| amazon\$1cloudwatch | rum\$1app\$1monitor | 
| amazon\$1cognito | user\$1pool | 
| amazon\$1ec2 | verified\$1access | 
| amazon\$1eks | api\$1server | 
| amazon\$1eks | audit | 
| amazon\$1eks | authenticator | 
| amazon\$1eks | controller\$1manager | 
| amazon\$1eks | scheduler | 
| amazon\$1elasticache | cluster | 
| amazon\$1eventbridge | eventbus\$1error | 
| amazon\$1eventbridge | eventbus\$1info | 
| amazon\$1eventbridge | pipes\$1execution | 
| amazon\$1interactive\$1video\$1service | chat | 
| amazon\$1managed\$1prometheus | scraper | 
| amazon\$1managed\$1prometheus | workspace | 
| amazon\$1msk | broker | 
| amazon\$1msk | connect | 
| amazon\$1opensearch\$1service | pipeline | 
| amazon\$1q\$1business | events | 
| amazon\$1q\$1business | sync\$1job | 
| amazon\$1q\$1connect | events | 
| amazon\$1route53 | global\$1resolver\$1query | 
| amazon\$1route53 | hosted\$1zones | 
| amazon\$1route53 | profiles\$1resolver\$1query | 
| amazon\$1route53 | resolver\$1query | 
| amazon\$1sagemaker | workteam\$1activity | 
| amazon\$1ses | ingress\$1endpoints | 
| amazon\$1ses | rule\$1sets | 
| amazon\$1ses | traffic\$1policy | 
| amazon\$1vpc | flow | 
| amazon\$1vpc | route\$1server\$1peer | 
| amazon\$1vpc\$1lattice | access | 
| amazon\$1vpc\$1lattice | resource\$1access | 
| amazon\$1workmail | access\$1control | 
| amazon\$1workmail | authentication | 
| amazon\$1workmail | personal\$1access | 
| amazon\$1workmail | workmail\$1access | 
| amazon\$1workmail | workmail\$1availability | 
| aws\$1b2b\$1data\$1interchange | execution | 
| aws\$1backup | data\$1access | 
| aws\$1backup | hypervisor | 
| aws\$1clean\$1rooms | analysis | 
| aws\$1client\$1vpn | connection | 
| aws\$1client\$1vpn | event | 
| aws\$1cloudtrail | data | 
| aws\$1cloudtrail | management | 
| aws\$1elemental\$1mediapackage | egress\$1access | 
| aws\$1elemental\$1mediapackage | ingress\$1access | 
| aws\$1elemental\$1mediatailor | ad\$1decision | 
| aws\$1elemental\$1mediatailor | manifest | 
| aws\$1elemental\$1mediatailor | transcode | 
| aws\$1entity\$1resolution | id\$1mapping\$1workflow | 
| aws\$1entity\$1resolution | matching\$1workflow | 
| aws\$1iot\$1fleetwise | error | 
| aws\$1mainframe\$1modernization | batch\$1job | 
| aws\$1mainframe\$1modernization | config | 
| aws\$1mainframe\$1modernization | console | 
| aws\$1mainframe\$1modernization | dataset\$1import | 
| aws\$1network\$1firewall | alert | 
| aws\$1network\$1firewall | flow | 
| aws\$1network\$1firewall | tls | 
| aws\$1nlb | access | 
| aws\$1pcs | job\$1completion | 
| aws\$1pcs | scheduler | 
| aws\$1security\$1hub\$1cspm | asff\$1finding | 
| aws\$1shield | protection\$1flow | 
| aws\$1step\$1functions | express | 
| aws\$1step\$1functions | standard | 
| aws\$1transfer\$1family | server | 
| aws\$1waf | access | 

# 데이터 소스에 지원되는 타사 소스
<a name="supported-third-party-sources-data-sources"></a>

다음 표에는 파이프라인을 통해 수집할 때 CloudWatch Logs에서 자동으로 데이터 소스로 분류하는 타사 소스가 나열되어 있습니다.


| 데이터 소스 이름(@data\$1source\$1name 필드) | 데이터 소스 유형(@data\$1source\$1type 필드) | 
| --- | --- | 
| crowdstrike\$1falcon | detection\$1finding | 
| crowdstrike\$1falcon | process\$1activity | 
| github\$1auditlogs | account\$1change | 
| github\$1auditlogs | api\$1activity | 
| github\$1auditlogs | entity\$1management | 
| microsoft\$1entraid | account\$1change | 
| microsoft\$1entraid | authentication | 
| microsoft\$1entraid | entity\$1management | 
| microsoft\$1entraid | user\$1access\$1management | 
| microsoft\$1office365 | account\$1change | 
| microsoft\$1office365 | application\$1lifecycle | 
| microsoft\$1office365 | authentication | 
| microsoft\$1office365 | compliance\$1finding | 
| microsoft\$1office365 | detection\$1finding | 
| microsoft\$1office365 | email\$1activity | 
| microsoft\$1office365 | file\$1hosting\$1activity | 
| microsoft\$1office365 | group\$1management | 
| microsoft\$1office365 | incident\$1finding | 
| microsoft\$1office365 | user\$1access\$1management | 
| microsoft\$1office365 | vulnerability\$1finding | 
| microsoft\$1office365 | web\$1resources\$1activity | 
| microsoft\$1windows | account\$1change | 
| microsoft\$1windows | authentication | 
| microsoft\$1windows | entity\$1management | 
| microsoft\$1windows | event\$1log\$1activity | 
| microsoft\$1windows | file\$1system\$1activity | 
| microsoft\$1windows | group\$1management | 
| microsoft\$1windows | kernel\$1activity | 
| okta\$1auth0 | api\$1activity | 
| okta\$1auth0 | authentication | 
| okta\$1sso | api\$1activity | 
| okta\$1sso | authentication | 
| okta\$1sso | detection\$1finding | 
| okta\$1sso | entity\$1management | 
| paloaltonetworks\$1nextgenerationfirewall | authentication | 
| paloaltonetworks\$1nextgenerationfirewall | detection\$1finding | 
| paloaltonetworks\$1nextgenerationfirewall | network\$1activity | 
| paloaltonetworks\$1nextgenerationfirewall | process\$1activity | 
| sentinelone\$1endpointsecurity | dns\$1activity | 
| sentinelone\$1endpointsecurity | file\$1system\$1activity | 
| sentinelone\$1endpointsecurity | http\$1activity | 
| sentinelone\$1endpointsecurity | process\$1activity | 
| servicenow\$1cmdb | api\$1activity | 
| servicenow\$1cmdb | datastore\$1activity | 
| servicenow\$1cmdb | entity\$1management | 
| wiz\$1cnapp | api\$1activity | 
| wiz\$1cnapp | authentication | 
| wiz\$1cnapp | compliance\$1finding | 
| wiz\$1cnapp | detection\$1finding | 
| wiz\$1cnapp | vulnerability\$1finding | 
| zscaler\$1internetaccess | authentication | 
| zscaler\$1internetaccess | dns\$1activity | 
| zscaler\$1internetaccess | http\$1activity | 
| zscaler\$1internetaccess | network\$1activity | 