

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon MSK용 관리형 Prometheus 수집기 설정
<a name="prom-msk-integration"></a>

Amazon Managed Service for Prometheus 수집기를 사용하려면 Amazon Managed Streaming for Apache Kafka 클러스터에서 지표를 검색하고 가져오는 스크레이퍼를 생성해야 합니다. Amazon Elastic Kubernetes Service와 통합되는 스크레이퍼를 생성할 수도 있습니다. 자세한 내용은 [Amazon EKS 통합](https://docs.aws.amazon.com/prometheus/latest/userguide/AMP-collector-how-to.html)을 참조하세요.

## 스크레이퍼 생성
<a name="prom-msk-create-scraper"></a>

Amazon Managed Service for Prometheus 수집기는 Amazon MSK 클러스터에서 지표를 검색하고 수집하는 스크레이퍼로 구성됩니다. Amazon Managed Service for Prometheus가 스크레이퍼를 관리하므로 인스턴스, 에이전트 또는 스크레이퍼를 직접 관리할 필요 없이 필요한 확장성, 보안 및 신뢰성을 제공합니다.

다음 절차에 설명된 AWS CLI 대로 AWS API 또는를 사용하여 스크레이퍼를 생성할 수 있습니다.

나만의 스크레이퍼를 만들기 위한 몇 가지 사전 조건은 다음과 같습니다.
+ Amazon MSK 클러스터가 생성되어 있어야 합니다.
+ Amazon VPC 내의 포트 **11001(JMX Exporter)** 및 **11002(Node Exporter)**에서 인바운드 트래픽을 허용하도록 Amazon MSK 클러스터의 보안 그룹을 구성합니다. 스크레이퍼가 Prometheus 지표를 수집하기 위해 이러한 DNS 레코드에 액세스해야 하기 때문입니다.
+ Amazon MSK 클러스터가 상주하는 Amazon VPC에 [DNS가 활성화](https://docs.aws.amazon.com/vpc/latest/userguide/AmazonDNS-concepts.html)되어 있어야 합니다.

**참고**  
클러스터는 Amazon 리소스 이름(ARN)으로 스크레이퍼와 연결됩니다. 클러스터를 삭제한 다음 이름이 같은 새 클러스터를 생성하면 ARN이 새 클러스터에 재사용됩니다. 이로 인해 스크레이퍼는 새 클러스터에 대한 지표를 수집하려고 시도합니다. 클러스터 삭제와 별도로 [스크레이퍼를 삭제](#prom-msk-delete-scraper)합니다.

------
#### [ To create a scraper using the AWS API ]

`CreateScraper` API 작업을 사용하여 AWS API로 스크레이퍼를 생성합니다. 다음 예제는 미국 동부(버지니아 북부) 리전에 스크레이퍼를 생성합니다. *예제* 콘텐츠를 사용자의 Amazon MSK 클러스터 정보로 대체하고 스크레이퍼 구성을 제공합니다.

**참고**  
대상 클러스터와 일치하도록 보안 그룹 및 서브넷을 구성합니다. 두 개의 가용 영역에 걸쳐 최소 두 개의 서브넷을 포함해야 합니다.

```
                POST /scrapers HTTP/1.1
Content-Length: 415 
Authorization: AUTHPARAMS
X-Amz-Date: 20201201T193725Z
User-Agent: aws-cli/1.18.147 Python/2.7.18 Linux/5.4.58-37.125.amzn2int.x86_64 botocore/1.18.6

{
    "alias": "myScraper",
    "destination":  {
        "ampConfiguration": {
            "workspaceArn": "arn:aws:aps:us-east-1:123456789012:workspace/ws-workspace-id"
        }
    },
    "source": {
        "vpcConfiguration": {
            "securityGroupIds": ["sg-security-group-id"],
            "subnetIds": ["subnet-subnet-id-1", "subnet-subnet-id-2"]
        }
    },
    "scrapeConfiguration": {
        "configurationBlob": base64-encoded-blob
    }
}
```

이 예제에서 `scrapeConfiguration` 파라미터에는 MSK 클러스터의 DNS 레코드를 지정하는 base64로 인코딩된 Prometheus 구성 YAML 파일이 필요합니다.

각 DNS 레코드는 특정 가용 영역 내의 브로커 엔드포인트를 나타내며, 클라이언트는 선택한 AZ에 분산 배치된 브로커에 연결하여 고가용성을 확보할 수 있습니다.

MSK 클러스터 속성의 DNS 레코드 수는 클러스터 구성의 브로커 노드 및 가용 영역 수에 해당합니다.
+ **기본 구성** - 3개 AZ에 걸쳐 있는 3개의 브로커 노드 = 3개의 DNS 레코드
+ **사용자 지정 구성** - 2개 AZ에 걸쳐 있는 2개의 브로커 노드 = 2개의 DNS 레코드

MSK 클러스터의 DNS 레코드를 확인하려면 MSK 콘솔([https://console.aws.amazon.com/msk/home?region=us-east-1\$1/home/](https://console.aws.amazon.com/msk/home?region=us-east-1#/home/))을 엽니다. MSK 클러스터로 이동합니다. **속성**, **브로커**, **엔드포인트**를 차례로 선택합니다.

Prometheus가 MSK 클러스터에서 지표를 수집하도록 구성하는 방법에는 두 가지 옵션이 있습니다.

1. **클러스터 수준 DNS 확인(권장)** - 클러스터의 기본 DNS 이름을 사용하여 모든 브로커를 자동으로 검색합니다. 브로커 엔드포인트가 `b-1.clusterName.xxx.xxx.xxx`인 경우 `clusterName.xxx.xxx.xxx`를 DNS 레코드로 사용합니다. 이렇게 하면 Prometheus가 클러스터 내의 모든 브로커를 자동으로 스크래핑할 수 있습니다.

   **개별 브로커 엔드포인트** - 세분화된 제어를 사용하려면 각 브로커 엔드포인트를 개별적으로 지정합니다. 구성에서 전체 브로커 식별자(b-1, b-2)를 사용합니다. 예제:

   ```
   dns_sd_configs:
     - names:
       - b-1.clusterName.xxx.xxx.xxx
       - b-2.clusterName.xxx.xxx.xxx  
       - b-3.clusterName.xxx.xxx.xxx
   ```

**참고**  
`clusterName.xxx.xxx.xxx`를 AWS 콘솔의 실제 MSK 클러스터 엔드포인트로 바꿉니다.

자세한 내용은 Prometheus 설명서에서 [<dns\$1sd\$1config>](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#dns_sd_config)를 참조하세요**.

다음은 스크레이퍼 구성 파일의 예입니다.

```
global:
  scrape_interval: 30s
  external_labels:
    clusterArn: msk-test-1

scrape_configs:
  - job_name: msk-jmx
    scheme: http
    metrics_path: /metrics
    scrape_timeout: 10s
    dns_sd_configs:
      - names:
          - dns-record-1
          - dns-record-2
          - dns-record-3
        type: A
        port: 11001
    relabel_configs:
      - source_labels: [__meta_dns_name]
        target_label: broker_dns
      - source_labels: [__address__]
        target_label: instance
        regex: '(.*)'
        replacement: '${1}'

  - job_name: msk-node
    scheme: http
    metrics_path: /metrics
    scrape_timeout: 10s
    dns_sd_configs:
      - names:
          - dns-record-1
          - dns-record-2
          - dns-record-3
        type: A
        port: 11002
    relabel_configs:
      - source_labels: [__meta_dns_name]
        target_label: broker_dns
      - source_labels: [__address__]
        target_label: instance
        regex: '(.*)'
        replacement: '${1}'
```

다음 명령 중 하나를 실행하여 YAML 파일을 base64로 변환합니다. 온라인 base64 변환기를 사용하여 파일을 변환할 수도 있습니다.

**Example Linux/macOS**  

```
echo -n scraper config updated with dns records | base64 
```

**Example Windows PowerShell**  

```
[Convert]::ToBase64String([System.Text.Encoding]::UTF8.GetBytes(scraper config updated with dns records))
```

------
#### [ To create a scraper using the AWS CLI ]

 AWS Command Line Interface에서 `create-scraper` 명령을 사용하여 스크레이퍼를 생성합니다. 다음 예제는 미국 동부(버지니아 북부) 리전에 스크레이퍼를 생성합니다. *예제* 콘텐츠를 사용자의 Amazon MSK 클러스터 정보로 대체하고 스크레이퍼 구성을 제공합니다.

**참고**  
대상 클러스터와 일치하도록 보안 그룹 및 서브넷을 구성합니다. 두 개의 가용 영역에 걸쳐 최소 두 개의 서브넷을 포함해야 합니다.

```
aws amp create-scraper \
 --source vpcConfiguration="{securityGroupIds=['sg-security-group-id'],subnetIds=['subnet-subnet-id-1', 'subnet-subnet-id-2']}" \ 
--scrape-configuration configurationBlob=base64-encoded-blob \
 --destination ampConfiguration="{workspaceArn='arn:aws:aps:us-west-2:123456789012:workspace/ws-workspace-id'}"
```

------
+ 다음은 AWS API와 함께 사용할 수 있는 스크레이퍼 작업의 전체 목록입니다.

  [CreateScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_CreateScraper.html) API 작업으로 스크레이퍼를 생성합니다.
+ [ListScrapers](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_ListScrapers.html) API 작업으로 기존 스크레이퍼를 나열합니다.
+ [UpdateScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_UpdateScraper.html) API 작업으로 스크레이퍼의 별칭, 구성 또는 대상을 업데이트합니다.
+ [DeleteScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DeleteScraper.html) API 작업으로 스크레이퍼를 삭제합니다.
+ [DescribeScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DescribeScraper.html) API 작업으로 스크레이퍼에 대한 자세한 내용을 확인합니다.

## 교차 계정 설정
<a name="prom-msk-cross-account"></a>

지표를 수집하려는 Amazon MSK 클러스터가 Amazon Managed Service for Prometheus 수집기와 다른 계정에 있는 경우 교차 계정 설정에서 스크레이퍼를 생성하려면 아래 절차를 따릅니다.

예를 들어 Amazon MSK가 있는 첫 번째 소스 계정 `account_id_source`와 Amazon Managed Service for Prometheus 워크스페이스가 있는 두 번째 대상 계정 `account_id_target`과 같이 두 계정이 있는 경우를 가정합니다.

**교차 계정 설정에서 스크레이퍼를 생성하려면**

1. 소스 계정에서 `arn:aws:iam::111122223333:role/Source` 역할을 생성하고 다음 신뢰 정책을 추가합니다.

   ```
   {
       "Effect": "Allow",
       "Principal": {
       "Service": [
           "scraper.aps.amazonaws.com"
        ]
       },
       "Action": "sts:AssumeRole",
       "Condition": {
           "ArnEquals": {
               "aws:SourceArn": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id"
           },
           "StringEquals": {
               "AWS:SourceAccount": "111122223333"
           }
       }
   }
   ```

1. 소스(Amazon MSK 클러스터)와 대상(Amazon Managed Service for Prometheus 워크스페이스)의 모든 조합마다 `arn:aws:iam::444455556666:role/Target` 역할을 생성하고 다음 신뢰 정책을 추가하여 [AmazonPrometheusRemoteWriteAccess](https://docs.aws.amazon.com/prometheus/latest/userguide/security-iam-awsmanpol.html) 권한을 부여해야 합니다.

   ```
   {
     "Effect": "Allow",
     "Principal": {
        "AWS": "arn:aws:iam::111122223333:role/Source"
     },
     "Action": "sts:AssumeRole",
     "Condition": {
        "StringEquals": {
           "sts:ExternalId": "arn:aws:aps:aws-region:111122223333:scraper/scraper-id"
         }
     }
   }
   ```

1. `--role-configuration` 옵션을 사용하여 스크레이퍼를 생성합니다.

   ```
   aws amp create-scraper \ --source vpcConfiguration="{subnetIds=[subnet-subnet-id], "securityGroupIds": ["sg-security-group-id"]}" \ --scrape-configuration configurationBlob=<base64-encoded-blob> \ --destination ampConfiguration="{workspaceArn='arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'}"\ --role-configuration '{"sourceRoleArn":"arn:aws:iam::111122223333:role/Source", "targetRoleArn":"arn:aws:iam::444455556666:role/Target"}'
   ```

1. 스크레이퍼 생성을 검증합니다.

   ```
   aws amp list-scrapers
   {
       "scrapers": [
           {
               "scraperId": "s-example123456789abcdef0",
               "arn": "arn:aws:aps:aws-region:111122223333:scraper/s-example123456789abcdef0": "arn:aws:iam::111122223333:role/Source",
               "status": "ACTIVE",
               "creationTime": "2025-10-27T18:45:00.000Z",
               "lastModificationTime": "2025-10-27T18:50:00.000Z",
               "tags": {},
               "statusReason": "Scraper is running successfully",
               "source": {
                   "vpcConfiguration": {
                       "subnetIds": ["subnet-subnet-id"],
                       "securityGroupIds": ["sg-security-group-id"]
                   }
               },
               "destination": {
                   "ampConfiguration": {
                       "workspaceArn": "arn:aws:aps:aws-region:444455556666:workspace/ws-workspace-id'"
                   }
               },
               "scrapeConfiguration": {
                   "configurationBlob": "<base64-encoded-blob>"
               }
           }
       ]
   }
   ```

## RoleConfiguration 및 서비스 연결 역할 간 변경
<a name="prom-msk-changing-roles"></a>

Amazon Managed Service for Prometheus 워크스페이스에 쓰기 위해 `RoleConfiguration` 대신 서비스 연결 역할로 다시 전환하려면 `UpdateScraper`를 업데이트하고 스크레이퍼와 동일한 계정에 `RoleConfiguration` 없이 워크스페이스를 제공해야 합니다. 스크레이퍼에서 `RoleConfiguration`이 제거되고 서비스 연결 역할이 사용됩니다.

스크레이퍼와 동일한 계정에서 워크스페이스를 변경할 때 `RoleConfiguration`을 계속 사용하려면 `UpdateScraper`에 `RoleConfiguration`을 다시 제공해야 합니다.

## 스크레이퍼 찾기 및 삭제
<a name="prom-msk-delete-scraper"></a>

 AWS API 또는 AWS CLI 를 사용하여 계정의 스크레이퍼를 나열하거나 삭제할 수 있습니다.

**참고**  
최신 버전의 AWS CLI 또는 SDK를 사용하고 있는지 확인합니다. 최신 버전은 최신 특징과 기능 및 보안 업데이트도 제공합니다. 또는 항상 최신 명령줄 환경을 자동으로 제공하는 [AWS CloudShell](https://docs.aws.amazon.com/cloudshell/latest/userguide/welcome.html)을 사용합니다.

계정의 모든 스크레이퍼를 나열하려면 [ListScrapers](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_ListScrapers.html) API 작업을 사용합니다.

또는를 사용하여 다음을 AWS CLI호출합니다.

```
aws amp list-scrapers
```

`ListScrapers`가 계정의 모든 스크레이퍼를 반환합니다. 예를 들면 다음과 같습니다.

```
{
    "scrapers": [
        {
            "scraperId": "s-1234abcd-56ef-7890-abcd-1234ef567890",
            "arn": "arn:aws:aps:aws-region:123456789012:scraper/s-1234abcd-56ef-7890-abcd-1234ef567890",
            "roleArn": "arn:aws:iam::123456789012:role/aws-service-role/AWSServiceRoleForAmazonPrometheusScraper_1234abcd-2931",
            "status": {
                "statusCode": "DELETING"
            },
            "createdAt": "2023-10-12T15:22:19.014000-07:00",
            "lastModifiedAt": "2023-10-12T15:55:43.487000-07:00",
            "tags": {},
            "source": {
                "vpcConfiguration": {
                   "securityGroupIds": [
                        "sg-1234abcd5678ef90"
                    ],
                    "subnetIds": [
                        "subnet-abcd1234ef567890", 
                        "subnet-1234abcd5678ab90"
                    ]
                }
            },
            "destination": {
                "ampConfiguration": {
                    "workspaceArn": "arn:aws:aps:aws-region:123456789012:workspace/ws-1234abcd-5678-ef90-ab12-cdef3456a78"
                }
            }
        }
    ]
}
```

스크레이퍼를 삭제하려면 `ListScrapers` 작업을 사용하여 삭제하려는 스크레이퍼의 `scraperId`를 찾은 다음 [DeleteScraper](https://docs.aws.amazon.com/prometheus/latest/APIReference/API_DeleteScraper.html) 작업을 사용하여 삭제합니다.

또는를 사용하여 다음을 AWS CLI호출합니다.

```
aws amp delete-scraper --scraper-id scraperId
```

## Amazon MSK에서 수집된 지표
<a name="prom-msk-metrics"></a>

Amazon MSK와 통합하면 Amazon Managed Service for Prometheus 수집기가 자동으로 다음 지표를 스크래핑합니다.

### 지표: jmx\$1exporter 및 pod\$1exporter 작업
<a name="broker-metrics"></a>


| 지표 | 설명/목적 | 
| --- | --- | 
|  jmx\$1config\$1reload\$1failure\$1total  |  JMX Exporter가 구성 파일을 다시 로드하지 못한 총 횟수입니다.  | 
|  jmx\$1scrape\$1duration\$1seconds  |  현재 수집 주기 동안 JMX 지표를 스크래핑하는 데 걸린 시간(초)입니다.  | 
|  jmx\$1scrape\$1error  |  JMX 지표 스크래핑 중에 오류가 발생했는지 여부를 나타냅니다(1 = 오류, 0 = 성공).  | 
|  java\$1lang\$1Memory\$1HeapMemoryUsage\$1used  |  JVM에 현재 사용된 힙 메모리의 양(바이트)입니다.  | 
|  java\$1lang\$1Memory\$1HeapMemoryUsage\$1max  |  메모리 관리에 사용할 수 있는 최대 힙 메모리 양(바이트)입니다.  | 
|  java\$1lang\$1Memory\$1NonHeapMemoryUsage\$1used  |  JVM에 현재 사용된 힙 이외 메모리의 양(바이트)입니다.  | 
|  kafka\$1cluster\$1Partition\$1Value  |  Kafka 클러스터 파티션과 관련된 현재 상태 또는 값을 파티션 ID 및 주제별로 분류하여 표시합니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1assigned\$1partitions  |  현재 이 소비자에게 할당된 파티션 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1commit\$1latency\$1avg  |  오프셋을 커밋하는 데 걸린 평균 시간입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1commit\$1rate  |  초당 오프셋 커밋 횟수입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1failed\$1rebalance\$1total  |  소비자 그룹 재조정 실패 총 횟수입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1last\$1heartbeat\$1seconds\$1ago  |  코디네이터에 마지막으로 하트비트가 전송된 이후 경과된 시간(초)입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1rebalance\$1latency\$1avg  |  소비자 그룹 재조정에 걸린 평균 시간(밀리초)입니다.  | 
|  kafka\$1consumer\$1consumer\$1coordinator\$1metrics\$1rebalance\$1total  |  소비자 그룹 재조정 총 횟수입니다.  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1bytes\$1consumed\$1rate  |  소비자가 초당 소비하는 평균 바이트 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1fetch\$1latency\$1avg  |  가져오기 요청에 걸린 평균 시간(밀리초)입니다.  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1fetch\$1rate  |  초당 가져오기 요청 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1records\$1consumed\$1rate  |  초당 소비된 평균 레코드 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1fetch\$1manager\$1metrics\$1records\$1lag\$1max  |  해당 소비자 내 모든 파티션에서 레코드 수 기준으로 발생하는 최대 지연 시간입니다.  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1connection\$1count  |  현재 활성 연결 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1incoming\$1byte\$1rate  |  모든 서버에서 초당 수신된 평균 바이트 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1last\$1poll\$1seconds\$1ago  |  마지막 소비자 poll() 호출 이후 경과된 시간(초)입니다.  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1request\$1rate  |  초당 전송된 요청 수입니다.  | 
|  kafka\$1consumer\$1consumer\$1metrics\$1response\$1rate  |  초당 수신된 응답 수입니다.  | 
|  kafka\$1consumer\$1group\$1ConsumerLagMetrics\$1Value  |  소비자 그룹의 현재 소비자 지연 값으로, 소비자가 얼마나 뒤처져 있는지를 나타냅니다.  | 
|  kafka\$1controller\$1KafkaController\$1Value  |  Kafka 컨트롤러의 현재 상태 또는 값입니다(1 = 활성 컨트롤러, 0 = 비활성).  | 
|  kafka\$1controller\$1ControllerEventManager\$1Count  |  처리된 총 컨트롤러 이벤트 수입니다.  | 
|  kafka\$1controller\$1ControllerEventManager\$1Mean  |  컨트롤러 이벤트를 처리하는 데 걸린 평균 시간입니다.  | 
|  kafka\$1controller\$1ControllerStats\$1MeanRate  |  컨트롤러 통계 작업의 초당 평균 처리 속도입니다.  | 
|  kafka\$1coordinator\$1group\$1GroupMetadataManager\$1Value  |  소비자 그룹에 대한 그룹 메타데이터 관리자의 현재 상태 또는 값입니다.  | 
|  kafka\$1log\$1LogFlushStats\$1Count  |  로그 플러시 작업의 총 횟수입니다.  | 
|  kafka\$1log\$1LogFlushStats\$1Mean  |  로그 플러시 작업에 걸린 평균 시간입니다.  | 
|  kafka\$1log\$1LogFlushStats\$1MeanRate  |  로그 플러시 작업의 초당 평균 속도입니다.  | 
|  kafka\$1network\$1RequestMetrics\$1Count  |  처리된 총 네트워크 요청 수입니다.  | 
|  kafka\$1network\$1RequestMetrics\$1Mean  |  네트워크 요청을 처리하는 데 걸린 평균 시간입니다.  | 
|  kafka\$1network\$1RequestMetrics\$1MeanRate  |  네트워크 요청의 초당 평균 속도입니다.  | 
|  kafka\$1network\$1Acceptor\$1MeanRate  |  수락된 연결의 초당 평균 속도입니다.  | 
|  kafka\$1server\$1Fetch\$1queue\$1size  |  가져오기 요청 대기열의 현재 크기입니다.  | 
|  kafka\$1server\$1Produce\$1queue\$1size  |  생산 요청 대기열의 현재 크기입니다.  | 
|  kafka\$1server\$1Request\$1queue\$1size  |  일반 요청 대기열의 현재 크기입니다.  | 
|  kafka\$1server\$1BrokerTopicMetrics\$1Count  |  브로커 주제 작업(수신/송신 메시지, 수신/송신 바이트)의 총 개수입니다.  | 
|  kafka\$1server\$1BrokerTopicMetrics\$1MeanRate  |  브로커 주제 작업의 초당 평균 속도입니다.  | 
|  kafka\$1server\$1BrokerTopicMetrics\$1OneMinuteRate  |  브로커 주제 작업의 1분 이동 평균 속도입니다.  | 
|  kafka\$1server\$1DelayedOperationPurgatory\$1Value  |  퍼거토리에 있는 지연된 작업(완료 대기 중)의 현재 개수입니다.  | 
|  kafka\$1server\$1DelayedFetchMetrics\$1MeanRate  |  지연된 가져오기 작업의 초당 평균 속도입니다.  | 
|  kafka\$1server\$1FetcherLagMetrics\$1Value  |  복제본 페쳐 스레드에 대한 현재 지연 값입니다(리더보다 얼마나 뒤처져 있는지를 나타냄).  | 
|  kafka\$1server\$1FetcherStats\$1MeanRate  |  페처 작업의 초당 평균 속도입니다.  | 
|  kafka\$1server\$1ReplicaManager\$1Value  |  복제본 관리자의 현재 상태 또는 값입니다.  | 
|  kafka\$1server\$1ReplicaManager\$1MeanRate  |  복제본 관리자 작업의 초당 평균 속도입니다.  | 
|  kafka\$1server\$1LeaderReplication\$1byte\$1rate  |  이 브로커가 리더인 파티션에 대한 초당 복제 속도(바이트)입니다.  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1group\$1completed\$1rebalance\$1count  |  소비자 그룹 재조정 완료 총 횟수입니다.  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1offset\$1commit\$1count  |  총 오프셋 커밋 작업 수입니다.  | 
|  kafka\$1server\$1group\$1coordinator\$1metrics\$1offset\$1commit\$1rate  |  오프셋 커밋 작업의 초당 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1count  |  현재 활성 연결 수입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1creation\$1rate  |  새 연결 생성 작업의 초당 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1connection\$1close\$1rate  |  초당 연결 종료 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1failed\$1authentication\$1total  |  총 인증 시도 실패 횟수입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1incoming\$1byte\$1rate  |  초당 수신 바이트 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1outgoing\$1byte\$1rate  |  초당 발신 바이트 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1request\$1rate  |  초당 요청 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1response\$1rate  |  초당 응답 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1network\$1io\$1rate  |  네트워크 I/O 작업의 초당 속도입니다.  | 
|  kafka\$1server\$1socket\$1server\$1metrics\$1io\$1ratio  |  I/O 작업에 소요된 시간 비율입니다.  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1connection\$1count  |  컨트롤러 채널의 현재 활성 연결 수입니다.  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1incoming\$1byte\$1rate  |  컨트롤러 채널의 초당 수신 바이트 속도입니다.  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1outgoing\$1byte\$1rate  |  컨트롤러 채널의 초당 발신 바이트 속도입니다.  | 
|  kafka\$1server\$1controller\$1channel\$1metrics\$1request\$1rate  |  컨트롤러 채널의 초당 요청 속도입니다.  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1connection\$1count  |  복제본 가져오기에 대한 현재 활성 연결 수입니다.  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1incoming\$1byte\$1rate  |  복제본 가져오기에 대한 초당 수신 바이트 속도입니다.  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1request\$1rate  |  복제본 가져오기에 대한 초당 요청 속도입니다.  | 
|  kafka\$1server\$1replica\$1fetcher\$1metrics\$1failed\$1authentication\$1total  |  복제본 가져오기에 대한 총 인증 시도 실패 횟수입니다.  | 
|  kafka\$1server\$1ZooKeeperClientMetrics\$1Count  |  ZooKeeper 클라이언트 작업의 총 개수입니다.  | 
|  kafka\$1server\$1ZooKeeperClientMetrics\$1Mean  |  ZooKeeper 클라이언트 작업의 평균 지연 시간입니다.  | 
|  kafka\$1server\$1KafkaServer\$1Value  |  Kafka 서버의 현재 상태 또는 값입니다(일반적으로 서버가 실행 중임을 나타냄).  | 
|  node\$1cpu\$1seconds\$1total  |  각 모드(사용자, 시스템, 유휴 등)에서 CPU가 소모한 총 시간(초)을 CPU 및 모드별로 분류하여 표시합니다.  | 
|  node\$1disk\$1read\$1bytes\$1total  |  디스크에서 성공적으로 읽은 총 바이트 수를 디바이스별로 구분하여 표시합니다.  | 
|  node\$1disk\$1reads\$1completed\$1total  |  디스크에 대해 성공적으로 완료된 총 읽기 횟수를 디바이스별로 분류하여 표시합니다.  | 
|  node\$1disk\$1writes\$1completed\$1total  |  디스크에 대해 성공적으로 완료된 총 쓰기 횟수를 디바이스별로 분류하여 표시합니다.  | 
|  node\$1disk\$1written\$1bytes\$1total  |  디스크에 성공적으로 기록된 총 바이트 수를 디바이스별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1avail\$1바이트  |  루트 사용자가 아닌 사용자에게 사용 가능한 파일 시스템 공간(바이트)을 디바이스 및 탑재 지점별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1size\$1bytes  |  파일 시스템의 총 크기(바이트)를 디바이스 및 탑재 지점별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1free\$1바이트  |  사용 가능한 파일 시스템 공간(바이트)을 디바이스 및 탑재 지점별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1files  |  파일 시스템의 총 파일 노드(inode) 수를 디바이스 및 탑재 지점별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1files\$1free  |  파일 시스템의 사용 가능한 파일 노드(inode) 수를 디바이스 및 탑재 지점별로 분류하여 표시합니다.  | 
|  node\$1filesystem\$1readonly  |  파일 시스템이 읽기 전용으로 마운트되었는지 여부를 나타냅니다(1 = 읽기 전용, 0 = 읽기-쓰기).  | 
|  node\$1filesystem\$1device\$1error  |  파일 시스템 통계를 가져오는 동안 오류가 발생했는지 여부를 나타냅니다(1 = 오류, 0 = 성공).  | 

## 제한 사항
<a name="prom-msk-limitations"></a>

현재 Amazon MSK와 Amazon Managed Service for Prometheus 간의 통합에는 다음과 같은 제한 사항이 적용됩니다:
+ Amazon MSK 프로비저닝 클러스터에서만 지원됩니다(Amazon MSK Serverless에서는 사용할 수 없음).
+ KRaft 메타데이터 모드와 함께 퍼블릭 액세스가 활성화된 Amazon MSK 클러스터에서는 지원되지 않습니다.
+ Amazon MSK Express 브로커에서는 지원되지 않습니다.
+ 현재 Amazon MSK 클러스터와 Amazon Managed Service for Prometheus 수집기/워크스페이스 간의 1:1 매핑을 지원합니다.