

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Serverlose EMR-Überwachung
<a name="metrics"></a>

In diesem Abschnitt wird beschrieben, wie Sie Ihre Amazon EMR Serverless-Anwendungen und -Jobs überwachen können.

**Topics**
+ [Überwachung von serverlosen EMR-Anwendungen und -Jobs](app-job-metrics.md)
+ [Überwachen Sie Spark-Metriken mit Amazon Managed Service für Prometheus](monitor-with-prometheus.md)
+ [Metriken zur serverlosen Nutzung von EMR](monitoring-usage.md)

# Überwachung von serverlosen EMR-Anwendungen und -Jobs
<a name="app-job-metrics"></a>

Mit Amazon CloudWatch Metrics for EMR Serverless können Sie CloudWatch Metriken von einer Minute erhalten und auf CloudWatch Dashboards zugreifen, um auf den near-real-time Betrieb und die Leistung Ihrer EMR Serverless-Anwendungen zuzugreifen.

EMR Serverless sendet Metriken an CloudWatch jede Minute. EMR Serverless gibt diese Metriken auf Anwendungsebene sowie auf Job-, Worker-Typ- und Arbeitsebene aus. capacity-allocation-type

Verwenden Sie zunächst die EMR Serverless CloudWatch Dashboard-Vorlage, die im EMR [ GitHub Serverless-Repository bereitgestellt wird, und stellen](https://github.com/aws-samples/emr-serverless-samples/tree/main/cloudformation/emr-serverless-cloudwatch-dashboard/) Sie sie bereit.

**Anmerkung**  
Bei [serverlosen interaktiven EMR-Workloads](interactive-workloads.md) ist nur die Überwachung auf Anwendungsebene aktiviert und sie verfügen über eine neue Worker-Typ-Dimension. `Spark_Kernel` Um Ihre interaktiven Workloads zu überwachen und zu debuggen, greifen Sie von [Ihrem EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-debug.html#emr-studio-debug-serverless) Studio Workspace aus auf die Protokolle und die Apache Spark-Benutzeroberfläche zu.

## Überwachung von Kennzahlen
<a name="app-job-metrics-versions"></a>

**Wichtig**  
Wir strukturieren die Anzeige unserer Kennzahlen neu, um Dimensionen hinzuzufügen `ApplicationName` und `JobName` sie als Dimensionen hinzuzufügen. Für Version 7.10 und höher werden die älteren Metriken nicht mehr aktualisiert. Für EMR-Versionen unter 7.10 sind die älteren Metriken weiterhin verfügbar.

**Aktuelle Abmessungen**

In der folgenden Tabelle werden die im Namespace verfügbaren EMR-Serverless-Dimensionen beschrieben. `AWS/EMR Serverless`


**Dimensionen für EMR Serverless-Metriken**  

| Dimension | Description | 
| --- | --- | 
| ApplicationId | Filtert nach allen Metriken einer serverlosen EMR-Anwendung unter Verwendung der Anwendungs-ID. | 
| ApplicationName | Filtert nach allen Metriken einer serverlosen EMR-Anwendung, die den Namen verwenden. **Wenn der Name nicht angegeben wird oder Nicht-ASCII-Zeichen enthält, wird er als [Unspecified] veröffentlicht.** | 
| JobId | Filtert nach allen Metriken eines EMR Serverless die Job-Run-ID. | 
| JobName | Filtert nach allen Metriken eines EMR Serverless-Jobs, der unter Verwendung des Namens ausgeführt wird. **Wenn der Name nicht angegeben wird oder Nicht-ASCII-Zeichen enthält, wird er als [Unspecified] veröffentlicht.** | 
| WorkerType | Filtert nach allen Metriken eines bestimmten Arbeitertyps. Sie können beispielsweise nach `SPARK_DRIVER` und `SPARK_EXECUTORS` nach Spark-Jobs filtern. | 
| CapacityAllocationType | Filtert nach allen Metriken eines bestimmten Kapazitätszuweisungstyps. Sie können beispielsweise nach `PreInitCapacity` vorinitialisierter Kapazität und `OnDemandCapacity` nach allem anderen filtern. | 

## Überwachung auf Anwendungsebene
<a name="app-level-metrics"></a>

Sie können die Kapazitätsnutzung auf Ebene der EMR-Serverless-Anwendung mit CloudWatch Amazon-Metriken überwachen. Sie können auch eine einzige Anzeige zur Überwachung der Anwendungskapazitätsnutzung in einem CloudWatch Dashboard einrichten.


**Metriken für serverlose EMR-Anwendungen**  

| Metrik | Description | Einheit | Dimension | 
| --- | --- | --- | --- | 
| MaxCPUAllowed |  Die maximal zulässige CPU-Anzahl für die Anwendung.  | vCPU | ApplicationId, ApplicationName | 
| MaxMemoryAllowed |  Der maximal zulässige Arbeitsspeicher in GB für die Anwendung.  | Gigabyte (GB) | ApplicationId, ApplicationName | 
| MaxStorageAllowed |  Der maximal zulässige Speicherplatz in GB für die Anwendung.  | Gigabyte (GB) | ApplicationId, ApplicationName | 
| CPUAllocated |  Die Gesamtzahl der zugewiesenen V. CPUs   | vCPU | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| IdleWorkerCount |  Die Gesamtzahl der untätigen Arbeitnehmer.  | Anzahl | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| MemoryAllocated |  Der gesamte zugewiesene Speicher in GB.  | Gigabyte (GB) | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| PendingCreationWorkerCount |  Die Gesamtzahl der Mitarbeiter, deren Erstellung noch aussteht.  | Anzahl | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| RunningWorkerCount |  Die Gesamtzahl der Mitarbeiter, die von der Anwendung verwendet werden.  | Anzahl | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| StorageAllocated |  Der gesamte zugewiesene Festplattenspeicher in GB.  | Gigabyte (GB) | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 
| TotalWorkerCount |  Die Anzahl der insgesamt verfügbaren Arbeitskräfte.  | Anzahl | ApplicationId, ApplicationName, WorkerType, CapacityAllocationType | 

## Überwachung auf Arbeitsebene
<a name="job-level-metrics"></a>

Amazon EMR Serverless sendet jede Minute die folgenden Metriken auf Amazon CloudWatch Auftragsebene. Sie können auf die Metrikwerte für aggregierte Auftragsausführungen nach Status der Auftragsausführung zugreifen. Die Einheit für jede der Metriken ist *Anzahl*.


**EMR Serverless Metriken auf Jobebene**  

| Metrik | Description | Dimension | 
| --- | --- | --- | 
| SubmittedJobs | Die Anzahl der Jobs mit dem Status „Gesendet“. | ApplicationId, ApplicationName | 
| PendingJobs | Die Anzahl der Jobs mit dem Status Ausstehend. | ApplicationId, ApplicationName | 
| ScheduledJobs | Die Anzahl der Jobs mit dem Status „Geplant“. | ApplicationId, ApplicationName | 
| RunningJobs | Die Anzahl der Jobs im Status Wird ausgeführt. | ApplicationId, ApplicationName | 
| SuccessJobs | Die Anzahl der Jobs im Status Erfolgreich. | ApplicationId, ApplicationName | 
| FailedJobs | Die Anzahl der Jobs mit dem Status Fehlgeschlagen. | ApplicationId, ApplicationName | 
| CancellingJobs | Die Anzahl der Jobs mit dem Status „Storniert“. | ApplicationId, ApplicationName | 
| CancelledJobs | Die Anzahl der Jobs mit dem Status Storniert. | ApplicationId, ApplicationName | 

Sie können Engine-spezifische Metriken für ausgeführte und abgeschlossene EMR Serverless-Jobs mit einer Engine-spezifischen Anwendung überwachen. UIs Wenn Sie auf die Benutzeroberfläche für einen laufenden Job zugreifen, wird die Benutzeroberfläche der Live-Anwendung mit Aktualisierungen in Echtzeit angezeigt. Wenn Sie auf die Benutzeroberfläche für einen abgeschlossenen Job zugreifen, wird die persistente App-Benutzeroberfläche angezeigt.

**Ausführen von Aufgaben**

Greifen Sie für Ihre laufenden EMR Serverless-Jobs auf eine Echtzeitschnittstelle zu, die Engine-spezifische Metriken bereitstellt. Sie können entweder die Apache Spark-Benutzeroberfläche oder die Hive Tez-Benutzeroberfläche verwenden, um Ihre Jobs zu überwachen und zu debuggen. Um auf diese zuzugreifen UIs, verwenden Sie die EMR Studio-Konsole oder fordern Sie einen sicheren URL-Endpunkt mit dem an AWS Command Line Interface.

**Abgeschlossene Jobs**

Verwenden Sie für Ihre abgeschlossenen EMR Serverless-Jobs den Spark History Server oder die Persistent Hive Tez-Benutzeroberfläche, um auf Jobdetails, Phasen, Aufgaben und Metriken für Spark- oder Hive-Jobausführungen zuzugreifen. Um auf diese zuzugreifen UIs, verwenden Sie die EMR Studio-Konsole oder fordern Sie einen sicheren URL-Endpunkt mit dem AWS Command Line Interface an.

## Überwachung auf Arbeitgeberebene
<a name="job-worker-level-metrics"></a>

Amazon EMR Serverless sendet die folgenden Metriken auf Job-Worker-Ebene, die im `AWS/EMRServerless` Namespace und in der `Job Worker Metrics` Metrikgruppe verfügbar sind, an Amazon. CloudWatch EMR Serverless sammelt Datenpunkte von einzelnen Mitarbeitern während der Auftragsausführung auf Auftragsebene, Arbeitstyp und Ebene. capacity-allocation-type Sie können diese Dimension verwenden`ApplicationId`, um mehrere Jobs zu überwachen, die zu derselben Anwendung gehören.

**Anmerkung**  
Um bei der Anzeige der Metriken in der CloudWatch Amazon-Konsole den gesamten CPU- und Speicherverbrauch eines EMR-Serverless-Jobs anzuzeigen, verwenden Sie die Statistik als Summe und Zeitraum als 1 Minute.


**EMR Serverless Job Metriken auf Mitarbeiterebene**  

| Metrik | Description | Einheit | Dimension | 
| --- | --- | --- | --- | 
| WorkerCpuAllocated | Die Gesamtzahl der vCPU-Kerne, die Workern in einer Jobausführung zugewiesen wurden. | vCPU | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerCpuUsed | Die Gesamtzahl der vCPU-Kerne, die von Workern in einem Joblauf verwendet werden. | vCPU | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerMemoryAllocated | Der Gesamtspeicher in GB, der Workern in einer Auftragsausführung zugewiesen wurde. | Gigabyte (GB) | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerMemoryUsed | Der gesamte Arbeitsspeicher in GB, der von Arbeitern bei einer Auftragsausführung genutzt wird. | Gigabyte (GB) | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerEphemeralStorageAllocated | Die Anzahl der Byte an flüchtigem Speicher, die Workern in einer Auftragsausführung zugewiesen wurden. | Gigabyte (GB) | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerEphemeralStorageUsed | Die Anzahl der Byte an flüchtigem Speicher, die von Arbeitern bei einer Auftragsausführung verwendet werden. | Gigabyte (GB) | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerStorageReadBytes | Die Anzahl der Byte, die von Arbeitern während einer Auftragsausführung aus dem Speicher gelesen wurden. | Bytes | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 
| WorkerStorageWriteBytes | Die Anzahl der Byte, die während einer Auftragsausführung von Workern in den Speicher geschrieben wurden. | Bytes | JobId, JobName, ApplicationId, ApplicationName, WorkerType, und CapacityAllocationType | 

In den folgenden Schritten wird beschrieben, wie Sie auf die verschiedenen Arten von Metriken zugreifen können.

------
#### [ Console ]

**So greifen Sie mit der Konsole auf die Benutzeroberfläche Ihrer Anwendung zu**

1. Navigieren Sie zu Ihrer EMR Serverless-Anwendung im EMR Studio. Folgen Sie den Anweisungen unter [Erste Schritte von der Konsole aus](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/getting-started.html#gs-console). 

1. So greifen Sie auf Engine-spezifische Anwendungen UIs und Protokolle für einen laufenden Job zu: 

   1. Wählen Sie einen Job mit einem Status aus`RUNNING`.

   1. Wählen Sie die Job auf der Seite mit den **Bewerbungsdetails** aus, oder navigieren Sie zur Seite mit den **Stellendetails** für Ihre Stelle.

   1. Wählen Sie im Dropdownmenü „**Benutzeroberfläche anzeigen**“ entweder **Spark UI** oder **Hive Tez UI** aus, um zur Anwendungsoberfläche für Ihren Jobtyp zu gelangen. 

   1. Um auf die Spark-Engine-Logs zuzugreifen, navigieren Sie in der Spark-Benutzeroberfläche zur Registerkarte **Executors** und wählen Sie den Link **Logs** für den Treiber. Um auf die Hive-Engine-Logs zuzugreifen, wählen Sie in der Hive Tez-Benutzeroberfläche den Link **Logs** für die entsprechende DAG.

1. So greifen Sie auf maschinenspezifische Anwendungen UIs und Protokolle für einen abgeschlossenen Job zu: 

   1. Wählen Sie einen Job mit einem Status aus`SUCCESS`.

   1. Wählen Sie die Job auf der Seite mit den **Bewerbungsdetails** Ihrer Bewerbung aus oder navigieren Sie zur Seite mit den **Stellendetails** der Stelle.

   1. Wählen Sie im Dropdownmenü „**Benutzeroberfläche anzeigen**“ entweder **Spark History Server** oder **Persistent Hive Tez UI** aus, um zur Anwendungsoberfläche für Ihren Jobtyp zu gelangen. 

   1. Um auf die Spark-Engine-Logs zuzugreifen, navigieren Sie in der Spark-Benutzeroberfläche zur Registerkarte **Executors** und wählen Sie den Link **Logs** für den Treiber. Um auf die Hive-Engine-Logs zuzugreifen, wählen Sie in der Hive Tez-Benutzeroberfläche den Link **Logs** für die entsprechende DAG.

------
#### [ AWS CLI ]

**Um auf die Benutzeroberfläche Ihrer Anwendung zuzugreifen, verwenden Sie AWS CLI**
+ Rufen Sie die `GetDashboardForJobRun` API auf, um eine URL zu generieren, über die Sie auf die Benutzeroberfläche Ihrer Anwendung für laufende und abgeschlossene Jobs zugreifen können. 

  ```
  aws emr-serverless get-dashboard-for-job-run /
  --application-id <application-id> /
  --job-run-id <job-id>
  ```

  Die URL, die Sie generieren, ist eine Stunde lang gültig.

------

# Überwachen Sie Spark-Metriken mit Amazon Managed Service für Prometheus
<a name="monitor-with-prometheus"></a>

Mit den Amazon EMR-Versionen 7.1.0 und höher können Sie EMR Serverless in Amazon Managed Service for Prometheus integrieren, um Apache Spark-Metriken für EMR Serverless-Jobs und -Anwendungen zu sammeln. Diese Integration ist verfügbar, wenn Sie einen Job einreichen oder eine Anwendung mit der AWS Konsole, der EMR Serverless API oder dem erstellen. AWS CLI

## Voraussetzungen
<a name="monitoring-with-prometheus-prereqs"></a>

Bevor Sie Ihre Spark-Metriken an Amazon Managed Service for Prometheus übermitteln können, müssen Sie die folgenden Voraussetzungen erfüllen.
+ [Erstellen Sie einen Amazon Managed Service for Prometheus Workspace.](https://docs.aws.amazon.com/prometheus/latest/userguide/AMP-onboard-create-workspace.html) Dieser Workspace dient als Aufnahme-Endpunkt. Notieren Sie sich die URL, die für **Endpoint — Remote Write-URL** angezeigt wird. Sie müssen die URL angeben, wenn Sie Ihre EMR Serverless-Anwendung erstellen.
+ Um Amazon Managed Service for Prometheus zu Überwachungszwecken Zugriff auf Ihre Jobs zu gewähren, fügen Sie Ihrer Job-Ausführungsrolle die folgende Richtlinie hinzu.

  ```
  {
      "Sid": "AccessToPrometheus",
      "Effect": "Allow",
      "Action": ["aps:RemoteWrite"],
      "Resource": "arn:aws:aps:<AWS_REGION>:<AWS_ACCOUNT_ID>:workspace/<WORKSPACE_ID>"
  }
  ```

## Einrichtung
<a name="monitoring-with-prometheus-setup"></a>

**So verwenden Sie die AWS Konsole, um eine Anwendung zu erstellen, die in Amazon Managed Service for Prometheus integriert ist**

1. Informationen zum Erstellen einer Anwendung finden Sie unter [Erste Schritte mit Amazon EMR Serverless](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/getting-started.html                             ).

1. Wählen Sie beim Erstellen einer Anwendung die Option **Benutzerdefinierte Einstellungen verwenden** und konfigurieren Sie dann Ihre Anwendung, indem Sie die Informationen in die Felder eingeben, die Sie konfigurieren möchten.

1. Wählen Sie unter **Anwendungsprotokolle und Metriken** die Option **Engine-Metriken an Amazon Managed Service for Prometheus liefern** aus und geben Sie dann Ihre Remote-Write-URL an.

1. Geben Sie alle anderen gewünschten Konfigurationseinstellungen an und wählen Sie dann Anwendung **erstellen und starten**.

**Verwenden Sie die AWS CLI oder EMR Serverless API**

Sie können auch die AWS CLI oder EMR Serverless API verwenden, um Ihre EMR Serverless-Anwendung in Amazon Managed Service for Prometheus zu integrieren, wenn Sie die Befehle oder die Befehle ausführen. `create-application` `start-job-run`

------
#### [ create-application ]

```
aws emr-serverless create-application \
--release-label emr-7.1.0 \
--type "SPARK" \
--monitoring-configuration '{ 
    "prometheusMonitoringConfiguration": {
        "remoteWriteUrl": "https://aps-workspaces.<AWS_REGION>.amazonaws.com/workspaces/<WORKSPACE_ID>/api/v1/remote_write"
    }
}'
```

------
#### [ start-job-run ]

```
aws emr-serverless start-job-run \
--application-id <APPPLICATION_ID> \
--execution-role-arn <JOB_EXECUTION_ROLE> \
--job-driver '{
    "sparkSubmit": {
        "entryPoint": "local:///usr/lib/spark/examples/src/main/python/pi.py",
        "entryPointArguments": ["10000"],
        "sparkSubmitParameters": "--conf spark.dynamicAllocation.maxExecutors=10"
    }
}' \
--configuration-overrides '{
     "monitoringConfiguration": {
        "prometheusMonitoringConfiguration": {
            "remoteWriteUrl": "https://aps-workspaces.<AWS_REGION>.amazonaws.com/workspaces/<WORKSPACE_ID>/api/v1/remote_write"
        }
    }
}'
```

------

Die Aufnahme `prometheusMonitoringConfiguration` in Ihrem Befehl bedeutet, dass EMR Serverless den Spark-Job mit einem Agenten ausführen muss, der die Spark-Metriken sammelt und sie auf Ihren `remoteWriteUrl` Endpunkt für Amazon Managed Service for Prometheus schreibt. Anschließend können Sie die Spark-Metriken in Amazon Managed Service for Prometheus für Visualisierungen, Benachrichtigungen und Analysen verwenden.

## Erweiterte Konfigurationseigenschaften
<a name="monitoring-with-prometheus-config-options"></a>

EMR Serverless verwendet eine Komponente innerhalb von Spark, die `PrometheusServlet` zur Erfassung von Spark-Metriken benannt ist, und übersetzt Leistungsdaten in Daten, die mit Amazon Managed Service for Prometheus kompatibel sind. Standardmäßig legt EMR Serverless Standardwerte in Spark fest und analysiert Treiber- und Executor-Metriken, wenn Sie einen Job mit senden. `PrometheusMonitoringConfiguration` 

In der folgenden Tabelle werden alle Eigenschaften beschrieben, die konfiguriert werden, wenn ein Spark-Job übermittelt wird, der Metriken an Amazon Managed Service for Prometheus sendet.


| Spark-Eigenschaft | Standardwert | Description | 
| --- | --- | --- | 
| spark.metrics.conf.\$1.sink.prometheusServlet.class | org.apache.spark.metrics.sink. PrometheusServlet | Die Klasse, die Spark verwendet, um Metriken an Amazon Managed Service for Prometheus zu senden. Um das Standardverhalten zu überschreiben, geben Sie Ihre eigene benutzerdefinierte Klasse an. | 
| spark.metrics.conf.\$1.source.jvm.class | org.apache.spark.metrics.source. JvmSource | Die Klasse, die Spark verwendet, um wichtige Metriken von der zugrunde liegenden virtuellen Java-Maschine zu sammeln und zu senden. Um die Erfassung von JVM-Metriken zu beenden, deaktivieren Sie diese Eigenschaft, indem Sie sie auf eine leere Zeichenfolge setzen, z. B. `""` Um das Standardverhalten zu überschreiben, geben Sie Ihre eigene benutzerdefinierte Klasse an.  | 
| spark.metrics.conf.driver.sink.prometheusServlet.path | /metrics/prometheus | Die eindeutige URL, die Amazon Managed Service for Prometheus verwendet, um Metriken vom Treiber zu sammeln. Um das Standardverhalten zu überschreiben, geben Sie Ihren eigenen Pfad an. Um die Erfassung von Treibermetriken zu beenden, deaktivieren Sie diese Eigenschaft, indem Sie sie auf eine leere Zeichenfolge setzen, z. `""` B. | 
| spark.metrics.conf.executor.sink.prometheusServlet.path | /metrics/executor/prometheus | Die eindeutige URL, die Amazon Managed Service for Prometheus verwendet, um Metriken vom Testamentsvollstrecker zu sammeln. Um das Standardverhalten zu überschreiben, geben Sie Ihren eigenen Pfad an. Um die Erfassung von Executor-Metriken zu beenden, deaktivieren Sie diese Eigenschaft, indem Sie sie auf eine leere Zeichenfolge setzen, z. B. `""` | 

Weitere Informationen zu den Spark-Metriken finden Sie unter [Apache Spark-Metriken](https://spark.apache.org/docs/3.5.0/monitoring.html#metrics).

## Überlegungen und Einschränkungen
<a name="monitoring-with-prometheus-limitations"></a>

Wenn Sie Amazon Managed Service for Prometheus verwenden, um Metriken von EMR Serverless zu sammeln, sollten Sie die folgenden Überlegungen und Einschränkungen berücksichtigen.
+ Support für die Verwendung von Amazon Managed Service for Prometheus mit EMR Serverless ist nur dort verfügbar, [AWS-Regionen wo Amazon Managed Service für Prometheus](https://docs.aws.amazon.com/general/latest/gr/prometheus-service.html) allgemein verfügbar ist.
+ Die Ausführung des Agenten zur Erfassung von Spark-Metriken auf Amazon Managed Service for Prometheus erfordert mehr Ressourcen von den Mitarbeitern. Wenn Sie eine kleinere Worker-Größe wählen, z. B. einen vCPU-Worker, kann sich Ihre Job-Laufzeit verlängern.
+ Support für die Verwendung von Amazon Managed Service for Prometheus mit EMR Serverless ist nur für Amazon EMR-Versionen 7.1.0 und höher verfügbar.
+ Amazon Managed Service for Prometheus muss in demselben Konto bereitgestellt werden, in dem Sie EMR Serverless ausführen, um Metriken zu sammeln.

# Metriken zur serverlosen Nutzung von EMR
<a name="monitoring-usage"></a>

Sie können die CloudWatch Amazon-Nutzungsmetriken verwenden, um einen Überblick über die Ressourcen zu erhalten, die Ihr Konto verwendet. Verwenden Sie diese Metriken, um Ihre Servicenutzung in CloudWatch Grafiken und Dashboards zu visualisieren.

Die Metriken zur Nutzung von EMR Serverless entsprechen Service Quotas. Sie können Alarme konfigurieren, mit denen Sie benachrichtigt werden, wenn sich Ihre Nutzung einem Servicekontingent nähert. Weitere Informationen finden Sie unter [Service Quotas und CloudWatch Amazon-Alarme](https://docs.aws.amazon.com/servicequotas/latest/userguide/configure-cloudwatch.html) im *Service Quotas Quotas-Benutzerhandbuch*.

Weitere Informationen zu EMR Serverless Service Quotas finden Sie unter. [Endpunkte und Kontingente für EMR Serverless](endpoints-quotas.md)

## Metriken zur Nutzung von Servicekontingenten für EMR Serverless
<a name="usage-metrics"></a>

EMR Serverless veröffentlicht die folgenden Messdaten zur Nutzung von Dienstkontingenten im `AWS/Usage` Namespace.


****  

| Metrik | Description | 
| --- | --- | 
| `ResourceCount`  | Die Gesamtanzahl der angegebenen Ressource, die auf Ihrem Konto ausgeführt wird. Die Ressource wird durch die [Dimensionen](#usage-metrics-dimensions) definiert, die der Metrik zugeordnet sind. | 

## Dimensionen für Metriken zur Nutzung der Kontingente für EMR Serverless Service
<a name="usage-metrics-dimensions"></a>

Sie können die folgenden Dimensionen verwenden, um die von EMR Serverless veröffentlichten Nutzungsmetriken zu verfeinern.


****  

| Dimension | Wert | Description | 
| --- | --- | --- | 
|  `Service`  |  EMR Serverlos  | Der Name des AWS-Service , der die Ressource enthält. | 
|  `Type`  |  Ressource  | Der Entitätstyp, den EMR Serverless meldet. | 
|  `Resource`  |  vCPU  | Der Ressourcentyp, den EMR Serverless verfolgt. | 
|  `Class`  |  Keine  | Die Ressourcenklasse, die EMR Serverless verfolgt. | 