

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Container Insights con OpenTelemetry metriche per Amazon EKS
<a name="container-insights-otel-metrics"></a>

**Anteprima**  
Container Insights con OpenTelemetry metriche offre visibilità sullo stato operativo dell'infrastruttura di cluster Amazon EKS. È disponibile in anteprima pubblica senza costi aggiuntivi negli Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Europa (Irlanda), Asia Pacifico (Singapore) e Asia Pacifico (Sydney).

Il componente aggiuntivo Amazon CloudWatch Observability EKS raccoglie metriche open source dai cluster Amazon EKS e le invia a Using the OpenTelemetry Protocol (OTLP) CloudWatch con una granularità di 30 secondi. Queste metriche utilizzano nomi di metrici tratti dalle loro fonti originali, tra cui CADvisor, Prometheus Node Exporter, NVIDIA DCGM, Kube State Metrics e Neuron Monitor. AWS È possibile interrogare queste metriche utilizzando PromQL in CloudWatch Query Studio o tramite l'API di query compatibile con Prometheus.

Ogni metrica viene automaticamente arricchita con un massimo di 150 etichette, inclusi gli attributi delle convenzioni OpenTelemetry semantiche e le etichette dei pod e dei nodi Kubernetes. ProMQL gestisce l'aggregazione al momento della query, quindi ogni metrica viene pubblicata una volta per risorsa anziché a più livelli di aggregazione. Il componente aggiuntivo mette inoltre in correlazione le metriche degli acceleratori di AWS Neuron ed AWS Elastic Fabric Adapter con i pod e i contenitori specifici che li utilizzano, fornendo una visibilità che non è disponibile solo dalle fonti metriche.

Per abilitare OTel Container Insights su un cluster Amazon EKS, installa la versione aggiuntiva Amazon CloudWatch Observability EKS `v6.0.1-eksbuild.1` o una versione successiva tramite la console Amazon EKS o tramite infrastruttura come codice.

Per ulteriori informazioni sulla configurazione di OTel Container Insights, consulta. [Configurazione di Container Insights](deploy-container-insights.md)

Per ulteriori informazioni sull'interrogazione di queste metriche con PromQL, consulta. [Interrogazione ProMQL](CloudWatch-PromQL-Querying.md)

## Confronto tra OTel Container Insights e Container Insights (migliorato)
<a name="container-insights-otel-comparison"></a>

La tabella seguente riassume le differenze tra Container Insights (migliorato) e OTel Container Insights.


| Funzionalità | Container Insights (migliorato) | OTel Container Insights | 
| --- | --- | --- | 
| Nomi dei parametri | CloudWatch-format metriche (ad esempio,) pod\$1cpu\$1utilization | Nativo open source (ad esempio,) container\$1cpu\$1usage\$1seconds\$1total | 
| Etichette per metrica | 3—6 dimensioni predefinite per metrica | Fino a 150 etichette, incluse tutte le etichette dei pod e dei nodi Kubernetes | 
| Aggregazione | Preaggregato a più livelli (cluster, namespace, carico di lavoro, pod) | Metriche grezze per risorsa; aggregazione in fase di interrogazione con ProMQL | 
| Linguaggio di query | CloudWatch API per le metriche | ProMQL (compatibile con Prometheus) | 
| Ingestione metrica | CloudWatch Registri in formato EMF | Endpoint OTLP | 

## Come vengono etichettate le metriche
<a name="container-insights-otel-labels"></a>

Ogni metrica raccolta da OTel Container Insights contiene etichette provenienti da tre fonti.

Etichette native della fonte di telemetria  
Etichette tratte dalla fonte metrica originale (ad esempio, CADvisor fornisce etichette come, e). `pod` `namespace` `container` Questi vengono conservati come attributi datapoint.

OpenTelemetry attributi delle risorse  
Il componente aggiuntivo aggiunge gli attributi delle risorse seguendo le convenzioni OpenTelemetry semantiche per [Kubernetes](https://opentelemetry.io/docs/specs/semconv/resource/k8s/), [Host](https://opentelemetry.io/docs/specs/semconv/resource/host/) e [Cloud](https://opentelemetry.io/docs/specs/semconv/resource/cloud/), come,, e. `k8s.pod.name` `k8s.namespace.name` `k8s.node.name` `host.name` `cloud.region` Questi attributi sono coerenti in tutte le fonti metriche.

Etichette per pod e nodi Kubernetes  
Tutte le etichette dei pod e delle etichette dei nodi rilevate dall'API Kubernetes vengono aggiunte come attributi di risorsa con i prefissi e. `k8s.pod.label` `k8s.node.label`

Per ulteriori informazioni su come interrogare questi attributi utilizzando PromQL, consulta. [Interrogazione ProMQL](CloudWatch-PromQL-Querying.md)

## Parametri supportati
<a name="container-insights-otel-supported-metrics"></a>

La tabella seguente elenca le fonti e le categorie delle metriche raccolte da OTel Container Insights.


| Origine metrica | Categoria parametro | Prerequisiti | 
| --- | --- | --- | 
| CADvisor | Parametri CPU | - | 
| cAdvisor | Parametri della memoria | - | 
| cAdvisor | Metriche di rete | - | 
| cAdvisor | Metriche relative a dischi e file system | - | 
| Prometheus Node Exporter | Parametri CPU | - | 
| Prometheus Node Exporter | Parametri della memoria | - | 
| Prometheus Node Exporter | Parametri del disco | - | 
| Prometheus Node Exporter | Metriche del file system | - | 
| Prometheus Node Exporter | Metriche di rete | - | 
| Prometheus Node Exporter | Parametri del sistema | - | 
| Prometheus Node Exporter | VMStat metriche | - | 
| Prometheus Node Exporter | Metriche di Netstat e socket | - | 
| NVIDIA DCGM | Utilizzo della GPU e metriche prestazionali | È necessario installare [il plug-in per dispositivi NVIDIA e il](https://github.com/NVIDIA/k8s-device-plugin) toolkit [NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | Metriche della memoria GPU | È necessario installare [il plug-in per dispositivi NVIDIA](https://github.com/NVIDIA/k8s-device-plugin) e il [toolkit NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | Metriche termiche e relative alla potenza della GPU | È necessario installare [il plug-in per dispositivi NVIDIA](https://github.com/NVIDIA/k8s-device-plugin) e il [toolkit NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | Metriche di limitazione della GPU | È necessario installare il [plug-in per dispositivi NVIDIA e il toolkit](https://github.com/NVIDIA/k8s-device-plugin) [NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | Metriche di errore e affidabilità della GPU | È necessario installare [il plug-in per dispositivi NVIDIA](https://github.com/NVIDIA/k8s-device-plugin) e il [toolkit NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | metriche NVLink della GPU | È necessario installare [il plug-in per dispositivi NVIDIA](https://github.com/NVIDIA/k8s-device-plugin) e il [toolkit NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| NVIDIA DCGM | Metriche informative sulla GPU | È necessario installare [il plug-in per dispositivi NVIDIA e il](https://github.com/NVIDIA/k8s-device-plugin) toolkit [NVIDIA Container](https://github.com/NVIDIA/nvidia-container-toolkit). | 
| AWS Neuron Monitor | NeuronCore metriche | È necessario [installare il driver](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/setup/neuron-setup/pytorch/neuronx/ubuntu/torch-neuronx-ubuntu22.html) [Neuron e il plug-in del dispositivo](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/containers/kubernetes-getting-started.html) Neuron. | 
| AWS Neuron Monitor | NeuronDevice metriche | È necessario [installare il driver](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/setup/neuron-setup/pytorch/neuronx/ubuntu/torch-neuronx-ubuntu22.html) [Neuron e il plug-in del dispositivo](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/containers/kubernetes-getting-started.html) Neuron. | 
| AWS Neuron Monitor | Metriche del sistema neuronale | È necessario installare il [driver Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/setup/neuron-setup/pytorch/neuronx/ubuntu/torch-neuronx-ubuntu22.html) [e il plug-in del dispositivo Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/containers/kubernetes-getting-started.html). | 
| AWS Adattatore Elastic Fabric | Metriche EFA | Il [plug-in del dispositivo EFA deve essere installato](https://github.com/aws/eks-charts/tree/master/stable/aws-efa-k8s-device-plugin). | 
| NVMe | NVMe Metriche SMART | - | 
| Metriche dello stato di Kube | Pod, nodo, Deployment DaemonSet, StatefulSet, ReplicaSet, Job, CronJob, Service, Namespace, metriche PersistentVolume PersistentVolumeClaim  | - | 
| Server API Kubernetes | Server API e metriche etcd | - | 