

# PERF 2. Comment sélectionner et utiliser les ressources de calcul dans votre charge de travail ?
<a name="perf-02"></a>

 Le choix d’une solution de calcul optimale pour une charge de travail particulière peut varier selon la conception de l’application, les modèles d’utilisation et les paramètres de configuration. Les architectures peuvent utiliser différentes solutions de calcul pour divers composants et permettent différentes fonctionnalités pour améliorer les performances. Le choix d’une solution de calcul inadaptée à une architecture peut nuire à ses performances. 

**Topics**
+ [PERF02-BP01 Sélection des meilleures options de calcul pour votre charge de travail](perf_compute_hardware_select_best_compute_options.md)
+ [PERF02-BP02 Compréhension des configurations et des fonctionnalités de calcul disponibles](perf_compute_hardware_understand_compute_configuration_features.md)
+ [PERF02-BP03 Collecter des métriques liées au calcul](perf_compute_hardware_collect_compute_related_metrics.md)
+ [PERF02-BP04 Configuration et dimensionnement corrects des ressources de calcul](perf_compute_hardware_configure_and_right_size_compute_resources.md)
+ [PERF02-BP05 Mettre à l’échelle vos ressources de calcul de manière dynamique](perf_compute_hardware_scale_compute_resources_dynamically.md)
+ [PERF02-BP06 Utilisation d’accélérateurs de calcul matériels optimisés](perf_compute_hardware_compute_accelerators.md)

# PERF02-BP01 Sélection des meilleures options de calcul pour votre charge de travail
<a name="perf_compute_hardware_select_best_compute_options"></a>

 La sélection de l’option de calcul la mieux adaptée à votre charge de travail vous permet d’améliorer les performances, de réduire les coûts d’infrastructure inutiles et de diminuer les efforts opérationnels nécessaires pour maintenir votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous utilisez la même option de calcul que celle utilisée sur site. 
+  Vous manquez de connaissances sur les options, les fonctionnalités et les solutions de cloud computing et sur la manière dont elles pourraient améliorer vos performances de calcul. 
+  Vous surprovisionnez une option de calcul existante pour répondre aux exigences de mise à l’échelle ou de performances, alors qu’une autre option de calcul s’alignerait plus précisément sur les caractéristiques de votre charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** en identifiant les exigences de calcul et en les comparant aux options disponibles, vous pouvez optimiser votre charge de travail en termes de ressources. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Pour optimiser vos charges de travail cloud afin d’améliorer l’efficacité des performances, il est important de sélectionner les options de calcul les mieux adaptées à votre cas d’utilisation et à vos exigences de performances. AWS fournit une variété d’options de calcul qui sont adaptées aux différentes charges de travail dans le cloud. Par exemple, vous pouvez utiliser [Amazon EC2](https://docs.aws.amazon.com/ec2/) pour lancer et gérer des serveurs virtuels, [AWS Lambda](https://docs.aws.amazon.com/lambda/?icmpid=docs_homepage_featuredsvcs) pour exécuter du code sans avoir à provisionner ou à gérer de serveurs, [Amazon ECS](https://aws.amazon.com/ecs/) ou [Amazon EKS](https://aws.amazon.com/eks/) pour exécuter et gérer des conteneurs ou encore [AWS Batch](https://aws.amazon.com/batch/) pour traiter d’importants volumes de données en parallèle. En fonction de vos besoins en termes de mise à l’échelle et de calcul, vous devez choisir et configurer la solution de calcul optimale pour votre situation. Vous pouvez également envisager d’utiliser plusieurs types de solutions de calcul dans une seule charge de travail, car chacune présente ses avantages et ses inconvénients. 

 Les étapes suivantes vous guident dans la sélection des options de calcul adaptées aux caractéristiques de votre charge de travail et à vos exigences de performances. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  Comprenez les exigences de calcul de votre charge de travail. Les exigences clés à prendre en compte incluent les besoins de traitement, les modèles de trafic, les modèles d’accès aux données, les besoins de mise à l’échelle et les exigences de latence. 
+  Découvrez les différents [services AWS informatiques](https://docs.aws.amazon.com/whitepapers/latest/aws-overview/compute-services.html) adaptés à votre charge de travail. Pour de plus amples informations, consultez [PERF01-BP01 Découvrir et se familiariser avec les services et fonctionnalités cloud disponibles](perf_architecture_understand_cloud_services_and_features.md). Voici quelques options de calcul AWS clés, leurs caractéristiques et leurs cas d’utilisation courants :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_compute_hardware_select_best_compute_options.html)
+  Évaluez les coûts (tels que le tarif horaire ou le transfert de données) et les frais de gestion (tels que l’application de correctifs et la mise à l’échelle) associés à chaque option de calcul. 
+  Réalisez des tests et procédez au benchmarking dans un environnement hors production afin d’identifier l’option de calcul la mieux adaptée à vos exigences en termes de charge de travail. 
+  Après avoir testé et identifié votre nouvelle solution de calcul, planifiez votre migration et validez vos métriques de performance. 
+  Utilisez les outils de surveillance AWS tels qu’[Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) et les services d’optimisation tels que [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) pour optimiser en continu votre calcul en fonction de modèles d’utilisation réels. 

 

## Ressources
<a name="resources"></a>

 **Documents connexes:** 
+  [Cloud Compute with AWS](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Types d’instances Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+ [Recommandations pour les conteneurs](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Recommandations pour les modèles sans serveur](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 AWS Graviton: The best price performance for your AWS workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4&ab_channel=AWSEvents) 
+  [AWS re:Invent 2023 - New Amazon Elastic Compute Cloud generative AI capabilities in AMS](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 - What’s new with Amazon Elastic Compute Cloud](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 - Smart savings: Amazon Elastic Compute Cloud cost-optimization strategies](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 - Powering next-gen Amazon Elastic Compute Cloud: Deep dive on the Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 - Optimize performance and cost for your AWS compute](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [AWS re:Invent 2019 - Amazon Elastic Compute Cloud foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWS re:Invent 2022 - Deploy ML models for inference at high performance and low cost](https://www.youtube.com/watch?v=4FqHt5bmS2o) 
+  [AWS re:Invent 2019 - Optimize performance and cost for your AWS compute](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Deploy ML models for inference at high performance and low cost](https://www.youtube.com/watch?v=4FqHt5bmS2o) 

 **Exemples connexes :** 
+  [Migration de l’application Web vers des conteneurs](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Exécution d’un modèle Hello World sans serveur](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 
+  [Atelier Amazon EKS](https://www.eksworkshop.com/) 
+  [Atelier Amazon EC2](https://ec2spotworkshops.com/) 
+  [Charges de travail efficaces et résilientes avec l’autoscaling Amazon EC2 Auto Scaling](https://catalog.us-east-1.prod.workshops.aws/workshops/20c57d32-162e-4ad5-86a6-dff1f8de4b3c/en-US) 
+  [Migration vers Graviton AWS avec Container Services](https://catalog.us-east-1.prod.workshops.aws/workshops/dcab7555-32fc-42d2-97e5-2b7a35cd008f/en-US/) 

# PERF02-BP02 Compréhension des configurations et des fonctionnalités de calcul disponibles
<a name="perf_compute_hardware_understand_compute_configuration_features"></a>

 Découvrez les options et les fonctionnalités de configuration disponibles pour votre service de calcul qui vous aideront à allouer la quantité de ressources appropriée et à améliorer l’efficacité des performances. 

 **Anti-modèles courants :** 
+  Vous ne comparez pas les options de calcul ni les familles d’instances disponibles avec les caractéristiques de la charge de travail. 
+  Vous surprovisionnez les ressources de calcul pour répondre aux pics de demande. 

**Avantages liés au respect de cette bonne pratique :** familiarisez-vous avec les fonctionnalités et les configurations de calcul d’AWS pour pouvoir utiliser une solution de calcul optimisée qui répond aux caractéristiques et aux besoins de votre charge de travail.

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Chaque solution de calcul dispose de configurations et de fonctionnalités uniques pour prendre en charge différentes caractéristiques et exigences de charge de travail. Découvrez comment ces options soutiennent votre charge de travail et déterminez celles qui sont optimales pour votre système. Parmi ces options, citons, par exemple la famille d’instances, les tailles, les fonctionnalités (GPU, E/S), la capacité de débordement (bursting), les délais d’attente, les tailles de fonction, les instances de conteneur et la simultanéité. Si votre charge de travail utilise la même option de calcul depuis plus de quatre semaines et que vous prévoyez que les caractéristiques resteront les mêmes à l’avenir, vous pouvez utiliser [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) pour déterminer si votre option de calcul actuelle est adaptée aux charges de travail du point de vue du processeur et de la mémoire. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  Comprenez les exigences de la charge de travail (comme les besoins en UC, la mémoire et la latence). 
+  Consultez la documentation AWS et les bonnes pratiques pour en savoir plus sur les options de configuration recommandées qui peuvent vous aider à améliorer vos performances de calcul. Voici quelques options de configuration clés à prendre en compte :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_compute_hardware_understand_compute_configuration_features.html)

## Ressources
<a name="resources"></a>

 **Documents connexes:** 
+  [Cloud Compute with AWS](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Types d’instances Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Contrôle des états du processeur pour votre instance Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Conteneurs Amazon EKS : composants master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 – AWS Graviton: The best price performance for your AWS workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – New Amazon EC2 generative AI capabilities in AWS Management Console](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – What’s new with Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Smart savings: Amazon EC2 cost-optimization strategies](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Powering next-gen Amazon EC2: Deep dive on the Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2 foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWSre:Invent 2022 – Optimizing Amazon EKS for performance and cost on AWS](https://www.youtube.com/watch?v=5B4-s_ivn1o) 

 **Exemples connexes :** 
+  [Code de démonstration de Compute Optimizer](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Atelier sur les instances spot Amazon EC2](https://ec2spotworkshops.com/) 
+  [Charges de travail efficaces et résilientes avec Amazon EC2 AWS Auto Scaling](https://catalog.us-east-1.prod.workshops.aws/workshops/20c57d32-162e-4ad5-86a6-dff1f8de4b3c/en-US) 
+  [Atelier pour développeurs Graviton](https://catalog.us-east-1.prod.workshops.aws/workshops/dcab7555-32fc-42d2-97e5-2b7a35cd008f/en-US/) 
+  [Journée d’immersion AWS pour les charges de travail Microsoft](https://catalog.us-east-1.prod.workshops.aws/workshops/d6c7ecdc-c75f-4ad1-910f-fdd994cc4aed/en-US) 
+  [Journée d’immersion AWS pour les charges de travail Linux](https://catalog.us-east-1.prod.workshops.aws/workshops/a8e9c6a6-0ba9-48a7-a90d-378a440ab8ba/en-US) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Atelier Amazon EKS](https://www.eksworkshop.com/) 

  

# PERF02-BP03 Collecter des métriques liées au calcul
<a name="perf_compute_hardware_collect_compute_related_metrics"></a>

 Enregistrez et suivez les métriques liées au calcul pour mieux comprendre comment fonctionnent vos ressources de calcul et améliorer leurs performances et leur utilisation. 

 **Anti-modèles courants :** 
+  Vous utilisez uniquement la recherche manuelle des fichiers journaux pour les métriques.  
+  Vous n’utilisez que les métriques par défaut enregistrées par votre logiciel de surveillance. 
+  Vous n’examinez les métriques qu’en cas de problème. 

 **Avantages liés au respect de cette bonne pratique :** en collectant des métriques liées aux performances, vous pouvez aligner les performances des applications sur les exigences de l’entreprise afin de garantir que vous répondez à vos besoins en matière de charge de travail. Cela peut également vous aider à améliorer en continu les performances et l’utilisation des ressources de votre charge de travail. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les charges de travail cloud peuvent générer de gros volumes de données telles que des métriques, des journaux et des événements. Dans ce contexte AWS Cloud, la collecte de métriques est une étape cruciale pour améliorer la sécurité, la rentabilité, les performances et la durabilité. AWS fournit un large éventail de mesures liées aux performances à l'aide de services de surveillance tels qu'[Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) pour vous fournir des informations précieuses. Des indicateurs tels que CPU l'utilisation, l'utilisation de la mémoire, les E/S du disque et les entrées et sorties du réseau peuvent fournir des informations sur les niveaux d'utilisation ou les goulots d'étranglement des performances. Utilisez ces métriques dans le cadre d’une approche fondée sur les données pour ajuster activement et optimiser les ressources de votre charge de travail.  Dans un scénario idéal, vous devriez collecter toutes les métriques relatives à vos ressources de calcul sur une plateforme unique, avec des stratégies de conservation mises en œuvre pour atteindre les objectifs financiers et opérationnels. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  Identifiez les métriques liées aux performances qui sont pertinentes pour votre charge de travail. Vous devriez collecter des métriques relatives à l’utilisation des ressources et au fonctionnement de votre charge de travail cloud (comme le temps de réponse et le débit). 
  +  [Métriques EC2 par défaut d'Amazon](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 
  +  [Métriques ECS par défaut d'Amazon](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 
  +  [Métriques EKS par défaut d'Amazon](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 
  +  [Métriques par défaut de Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 
  +  [Métriques relatives à EC2 la mémoire et au disque Amazon](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 
+  Choisissez et configurez la solution de journalisation et de surveillance adaptée à votre charge de travail. 
  +  [Observabilité native AWS](https://catalog.workshops.aws/observability/en-US/aws-native) 
  +  [AWS Distro pour OpenTelemetry](https://aws.amazon.com/otel/) 
  +  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 
+  Définissez le filtre et l’agrégation requis pour les métriques en fonction de vos exigences en matière de charge de travail. 
  +  [Quantifiez les métriques personnalisées des applications avec Amazon CloudWatch Logs et les filtres métriques](https://aws.amazon.com/blogs/mt/quantify-custom-application-metrics-with-amazon-cloudwatch-logs-and-metric-filters/) 
  +  [Collectez des statistiques personnalisées grâce au balisage CloudWatch stratégique d'Amazon](https://aws.amazon.com/blogs/infrastructure-and-automation/collect-custom-metrics-with-amazon-cloudwatch-strategic-tagging/) 
+  Configurez des stratégies de conservation des données pour vos métriques afin qu’elles correspondent à vos objectifs sécuritaires et opérationnels. 
  +  [Conservation des données par défaut pour les CloudWatch métriques](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 
  +  [Conservation des données par défaut pour les CloudWatch journaux](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 
+  Si nécessaire, créez des alarmes et des notifications pour vos métriques afin de vous aider à résoudre de manière proactive les problèmes liés aux performances. 
  +  [Créez des alarmes pour des métriques personnalisées à l'aide de la détection des CloudWatch anomalies Amazon](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/create-alarms-for-custom-metrics-using-amazon-cloudwatch-anomaly-detection.html) 
  +  [Créez des métriques et des alarmes pour des pages Web spécifiques avec Amazon CloudWatch RUM](https://aws.amazon.com/blogs/mt/create-metrics-and-alarms-for-specific-web-pages-amazon-cloudwatch-rum/) 
+  Utilisez l’automatisation pour déployer vos agents d’agrégation de métriques et de journaux. 
  +  [AWS Systems Manager automatisation](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 
  +  [OpenTelemetryCollectionneur](https://aws-otel.github.io/docs/getting-started/collector) 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Surveillance et observabilité](https://aws.amazon.com/cloudops/monitoring-and-observability/) 
+  [Bonnes pratiques : mise en œuvre de l'observabilité avec AWS](https://aws.amazon.com/blogs/mt/best-practices-implementing-observability-with-aws/) 
+  [ CloudWatch Documentation Amazon](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Collectez des métriques et des journaux à partir d'EC2instances Amazon et de serveurs sur site avec l'agent CloudWatch ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Accès à Amazon CloudWatch Logs pour AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [Utilisation CloudWatch des journaux avec des instances de conteneur](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Publier des métriques personnalisées](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Réponse : journalisation centralisée](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [AWS Services qui publient CloudWatch des métriques](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Surveillance d'Amazon EKS sur AWS Fargate](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 — [LAUNCH] Surveillance des applications pour les charges de travail modernes](https://www.youtube.com/watch?v=T2TovTLje8w) 
+  [AWS re:Invent 2023 — Mise en œuvre de l'observabilité des applications](https://www.youtube.com/watch?v=IcTcwUSwIs4) 
+  [AWS re:Invent 2023 — Élaborer une stratégie d'observabilité efficace](https://www.youtube.com/watch?v=7PQv9eYCJW8) 
+  [AWS re:Invent 2023 — Une observabilité sans faille avec Distro pour AWS OpenTelemetry](https://www.youtube.com/watch?v=S4GfA2R0N_A) 
+  [Gestion des performances des applications sur AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 

 **Exemples connexes :** 
+  [AWS Journée d'immersion pour les charges de travail Linux - Amazon CloudWatch](https://catalog.us-east-1.prod.workshops.aws/workshops/a8e9c6a6-0ba9-48a7-a90d-378a440ab8ba/en-US/300-cloudwatch) 
+  [Surveillance des ECS clusters et des conteneurs Amazon](https://ecsworkshop.com/monitoring/) 
+  [Surveillance à l'aide des tableaux de CloudWatch bord Amazon](https://catalog.workshops.aws/well-architected-performance-efficiency/en-US/3-monitoring/monitoring-with-cloudwatch-dashboards) 
+  [EKSAtelier Amazon](https://www.eksworkshop.com/) 

# PERF02-BP04 Configuration et dimensionnement corrects des ressources de calcul
<a name="perf_compute_hardware_configure_and_right_size_compute_resources"></a>

 Configurez et dimensionnez correctement les ressources de calcul en fonction des exigences de performance de votre charge de travail et évitez de sous-utiliser ou de surexploiter les ressources. 

 **Anti-modèles courants :** 
+  Vous ignorez les exigences de performance de votre charge de travail, ce qui entraîne un surprovisionnement ou un sous-provisionnement des ressources de calcul. 
+  Vous ne choisissez que la plus grande ou la plus petite instance disponible pour toutes les charges de travail. 
+  Vous n’utilisez qu’une seule famille d’instances pour faciliter la gestion. 
+  Vous ignorez les recommandations de AWS Cost Explorer ou de Compute Optimizer concernant le redimensionnement. 
+  Vous ne réévaluez pas la charge de travail pour voir si de nouveaux types d’instances pourraient convenir. 
+  Vous ne certifiez qu’un petit nombre de configurations d’instance pour votre organisation. 

 **Avantages liés au respect de cette bonne pratique :** un dimensionnement correct des ressources de calcul garantit un fonctionnement optimal dans le cloud en évitant le surprovisionnement et le sous-provisionnement des ressources. Le dimensionnement correct des ressources de calcul se traduit généralement par des performances renforcées, une meilleure expérience client et une baisse des coûts. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Le dimensionnement correct permet aux organisations d’exploiter leur infrastructure cloud de manière efficace et rentable tout en répondant aux besoins de l’entreprise. Le surprovisionnement des ressources cloud peut entraîner des coûts supplémentaires, tandis que le sous-provisionnement peut entraîner des performances médiocres et une expérience client négative. AWS fournit des outils tels que [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) et [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) qui utilisent des données historiques pour fournir des recommandations afin de dimensionner correctement vos ressources informatiques. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Choisissez le type d’instance qui correspond le mieux à vos besoins : 
  +  [Comment choisir le type d’instance EC2 approprié pour mon application ?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
  +  [Sélection de type d’instance basée sur des attributs pour la flotte d’Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-fleet-attribute-based-instance-type-selection.html) 
  +  [Création d’un groupe Auto Scaling en utilisant la sélection du type d’instance basée sur des attributs](https://docs.aws.amazon.com/autoscaling/ec2/userguide/create-asg-instance-type-requirements.html) 
  +  [Optimisation de vos coûts de calcul Kubernetes avec la consolidation Karpenter](https://aws.amazon.com/blogs/containers/optimizing-your-kubernetes-compute-costs-with-karpenter-consolidation/) 
+  Analysez les différentes caractéristiques de performances de votre charge de travail et la façon dont ces caractéristiques se rapportent à la mémoire, au réseau et à l’utilisation du processeur. Utilisez ces données pour choisir les ressources qui correspondent le mieux aux objectifs de votre charge de travail en termes de profil et de performance. 
+  Surveillez l’utilisation de vos ressources à l’aide des outils de surveillance d’AWS tels qu’Amazon CloudWatch. 
+  Sélectionnez la configuration adaptée à vos ressources de calcul. 
  +  Pour les charges de travail éphémères, évaluez les [métriques Amazon CloudWatch](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) de l’instance, `CPUUtilization` afin de déterminer si l’instance est sous-utilisée ou surutilisée. 
  +  Pour les charges de travail stables, vérifiez les outils de redimensionnement AWS tels que Optimiseur de calcul AWS et AWS Trusted Advisor à intervalles réguliers pour identifier les opportunités d’optimisation et de redimensionnement des ressources de calcul. 
+  Testez les changements de configuration dans un environnement hors production avant de les implémenter dans un environnement réel. 
+  Réévaluez en permanence les nouvelles offres de calcul et comparez-les aux besoins de votre charge de travail. 

## Ressources
<a name="resources"></a>

 **Documents connexes:** 
+  [Cloud Compute with AWS](https://aws.amazon.com/products/compute/) 
+  [Types d’instances Amazon EC](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs Amazon EKS : composant master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle des états du processeur pour votre instance Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Vidéos connexes :** 
+  [Amazon EC2 foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [AWS re:Invent 2023 – AWS Graviton: The best price performance for your AWS workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – New Amazon EC2 generative AI capabilities in AWS Management Console](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – What’s new with Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Smart savings: Amazon EC2 cost-optimization strategies](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Powering next-gen Amazon EC2: Deep dive on the Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2 foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 

 **Exemples connexes :** 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 
+  [Atelier Amazon EKS](https://www.eksworkshop.com/) 
+  [Recommandations en matière de redimensionnement](https://catalog.workshops.aws/well-architected-cost-optimization/en-US/3-cost-effective-resources/40-rightsizing-recommendations-100) 

# PERF02-BP05 Mettre à l’échelle vos ressources de calcul de manière dynamique
<a name="perf_compute_hardware_scale_compute_resources_dynamically"></a>

 Utilisez l’élasticité du cloud pour mettre à l’échelle vos ressources de calcul de manière dynamique afin de répondre à vos besoins et d’éviter de surprovisionner ou de sous-provisionner la capacité de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous réagissez aux alertes en augmentant manuellement la capacité. 
+  Vous utilisez les mêmes recommandations de dimensionnement (généralement, infrastructure statique) que sur site. 
+  Vous conservez une capacité accrue après un événement de mise à l’échelle au lieu de la réduire. 

 **Avantages liés au respect de cette bonne pratique :** en configurant et en testant l’élasticité des ressources de calcul, vous pouvez économiser de l’argent, maintenir les points de référence des performances et améliorer la fiabilité en fonction de l’évolution du trafic. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 AWS apporte la flexibilité nécessaire pour mettre à l’échelle vos ressources de manière dynamique grâce à divers mécanismes de mise à l’échelle afin de répondre à l’évolution de la demande. Combinée aux métriques liées au calcul, la mise à l’échelle dynamique permet aux charges de travail de réagir automatiquement aux changements et d’utiliser l’ensemble optimal de ressources de calcul pour atteindre son objectif. 

 Vous pouvez utiliser plusieurs approches pour rapprocher l’offre de ressources de la demande. 
+  **Approche de suivi des objectifs :** surveillez votre métrique de capacité de mise à l’échelle et augmentez ou réduisez automatiquement votre capacité selon vos besoins. 
+  **Mise à l’échelle prédictive :** mettez à l’échelle en prévision des tendances quotidiennes et hebdomadaires. 
+  **Approche basée sur le calendrier :** définissez votre propre calendrier de mise à l’échelle en fonction de changements de charge prévisibles. 
+  **Mise à l’échelle des services :** choisissez des services (sans serveur, par exemple) conçus pour se mettre à l’échelle automatiquement. 

 Vous devez vous assurer que les déploiements de charge de travail peuvent gérer les événements de mise à l’échelle ascendante et descendante. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Les instances de calcul, les conteneurs et les fonctions fournissent des mécanismes d’élasticité, soit en combinaison avec l’autoscaling, soit en tant que fonctionnalité du service. Voici des exemples de mécanismes d’autoscaling :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_compute_hardware_scale_compute_resources_dynamically.html)
+  La mise à l’échelle est souvent abordée pour les services de calcul, tels que les instances Amazon EC2 ou les fonctions AWS Lambda. Assurez-vous également de prendre en compte la configuration des services non liés au calcul tels que [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/auto-scaling.html) pour répondre à la demande. 
+  Vérifiez que les métriques de mise à l’échelle correspondent aux caractéristiques de la charge de travail en cours de déploiement. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N’en faites pas votre métrique principale. Utilisez plutôt la profondeur de la file d’attente des tâches de transcodage. Le cas échéant, vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) pour votre politique de dimensionnement. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d’utilisation valide et décrire à quel point l’instance est occupée. 
  +  La valeur de métrique doit augmenter ou diminuer en proportion du nombre d’instances présentes dans le groupe Auto Scaling. 
+  Assurez-vous d’utiliser une mise à [l’échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) plutôt qu’une [mise à l’échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d’utiliser des [politiques de dimensionnement pour le suivi des cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) dans votre dimensionnement dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer les deux événements de mise à l’échelle (augmentation et diminution des charges de travail). Par exemple, vous pouvez utiliser [l’historique des activités pour vérifier une activité](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) de mise à l’échelle dans un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l’échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Avec la mise à l’échelle prédictive, vous pouvez supprimer le besoin de surprovisionner de la capacité. Pour en savoir plus, reportez-vous à [Mise à l’échelle prédictive pour Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Cloud Compute with AWS](https://aws.amazon.com/products/compute/) 
+  [Types d’instances Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs Amazon EKS : composant master Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle des états du processeur pour votre instance Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 
+  [Présentation approfondie d’Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 
+  [Présentation de Karpenter, un Cluster Autoscaler de Kubernetes hautement performant et open source](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 – AWS Graviton: The best price performance for your AWS workloads](https://www.youtube.com/watch?v=T_hMIjKtSr4) 
+  [AWS re:Invent 2023 – New Amazon EC2 generative AI capabilities in AWS Management Console](https://www.youtube.com/watch?v=sSpJ8tWCEiA) 
+  [AWS re:Invent 2023 – What’s new with Amazon EC2](https://www.youtube.com/watch?v=mjHw_wgJJ5g) 
+  [AWS re:Invent 2023 – Smart savings: Amazon EC2 cost-optimization strategies](https://www.youtube.com/watch?v=_AHPbxzIGV0) 
+  [AWS re:Invent 2021 – Powering next-gen Amazon EC2: Deep dive on the Nitro System](https://www.youtube.com/watch?v=2uc1vaEsPXU) 
+  [AWS re:Invent 2019 – Amazon EC2 foundations](https://www.youtube.com/watch?v=kMMybKqC2Y0) 

 **Exemples connexes :** 
+  [Exemples de groupes Amazon EC2 Auto Scaling](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Atelier Amazon EKS](https://www.eksworkshop.com/) 
+  [Mettez à l’échelle vos charges de travail Amazon EKS en les exécutant sur IPv6](https://catalog.us-east-1.prod.workshops.aws/workshops/3b06259f-8e17-4f2f-811a-75c9b06a2807/en-US) 

# PERF02-BP06 Utilisation d’accélérateurs de calcul matériels optimisés
<a name="perf_compute_hardware_compute_accelerators"></a>

 Utilisez des accélérateurs matériels pour exécuter certaines fonctions de manière plus efficace que les alternatives basées sur l’UC. 

 **Anti-modèles courants :** 
+  En ce qui concerne votre charge de travail, vous n’avez pas comparé une instance à usage général à une instance dédiée capable de fournir de meilleures performances à moindre coût. 
+  Vous utilisez des accélérateurs de calcul matériels pour les tâches qui peuvent être plus efficaces en utilisant des alternatives basées sur l’UC. 
+  Vous ne surveillez pas l’utilisation du GPU. 

**Avantages liés au respect de cette bonne pratique :** en utilisant des accélérateurs matériels, tels que des processeurs graphiques (GPU) et une matrice de portes programmables sur site (FPGA), vous pouvez exécuter certaines fonctions de traitement de manière plus efficace. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les instances de calcul accéléré donnent accès à des accélérateurs de calcul matériels tels que les GPU et les FPGA. Ces accélérateurs matériels exécutent certaines fonctions comme le traitement graphique ou la correspondance de modèles de données plus efficacement que les alternatives basées sur l’UC. De nombreuses charges de travail accélérées, telles que le rendu, le transcodage et le machine learning, sont très variables en matière d’utilisation des ressources. Exécutez ce matériel uniquement pendant le temps nécessaire et mettez-le hors service grâce à l’automatisation lorsque vous n’en avez plus besoin afin d’améliorer l’efficacité globale des performances. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Identifiez les [instances de calcul accéléré](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html) qui peuvent répondre à vos besoins. 
+  Pour les charges de travail de machine learning, tirez parti d’un matériel conçu spécialement pour votre charge de travail, par exemple [AWS Trainum](https://aws.amazon.com/machine-learning/trainium/), [AWS Inferentia](https://aws.amazon.com/machine-learning/inferentia/) et [Amazon EC2 DL1](https://aws.amazon.com/ec2/instance-types/dl1/). AWS Les instances Inferentia telles que les instances Inf2 [offrent des performances/watt jusqu’à 50 % supérieures à celles des instances Amazon EC2 comparables](https://aws.amazon.com/machine-learning/inferentia/). 
+  Collectez des métriques d’utilisation pour vos instances de calcul accéléré. Par exemple, vous pouvez utiliser l’agent CloudWatch pour collecter des métriques telles que `utilization_gpu` et `utilization_memory` pour vos GPU, comme indiqué dans [Collecter les métriques des GPU NVIDIA avec Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-Agent-NVIDIA-GPU.html). 
+  Optimisez le code, le fonctionnement du réseau et les paramètres des accélérateurs matériels pour veiller à ce que le matériel sous-jacent soit pleinement utilisé. 
  +  [Optimisation des paramètres GPU](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/optimize_gpu.html) 
  +  [Surveillance et optimisation des GPU dans l’AMI Deep Learning](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-gpu.html) 
  +  [Optimisation des E/S pour le réglage des performances de GPU pour l’entraînement du deep learning dans l'IA Amazon SageMaker](https://aws.amazon.com/blogs/machine-learning/optimizing-i-o-for-gpu-performance-tuning-of-deep-learning-training-in-amazon-sagemaker/) 
+  Utilisez les dernières bibliothèques performantes et les pilotes GPU. 
+  Utilisez l’automatisation pour libérer les instances GPU lorsqu’elles ne sont pas utilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Utilisation de GPU sur Amazon Elastic Container Service](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs-gpu.html) 
+  [instances GPU](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#gpu-instances) 
+  [Instances avec AWS Trainium](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-trainium-instances) 
+  [Instances avec AWS Inferentia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/accelerated-computing-instances.html#aws-inferentia-instances) 
+  [Passons à l’architecture \$1 Architecture avec des puces personnalisées et des accélérateurs](https://aws.amazon.com/blogs/architecture/lets-architect-custom-chips-and-accelerators/) 
+  [Calcul accéléré](https://aws.amazon.com/ec2/instance-types/#Accelerated_Computing) 
+  [Instances Amazon EC2 VT1](https://aws.amazon.com/ec2/instance-types/vt1/) 
+  [Comment choisir le type d’instance EC2 approprié pour mon application ?](https://aws.amazon.com/premiumsupport/knowledge-center/ec2-instance-choose-type-for-workload/) 
+  [Choix du meilleur accélérateur d’IA et de la meilleure compilation de modèles pour l’inférence de vision par ordinateur avec l'IA Amazon SageMaker](https://aws.amazon.com/blogs/machine-learning/choose-the-best-ai-accelerator-and-model-compilation-for-computer-vision-inference-with-amazon-sagemaker/) 

 **Vidéos connexes :** 
+  AWSre:Invent 2021 - [How to select Amazon Elastic Compute Cloud GPU instances for deep learning](https://www.youtube.com/watch?v=4bVrIbgGWEA&ab_channel=AWSEvents) 
+  [AWSre:INVENT 2022 - [NEW LAUNCH\$1] Introducing AWS Inferentia2-based Amazon EC2 Inf2 instances](https://www.youtube.com/watch?v=jpqiG02Y2H4&ab_channel=AWSEvents) 
+  [AWSre:Invent 2022 - Accelerate deep learning and innovate faster with AWS Trainium](https://www.youtube.com/watch?v=YRqvfNwqUIA&ab_channel=AWSEvents) 
+  [AWS re:Invent 2022 - Deep learning on AWS with NVIDIA: From training to deployment](https://www.youtube.com/watch?v=l8AFfaCkp0E&ab_channel=AWSEvents) 

 **Exemples connexes :** 
+  [IA Amazon SageMaker et NVIDIA GPU Cloud (NGC)](https://github.com/aws-samples/amazon-sagemaker-nvidia-ngc-examples) 
+  [Utilisation de l'IA SageMaker avec Trainium et Inferentia pour optimiser les charges de travail d’inférence et d'entraînement du deep learning](https://github.com/aws-samples/sagemaker-trainium-inferentia) 
+  [Optimisation des modèles NLP avec les instances Amazon Elastic Compute Cloud Inf1 dans l'IA Amazon SageMaker](https://github.com/aws-samples/aws-inferentia-huggingface-workshop) 