

# PERF 2  Comment sélectionner votre solution de calcul ?
<a name="w2aac19c11b5b7"></a>

La solution de calcul optimale pour une charge de travail peut varier en fonction des trois facteurs suivants : la conception de l'application, les modèles d'utilisation et les paramètres de configuration. Les architectures peuvent utiliser différentes solutions de calcul pour divers composants et activer différentes fonctions pour améliorer les performances. La sélection d'une solution de calcul inadaptée à une architecture peut nuire à ses performances.

**Topics**
+ [PERF02-BP01 Évaluer les options de calcul disponible](perf_select_compute_evaluate_options.md)
+ [PERF02-BP02 Comprendre les options de configuration de calcul disponibles](perf_select_compute_config_options.md)
+ [PERF02-BP03 Collecter les métriques liées au calcul](perf_select_compute_collect_metrics.md)
+ [PERF02-BP04 Déterminer la configuration requise grâce au dimensionnement](perf_select_compute_right_sizing.md)
+ [PERF02-BP05 Utiliser l'élasticité des ressources disponible](perf_select_compute_elasticity.md)
+ [PERF02-BP06 Réévaluer les besoins de calcul en fonction des métriques](perf_select_compute_use_metrics.md)

# PERF02-BP01 Évaluer les options de calcul disponible
<a name="perf_select_compute_evaluate_options"></a>

 Découvrez comment votre charge de travail peut bénéficier de l'utilisation de différentes options de calcul, telles que des instances, des conteneurs et des fonctions. 

 **Résultat souhaité :** En comprenant toutes les options de calcul disponibles, vous saurez identifier les opportunités permettant d'augmenter les performances, de réduire les coûts d'infrastructure inutiles et de réduire l'effort opérationnel requis pour gérer votre charge de travail. Vous pouvez également accélérer votre délai de mise sur le marché pour ce qui concerne le déploiement de nouveaux services et fonctions. 

 **Anti-modèles courants :** 
+  Dans une charge de travail post-migration, vous utilisez la même solution de calcul que celle utilisée sur site. 
+  Vous manquez de connaissances sur les solutions de calcul cloud et sur la manière dont elles pourraient améliorer vos performances de calcul. 
+  Vous surdimensionnez une solution de calcul existante pour répondre aux exigences d'évolutivité ou de performances, alors qu'une autre solution de calcul s'alignerait plus précisément sur les caractéristiques de votre charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** En identifiant les besoins en calcul et en évaluant les solutions de calcul disponibles, les parties prenantes et les équipes d'ingénierie identifieraient les avantages et les limites liés à l'utilisation de la solution de calcul sélectionnée. La solution de calcul sélectionnée doit correspondre aux critères de performances de la charge de travail. Les critères clés incluent les besoins de traitement, les modèles de trafic, les modèles d'accès aux données, les besoins de mise à l'échelle et les exigences de latence. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Familiarisez-vous avec les solutions de virtualisation, de conteneurisation et de gestion qui peuvent bénéficier à votre charge de travail et répondre à vos exigences de performances. Une charge de travail peut contenir plusieurs types de solutions de calcul. Chaque solution de calcul a des caractéristiques différentes. En fonction de l'échelle de votre charge de travail et des exigences de calcul, une solution de calcul peut être sélectionnée et configurée pour répondre à vos besoins. L'architecte cloud doit connaître les avantages et les inconvénients des instances, des conteneurs et des fonctions. Les étapes suivantes vous aideront à sélectionner votre solution de calcul en fonction des caractéristiques de votre charge de travail et de vos exigences de performances. 


|  **Type**  |  **Serveur**  |  **Conteneurs**  |  **Fonction**  | 
| --- | --- | --- | --- | 
|  Service AWS  |  Les instances de serveur virtuel Amazon Elastic Compute Cloud (Amazon EC2)  |  Amazon Elastic Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS)  |  AWS Lambda  | 
|  Caractéristiques clés  |  Possède une option dédiée pour les exigences de licence matérielle, les options de placement et une large sélection de différentes familles d'instances basées sur des métriques de calcul  |  Déploiement facile, environnements cohérents, exécution sur des instances EC2, évolutivité  |  Courte durée d'exécution (15 minutes ou moins), la mémoire maximale et le processeur ne sont pas aussi élevés que les autres services, couche matérielle gérée, s'adapte à des millions de demandes simultanées  | 
|  Cas d'utilisation courants  |  Migration « lift-and-shift », application monolithique, environnements hybrides, applications d'entreprise  |  Microservices, environnements hybrides  |  Microservices, applications basées sur les événements  | 

 

 **Étapes d'implémentation :** 

1.  Sélectionnez l'emplacement où la solution de calcul doit résider en évaluant [PERF05-BP06 Choisir l'emplacement de votre charge de travail en fonction des exigences réseau](perf_select_network_location.md). Cet emplacement limite les types de solutions de calcul à votre disposition. 

1.  Identifier le type de solution de calcul qui fonctionne avec les exigences liées à l'emplacement et à l'application  

   1.  [https://aws.amazon.com/ec2/](https://aws.amazon.com/ec2/) Les instances de serveur virtuel sont disponibles dans diverses familles et tailles. Elles proposent un large éventail de fonctionnalités, y compris des disques SSD et des unités de traitement graphique (GPU). Les instances EC2 offrent la plus grande flexibilité en matière de choix des instances. Lorsque vous lancez une instance EC2, le type d'instance que vous spécifiez détermine le matériel de votre instance. Chaque type d'instance propose différentes capacités de calcul, de mémoire et de stockage. Les types d'instance sont regroupés en familles d'instances en fonction de ces capacités. Les cas d'utilisation typiques incluent : l'exécution d'applications d'entreprise, le calcul haute performance (HPC), l'entraînement et le déploiement d'applications de machine learning et l'exécution d'applications cloud natives. 

   1.  [https://aws.amazon.com/ecs/](https://aws.amazon.com/ecs/) est un service d'orchestration de conteneurs entièrement géré qui vous permet d'exécuter et de gérer automatiquement des conteneurs sur un cluster d'instances EC2 ou d'instances sans serveur à l'aide d'AWS Fargate. Vous pouvez utiliser Amazon ECS avec d'autres services comme Amazon Route 53, Secrets Manager, Gestion des identités et des accès AWS (IAM) et Amazon CloudWatch. Amazon ECS est recommandé si votre application est conteneurisée et que votre équipe d'ingénieurs préfère les conteneurs Docker. 

   1.  [https://aws.amazon.com/eks/](https://aws.amazon.com/eks/) est un service Kubernetes entièrement géré. Vous pouvez choisir d'exécuter vos clusters EKS à l'aide d'AWS Fargate et éviter ainsi d'avoir à mettre en service et à gérer les serveurs. La gestion d'Amazon EKS est simplifiée grâce aux intégrations avec AWS Services, tels qu'Amazon CloudWatch, les groupes groupe Auto Scaling, Gestion des identités et des accès AWS (IAM) et Amazon Virtual Private Cloud (VPC). Lorsque vous utilisez des conteneurs, vous devez utiliser des métriques de calcul pour sélectionner le type optimal pour votre charge de travail, de la même manière que vous utilisez des métriques de calcul pour sélectionner vos types d'instance EC2 ou AWS Fargate. Amazon EKS est recommandé si votre application est conteneurisée et que votre équipe d'ingénieurs préfère Kubernetes aux conteneurs Docker. 

   1.  Vous pouvez utiliser [https://aws.amazon.com/lambda/](https://aws.amazon.com/lambda/) pour exécuter du code prenant en charge les options d'exécution, de mémoire et de processeur autorisées. Il suffit de charger votre code pour qu'AWS Lambda gère tout ce qui est nécessaire à son exécution et à sa mise à l'échelle. Vous pouvez configurer votre code pour qu'il se déclenche automatiquement à partir d'autres services AWS ou l'appeler directement. Lambda est recommandé pour les architectures de microservices à court terme développées pour le cloud.  

1.  Après avoir testé votre nouvelle solution de calcul, planifiez votre migration et validez vos métriques de performance. Il s'agit d'un processus continu, voir [PERF02-BP04 Déterminer la configuration requise grâce au dimensionnement](perf_select_compute_right_sizing.md). 

 **Niveau d'effort du plan d'implémentation :** Si une charge de travail passe d'une solution de calcul à une autre, il peut y avoir un niveau d'effort *modéré* lors de la refactorisation de l'application.   

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Types d'instances EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Contrôle de l'état du processeur pour votre instance EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Conteneurs EKS : nœuds de travail EKS ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 
+  [Conseils prescriptifs pour les conteneurs](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23containers&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 
+  [Conseils prescriptifs pour les modèles sans serveur](https://aws.amazon.com/prescriptive-guidance/?apg-all-cards.sort-by=item.additionalFields.sortText&apg-all-cards.sort-order=desc&awsf.apg-new-filter=*all&awsf.apg-content-type-filter=*all&awsf.apg-code-filter=*all&awsf.apg-category-filter=categories%23serverless&awsf.apg-rtype-filter=*all&awsf.apg-isv-filter=*all&awsf.apg-product-filter=*all&awsf.apg-env-filter=*all) 

 **Vidéos connexes :** 
+  [Comment choisir l'option de calcul pour les startups](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Amazon EC2 foundations (CMP211-R2) ](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Deliver high-performance ML inference with AWS Inferentia (CMP324-R1) ](https://www.youtube.com/watch?v=17r1EapAxpk&ref=wellarchitected) 
+  [Better, faster, cheaper compute: Cost-optimizing Amazon EC2 (CMP202-R1) ](https://www.youtube.com/watch?v=_dvh4P2FVbw&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Migrer l'application Web vers des conteneurs](https://application-migration-with-aws.workshop.aws/en/container-migration.html) 
+  [Exécuter un modèle Hello World sans serveur](https://aws.amazon.com/getting-started/hands-on/run-serverless-code/) 

# PERF02-BP02 Comprendre les options de configuration de calcul disponibles
<a name="perf_select_compute_config_options"></a>

 Chaque solution de calcul propose des options et des configurations pour prendre en charge les caractéristiques de votre charge de travail. Vous devez savoir comment les différentes options soutiennent votre charge de travail et connaître celles qui sont optimales pour votre système. Parmi ces options, citons, par exemple) la famille d'instances, les tailles, les fonctionnalités (GPU, E/S), la capacité de débordement (bursting), les délais d'attente, les tailles de fonction, les instances de conteneur et la simultanéité. 

 **Résultat souhaité :** Les caractéristiques de la charge de travail, notamment le processeur, la mémoire, le débit réseau, le processeur graphique, les IOPS, les modèles de trafic et les modèles d'accès aux données, sont documentées et utilisées pour configurer la solution de calcul afin qu'elle corresponde aux caractéristiques de la charge de travail. Chacune de ces métriques ainsi que des métriques personnalisées spécifiques à votre charge de travail sont enregistrées, surveillées, puis exploitées pour optimiser la configuration de calcul afin de répondre au mieux aux exigences. 

 **Anti-modèles courants :** 
+  Vous utilisez la même solution de calcul que celle utilisée sur site. 
+  Vous ne vérifiez pas que les options de calcul ou la famille d'instances correspondent aux caractéristiques de la charge de travail. 
+  Vous surdimensionnez le calcul pour garantir une capacité de débordement (bursting). 
+  Vous utilisez plusieurs plateformes de gestion de calcul pour la même charge de travail. 

** Avantages liés au respect de cette bonne pratique :** Connaître les offres de calcul AWS afin de pouvoir identifier la solution la plus adaptée à chacune de vos charges de travail. Après la sélection des offres de calcul pour votre charge de travail, vous pouvez rapidement les tester pour déterminer si elles répondent aux besoins de vos charges de travail. Une solution de calcul optimisée pour répondre aux caractéristiques de votre charge de travail accroît les performances, réduit les coûts et renforce la fiabilité.

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Si votre charge de travail utilise la même option de calcul depuis plus de quatre semaines et que vous anticipez que les caractéristiques resteront les mêmes à l'avenir, vous pouvez utiliser [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) pour recevoir une recommandation basée sur vos caractéristiques de calcul. Si Optimiseur de calcul AWS n'est pas une option en raison du manque de métriques, [un type d'instance non pris en charge](https://docs.aws.amazon.com/compute-optimizer/latest/ug/requirements.html#requirements-ec2-instances) ou un changement prévisible de vos caractéristiques, vous devrez prédire vos métriques en vous basant sur des tests de charge et des expérimentations.  

 **Étapes d'implémentation :** 

1.  Exécutez-vous des instances EC2 ou des conteneurs avec le type de lancement EC2 ? 

   1.  Votre charge de travail peut-elle utiliser des GPU pour augmenter les performances ? 

      1.  [Calcul accéléré](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Accelerated_Computing) Les instances de calcul accéléré sont des instances basées sur GPU qui offrent des performances optimales pour l'entraînement du machine learning, l'inférence et le calcul haute performance. 

   1.  Votre charge de travail exécute-t-elle des applications d'inférence de machine learning ? 

      1.  [AWS Inferentia (Inf1)](https://aws.amazon.com/ec2/instance-types/inf1/) — Les instances Inf1 sont conçues pour prendre en charge les applications d'inférence de machine learning. En utilisant des instances Inf1, les clients peuvent exécuter à grande échelle des applications d'inférence de machine learning telles que la reconnaissance des images, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes. Vous pouvez créer un modèle dans l'un des frameworks de machine learning les plus courants tels que TensorFlow, PyTorch ou MXNet, et utiliser des instances GPU pour entraîner votre modèle. Une fois que votre modèle de machine learning a été entraîné pour répondre à vos besoins, vous pouvez déployer votre modèle sur des instances Inf1 en utilisant [AWS Neuron](https://aws.amazon.com/machine-learning/neuron/)est un kit de développement logiciel (kit SDK) spécialisé composé d'un compilateur, d'un environnement d'exécution et d'outils de profilage qui optimisent les performances d'inférence de machine learning des puces Inferentia. 

   1.  Votre charge de travail s'intègre-t-elle au matériel de bas niveau pour améliorer les performances ?  

      1.  [Circuits logiques programmables (FPGA)](https://aws.amazon.com/ec2/instance-types/f1/) — Avec les FPGA, vous pouvez optimiser vos charges de travail en bénéficiant d'une exécution à accélération matérielle personnalisée pour vos charges de travail les plus exigeantes. Vous pouvez définir vos algorithmes en exploitant des langages de programmation à usage général pris en charge, comme C ou Go, ou des langages orientés matériel comme Verilog ou VHDL. 

   1.  Disposez-vous d'au moins quatre semaines de métriques et pouvez-vous prédire que votre modèle de trafic et vos métriques resteront à peu près les mêmes à l'avenir ? 

      1.  Utilisez [Compute Optimizer](https://aws.amazon.com/compute-optimizer/) pour recevoir une recommandation de machine learning sur la configuration de calcul qui correspond le mieux à vos caractéristiques de calcul. 

   1.  Les performances de votre charge de travail sont-elles limitées par les métriques du processeur ?  

      1.  [Les instances optimisées pour le calcul](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Compute_Optimized) sont idéales pour les charges de travail nécessitant des processeurs hautes performances.  

   1.  Les performances de votre charge de travail sont-elles limitées par les métriques de la mémoire ?  

      1.  [Les instances optimisées pour la mémoire](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Memory_Optimized) offrent de grandes quantités de mémoire pour soutenir les charges de travail gourmandes en mémoire. 

   1.  Les performances de votre charge de travail sont-elles limitées par les IOPS ? 

      1.  [Les instances optimisées pour le stockage](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Storage_Optimized) sont conçues pour les charges de travail nécessitant un accès séquentiel élevé en lecture et en écriture (IOPS) au stockage local. 

   1.  Les caractéristiques de votre charge de travail représentent-elles un besoin équilibré pour toutes les métriques ? 

      1.  Le processeur de votre charge de travail doit-il fonctionner en débordement (mode bursting) pour gérer les pics de trafic ? 

         1.  [Les instances de performance à capacité extensible](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#Instance_Features) sont similaires aux instances optimisées pour le calcul, sauf qu'elles offrent la possibilité de dépasser le point de référence de base fixe du processeur identifié dans une instance optimisée pour le calcul. 

      1.  [Polyvalent](https://aws.amazon.com/ec2/instance-types/?trk=36c6da98-7b20-48fa-8225-4784bced9843&sc_channel=ps&sc_campaign=acquisition&sc_medium=ACQ-P|PS-GO|Brand|Desktop|SU|Compute|EC2|US|EN|Text&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types&ef_id=CjwKCAjwiuuRBhBvEiwAFXKaNNRXM5FrnFg5H8RGQ4bQKuUuK1rYWmU2iH-5H3VZPqEheB-pEm-GNBoCdD0QAvD_BwE:G:s&s_kwcid=AL!4422!3!536392622533!e!!g!!ec2%20instance%20types#General_Purpose) Les instances à usage général fournissent un juste milieu entre toutes les caractéristiques afin de permettre l'exécution d'une variété de charges de travail. 

   1.  Votre instance de calcul s'exécute-t-elle sous Linux et est-elle limitée par le débit réseau sur la carte d'interface réseau ? 

      1.  Vérifiez. [la question de performance 5, bonne pratique 2 : évaluation des fonctionnalités de mise en réseau disponibles](https://docs.aws.amazon.com/wellarchitected/latest/performance-efficiency-pillar/network-architecture-selection.html) pour trouver le type d'instance et la famille les plus adaptés à vos besoins de performances. 

   1.  Votre charge de travail nécessite-t-elle des instances cohérentes et prévisibles dans une zone de disponibilité spécifique sur laquelle vous pouvez vous engager pendant un an ?  

      1.  [Instances réservées](https://aws.amazon.com/ec2/pricing/reserved-instances/) Les instances réservées vous permettent de confirmer les réservations de capacité dans une zone de disponibilité spécifique. Les instances réservées sont idéales pour la puissance de calcul requise dans une zone de disponibilité spécifique.  

   1.  Votre charge de travail a-t-elle des licences qui nécessitent du matériel dédié ? 

      1.  [Hôtes dédiés](https://aws.amazon.com/ec2/dedicated-hosts/) Les hôtes dédiés prennent en charge les licences logicielles existantes et vous aident à respecter les exigences de conformité. 

   1.  Votre solution de calcul fonctionne-t-elle en débordement (mode bursting) et nécessite-t-elle un traitement synchrone ? 

      1.  [Instances à la demande](https://aws.amazon.com/ec2/pricing/on-demand/) Les instances à la demande vous permettent d'utiliser la capacité de calcul à l'heure ou à la seconde sans engagement à long terme. Ces instances sont idéales pour dépasser les besoins de base en matière de performances. 

   1.  Votre solution de calcul est-elle sans état, tolérante aux pannes et asynchrone ?  

      1.  [Instances Spot](https://aws.amazon.com/ec2/spot/) Les instances Spot vous permettent de tirer parti de la capacité d'instance inutilisée pour vos charges de travail sans état et tolérantes aux pannes.  

1.  Exécutez-vous des conteneurs sur [Fargate](https://aws.amazon.com/fargate/)? 

   1.  Les performances de vos tâches sont-elles limitées par la mémoire ou le processeur ? 

      1.  Utilisez la boîte à outils [Taille de la tâche](https://docs.aws.amazon.com/AmazonECS/latest/bestpracticesguide/capacity-tasksize.html) pour ajuster la mémoire ou le processeur. 

   1.  Vos performances sont-elles affectées par vos pics de trafic ? 

      1.  Utilisez la boîte à outils [Auto Scaling](https://docs.aws.amazon.com/AmazonECS/latest/bestpracticesguide/capacity-autoscaling.html) configuration Auto Scaling pour correspondre à vos modèles de trafic. 

1.  Votre solution de calcul est-elle sur [Lambda](https://docs.aws.amazon.com/lambda/latest/dg/gettingstarted-features.html)? 

   1.  Disposez-vous d'au moins quatre semaines de métriques et pouvez-vous prédire que votre modèle de trafic et vos métriques resteront à peu près les mêmes à l'avenir ? 

      1.  Utilisez [Compute Optimizer](https://aws.amazon.com/compute-optimizer/) pour recevoir une recommandation de machine learning sur la configuration de calcul qui correspond le mieux à vos caractéristiques de calcul. 

   1.  N'avez-vous pas assez de métriques pour utiliser Optimiseur de calcul AWS ? 

      1.  Si vous n'avez pas de métriques disponibles pour utiliser Compute Optimizer, optez pour [AWS Lambda Power Tuning](https://docs.aws.amazon.com/lambda/latest/operatorguide/profile-functions.html) pour vous aider à choisir la meilleure configuration. 

   1.  Les performances de votre fonction sont-elles limitées par la mémoire ou le processeur ? 

      1.  Configurez la [mémoire Lambda](https://docs.aws.amazon.com/lambda/latest/dg/configuration-function-common.html#configuration-memory-console) pour répondre à vos besoins de performance. 

   1.  Votre fonction expire-t-elle lors de l'exécution ? 

      1.  Modifiez les [paramètres d'expiration.](https://docs.aws.amazon.com/lambda/latest/dg/configuration-function-common.html) 

   1.  Les performances de votre fonction sont-elles limitées par des pics d'activité et la simultanéité ?  

      1.  Configurez les [paramètres de simultanéité](https://docs.aws.amazon.com/lambda/latest/dg/configuration-concurrency.html) pour répondre à vos besoins de performance. 

   1.  Votre fonction s'exécute-t-elle de manière asynchrone et échoue-t-elle lors des tentatives ? 

      1.  Configurez l'ancienneté maximale de l'événement et la limite maximale de nouvelles tentatives dans les [paramètres de configuration](https://docs.aws.amazon.com/lambda/latest/dg/invocation-async.html) asynchrone. 

## Niveau d'effort du plan d'implémentation : 
<a name="level-of-effort-for-the-implementation-plan-to-establish-this-best-practice-you-must-be-aware-of-your-current-compute-characteristics-and-metrics.-gathering-those-metrics-establishing-a-baseline-and-then-using-those-metrics-to-identify-the-ideal-compute-option-is-a-low-to-moderate-level-of-effort.-this-is-best-validated-by-load-tests-and-experimentation."></a>

Pour respecter cette bonne pratique, vous devez connaître vos caractéristiques et métriques de calcul actuelles. La collecte de ces métriques, l'établissement d'un point de référence, puis l'utilisation de ces métriques pour identifier l'option de calcul idéale indique un niveau d'effort *faible* to *modéré* . La validation par des tests de charge et des expérimentations est conseillée. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) 
+  [Types d'instances EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html?ref=wellarchitected) 
+  [Contrôle de l'état du processeur pour votre instance EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html?ref=wellarchitected) 
+  [Conteneurs EKS : nœuds de travail EKS ](https://docs.aws.amazon.com/eks/latest/userguide/worker.html?ref=wellarchitected) 
+  [Conteneurs Amazon ECS : instances de conteneur Amazon Amazon ECS ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html?ref=wellarchitected) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html?ref=wellarchitected#function-configuration) 

 **Vidéos connexes :** 
+  [Amazon EC2 foundations (CMP211-R2) ](https://www.youtube.com/watch?v=kMMybKqC2Y0&ref=wellarchitected) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system ](https://www.youtube.com/watch?v=rUY-00yFlE4&ref=wellarchitected) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1) ](https://www.youtube.com/watch?v=zt6jYJLK8sg&ref=wellarchitected) 

 **Exemples connexes :** 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP03 Collecter les métriques liées au calcul
<a name="perf_select_compute_collect_metrics"></a>

Pour comprendre les performances de vos systèmes de calcul, vous devez enregistrer et suivre l'utilisation de divers systèmes. Ces données peuvent être utilisées pour évaluer les besoins en ressources avec plus de précision.  

 Les charges de travail peuvent générer de gros volumes de données telles que des métriques, des journaux et des événements. Déterminez si votre service de stockage, de surveillance et d'observabilité existant peut gérer les données générées. Identifiez les métriques qui reflètent l'utilisation des ressources et qui peuvent être collectées, agrégées et corrélées sur une seule plateforme. Ces mesures devraient représenter toutes vos ressources de charge de travail, applications et services, afin que vous ayez une visibilité optimale à l'échelle du système et que vous puissiez identifier rapidement les améliorations possibles des performances et les problèmes.

 **Résultat souhaité :** Toutes les métriques relatives aux ressources liées au calcul sont identifiées, collectées, agrégées et corrélées sur une plateforme unique avec la mise en œuvre de la rétention afin de soutenir les objectifs de coût et opérationnels. 

 **Anti-modèles courants :** 
+  Vous utilisez uniquement la recherche manuelle des fichiers journaux pour les métriques.  
+  Vous publiez des métriques uniquement dans des outils internes. 
+  Vous n'utilisez que les métriques par défaut enregistrées par le logiciel de surveillance que vous avez sélectionné. 
+  Vous n'examinez les métriques qu'en cas de problème. 

 

 **Avantages liés au respect de cette bonne pratique :** L'enregistrement de plusieurs métriques de performance sur une période donnée est nécessaire pour la surveillance des performances de vos charges de travail. Ces métriques permettent de détecter les anomalies de performances. Elles vous aident également à comparer les performances par rapport aux métriques de l'entreprise pour vous assurer que vous répondez aux besoins de votre charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Identifiez, collectez, agrégez et corrélez les métriques liées au calcul. L'utilisation d'un service comme Amazon CloudWatch peut accélérer la mise en œuvre et en faciliter la gestion. En plus des métriques par défaut enregistrées, identifiez et suivez des métriques supplémentaires au niveau du système dans votre charge de travail. Enregistrez des données telles que l'utilisation du processeur, la mémoire, les E/S de disque et les métriques entrantes et sortantes du réseau, pour obtenir des informations sur les niveaux d'utilisation ou les goulets d'étranglement. Ces données sont essentielles pour comprendre à la fois les performances de la charge de travail et l'utilisation de la solution de calcul. Utilisez ces métriques dans le cadre d'une approche fondée sur les données pour ajuster activement et optimiser les ressources de votre charge de travail.  

 **Étapes d'implémentation :** 

1.  Quelles sont les métriques de la solution de calcul à suivre ? 

   1.  [Métriques EC2 par défaut](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/viewing_metrics_with_cloudwatch.html) 

   1.  [Métriques Amazon ECS par défaut](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cloudwatch-metrics.html) 

   1.  [Métriques EKS par défaut](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/kubernetes-eks-metrics.html) 

   1.  [Métriques Lambda par défaut](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-access-metrics.html) 

   1.  [Métriques de mémoire et de disque EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/mon-scripts.html) 

1.  Une solution de journalisation et de surveillance approuvée est-elle actuellement à ma disposition ? 

   1.  [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) 

   1.  [AWS Distro for OpenTelemetry](https://aws.amazon.com/otel/) 

   1.  [Amazon Managed Service for Prometheus](https://docs.aws.amazon.com/grafana/latest/userguide/prometheus-data-source.html) 

1.  Est-ce que j'ai identifié et configuré mes politiques de conservation des données pour qu'elles correspondent à mes objectifs de sécurité et d'exploitation ? 

   1.  [Métriques de conservation des données pour CloudWatch](https://aws.amazon.com/cloudwatch/faqs/#AWS_resource_.26_custom_metrics_monitoring) 

   1.  [Conservation des données pour CloudWatch Logs](https://aws.amazon.com/cloudwatch/faqs/#Log_management) 

1.  Comment déployez-vous vos agents d'agrégation de métriques et de journaux ? 

   1.  [Automatisation AWS Systems Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/systems-manager-automation.html?ref=wellarchitected) 

   1.  [Collecteur OpenTelemetry](https://aws-otel.github.io/docs/getting-started/collector) 

 **Niveau d'effort du plan d'implémentation : **Il existe un niveau d'effort *moyen* pour identifier, suivre, collecter, agréger et corréler les métriques de toutes les ressources de calcul. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Documentation Amazon CloudWatch](https://docs.aws.amazon.com/cloudwatch/index.html?ref=wellarchitected) 
+  [Collecte des métriques et des journaux des instances Amazon EC2 et serveurs sur site avec l'agent CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html?ref=wellarchitected) 
+  [Accès à Amazon CloudWatch Logs pour AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/monitoring-functions-logs.html?ref=wellarchitected) 
+  [Utiliser CloudWatch Logs avec des instances de conteneur](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/using_cloudwatch_logs.html?ref=wellarchitected) 
+  [Publier des métriques personnalisées](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html?ref=wellarchitected) 
+  [AWS Answers : journalisation centralisée](https://aws.amazon.com/answers/logging/centralized-logging/?ref=wellarchitected) 
+  [Services AWS publiant des métriques CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CW_Support_For_AWS.html?ref=wellarchitected) 
+  [Surveillance d'Amazon EKS sur AWS Fargate](https://aws.amazon.com/blogs/containers/monitoring-amazon-eks-on-aws-fargate-using-prometheus-and-grafana/) 

 

 **Vidéos connexes :** 
+  [Application Performance Management on AWS](https://www.youtube.com/watch?v=5T4stR-HFas&ref=wellarchitected) 
+  [Élaborer un plan de surveillance](https://www.youtube.com/watch?v=OMmiGETJpfU&ref=wellarchitected) 

 

 **Exemples connexes :** 
+  [Niveau 100 : surveillance avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_with_cloudwatch_dashboards/) 
+  [Niveau 100 : surveillance d'une instance Windows EC2 avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_windows_ec2_cloudwatch/) 
+  [Niveau 100 : surveillance d'une instance Amazon Linux EC2 avec les tableaux de bord CloudWatch](https://wellarchitectedlabs.com/performance-efficiency/100_labs/100_monitoring_linux_ec2_cloudwatch/) 

# PERF02-BP04 Déterminer la configuration requise grâce au dimensionnement
<a name="perf_select_compute_right_sizing"></a>

 Analysez les différentes caractéristiques de performances de votre charge de travail et la façon dont ces caractéristiques se rapportent à la mémoire, au réseau et à l'utilisation du processeur. Utilisez ces données pour choisir les ressources qui correspondent le mieux au profil de votre charge de travail. Par exemple, une charge de travail gourmande en mémoire, telle qu'une base de données, peut être mieux servie par la famille d'instances r. Toutefois, une charge de travail soumise à des pics d'utilisation peut tirer davantage profit d'un système de conteneurs Elastic. 

 **Anti-modèles courants :** 
+  Vous choisissez la plus grande instance disponible pour toutes les charges de travail. 
+  Vous standardisez tous les types d'instances en un seul type pour une gestion aisée. 

 **Avantages liés au respect de cette bonne pratique :** Une bonne connaissance des offres de calcul AWS vous aidera à identifier la solution appropriée pour vos différentes charges de travail. Une fois que vous aurez sélectionné les différentes offres de calcul pour votre charge de travail, vous aurez l'agilité nécessaire pour tester rapidement ces offres de calcul afin d'identifier celles qui répondent aux besoins de votre charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyenne entreprise 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Modifier la configuration de votre charge de travail grâce au dimensionnement : pour l'optimisation des performances et l'efficacité globale, commencez par identifier les ressources dont votre charge de travail a besoin. Choisissez des instances optimisées pour la mémoire pour les systèmes qui requièrent plus de mémoire que de processeur. Vous pouvez également choisir des instances optimisées pour le calcul pour les composants qui effectuent un traitement de données peu gourmand en mémoire. Le choix de la bonne taille permet à votre charge de travail de fonctionner le mieux possible tout en utilisant seulement la quantité de ressources nécessaires. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/)  
+  [Calcul sur le cloud avec AWS](https://aws.amazon.com/products/compute/) 
+  [Types d'instances EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs EKS : composants master EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle de l'état du processeur pour votre instance EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Vidéos connexes :** 
+  [Amazon EC2 foundations (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Better, faster, cheaper compute: Cost-optimizing Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Deliver high performance ML inference with AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system](https://www.youtube.com/watch?v=rUY-00yFlE4) 
+  [Comment choisir l'option de calcul pour les startups](https://aws.amazon.com/startups/start-building/how-to-choose-compute-option/) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 

 **Exemples connexes :** 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 

# PERF02-BP05 Utiliser l'élasticité des ressources disponible
<a name="perf_select_compute_elasticity"></a>

 Le cloud vous apporte la flexibilité dont vous avez besoin pour développer ou réduire vos ressources de manière dynamique via une grande variété de mécanismes afin de répondre aux fluctuations de la demande. En prenant en compte les métriques liées au calcul, vous pouvez faire en sorte qu'une charge de travail réagisse automatiquement à ces fluctuations et utilise les ressources optimales pour atteindre son objectif. 

 L'équilibre optimal de l'offre et de la demande donne lieu aux coûts les plus bas pour une charge de travail, mais vous devez également planifier une offre suffisante pour compenser les délais de mise en service et les panne de ressources individuelles. La demande peut être fixe ou variable, et nécessiter des métriques et des automatisations afin de s'assurer que la gestion ne devient pas un coût important et disproportionné. 

 Dans AWS, vous pouvez utiliser plusieurs approches pour adapter l'offre à la demande. Le livre blanc Pilier Optimisation des coûts décrit comment utiliser les approches suivantes en matière de coût : 
+  Approche basée sur la demande 
+  Approche basée sur la mise en attente 
+  Approche basée sur le temps 

 Vous devez vous assurer que les déploiements de charge de travail peuvent gérer les événements de mise à l'échelle ascendante et descendante. Créez des scénarios de test pour les événements de diminution de charge de travail afin de vous assurer que cette dernière se comporte comme prévu. 

 **Anti-modèles courants :** 
+  Vous réagissez aux alertes en augmentant manuellement la capacité. 
+  Vous conservez une capacité accrue après un événement de mise à l'échelle au lieu de la réduire. 

 **Avantages liés au respect de cette bonne pratique :** La configuration et le test de l'élasticité de la charge de travail permettent de réaliser des économies, de gérer des points de référence des performances et d'améliorer la fiabilité à mesure que le trafic change. La plupart des instances non liées à la production devraient être arrêtées lorsqu'elles ne sont pas utilisées. Quoique possible, l'arrêt manuel des instances inutilisées n'est pas pratique à des échelles plus importantes. Vous pouvez également tirer parti de l'élasticité basée sur le volume, qui vous permet d'optimiser les performances et les coûts en augmentant automatiquement le nombre d'instances de calcul pendant les pics de demande et en réduisant la capacité lorsque la demande diminue. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyenne entreprise 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Tirer parti de l'élasticité : l'élasticité fait référence aux ressources disponibles par rapport à la demande pour ces ressources. Les instances, les conteneurs et les fonctions fournissent les mécanismes pour l'élasticité soit en combinaison avec la mise à l'échelle automatique, soit en tant que fonction du service. Utilisez l'élasticité dans votre architecture afin de vous assurer que vous disposez d'une capacité suffisante pour répondre aux exigences de performances à toutes les échelles d'utilisation. Assurez-vous que les métriques de l'augmentation ou de la diminution des ressources Elastic sont validées par rapport au type de charge de travail déployée. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N'en faites pas votre métrique principale. Une alternative consiste à mesurer la longueur de la file d'attente des tâches de transcodage en attente pour mettre à l'échelle vos types d'instances. Assurez-vous que les déploiements de charges de travail peuvent gérer à la fois les événements d'augmentation ou de diminution des charges de travail. Il est aussi essentiel de diminuer les composants de charges de travail en toute sécurité que d'augmenter les ressources lorsque la demande l'exige. Créez des scénarios de test pour les événements de diminution de charge de travail afin de vous assurer que cette dernière se comporte comme prévu. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS](https://aws.amazon.com/products/compute/) 
+  [Types d'instances EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs EKS : composants master EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle de l'état du processeur pour votre instance EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Vidéos connexes :** 
+  [Amazon EC2 foundations (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Better, faster, cheaper compute: Cost-optimizing Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Deliver high performance ML inference with AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system](https://www.youtube.com/watch?v=rUY-00yFlE4) 

 **Exemples connexes :** 
+  [Exemples de groupes Amazon EC2 Auto Scaling](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Tutoriels Amazon EFS](https://github.com/aws-samples/amazon-efs-tutorial) 

# PERF02-BP06 Réévaluer les besoins de calcul en fonction des métriques
<a name="perf_select_compute_use_metrics"></a>

 Utilisez les métriques au niveau du système pour identifier le comportement et les exigences de votre charge de travail au fil du temps. Évaluez les besoins de votre charge de travail en comparant les ressources disponibles avec ces exigences et apportez des modifications à votre environnement de calcul pour le faire mieux correspondre au profil de votre charge de travail. Par exemple, au fil du temps, on peut observer chez un système une utilisation plus intensive de la mémoire qu'initialement prévue. Dans ces conditions, le passage à une autre famille ou taille d'instances peut améliorer les performances et l'efficacité. 

 **Anti-modèles courants :** 
+  Vous surveillez uniquement les métriques au niveau du système pour obtenir des informations sur votre charge de travail. 
+  Vous concevez l'architecture de vos besoins de calcul de sorte à répondre aux pics de charges de travail. 
+  Vous surdimensionnez la solution de calcul pour répondre aux exigences de mise à l'échelle ou de performances alors que l'utilisation d'une nouvelle solution de calcul correspondrait aux caractéristiques de votre charge de travail 

 **Avantages liés au respect de cette bonne pratique :** Pour optimiser les performances et l'utilisation des ressources, vous avez besoin d'une vue opérationnelle unifiée, de données granulaires en temps réel et d'une référence historique. Vous pouvez créer des tableaux de bord automatiques pour visualiser ces données et effectuer des calculs de métriques pour en tirer des informations opérationnelles et d'utilisation. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Adopter une approche basée sur les données pour optimiser les ressources : pour des performances et une efficacité maximales, utilisez les données historiques recueillies à partir de votre charge de travail afin d'ajuster et d'optimiser vos ressources. Examinez les tendances de l'utilisation des ressources actuelles par votre charge de travail et identifiez le niveau auquel vous pouvez apporter des modifications afin de mieux répondre aux besoins de votre charge de travail. Lorsque les ressources sont surexploitées, les performances du système se dégradent. De même, une sous-exploitation entraîne une utilisation moins efficace des ressources et des coûts élevés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Calcul sur le cloud avec AWS ](https://aws.amazon.com/products/compute/?ref=wellarchitected) 
+  [Optimiseur de calcul AWS](https://aws.amazon.com/compute-optimizer/) 
+  [Calcul sur le cloud avec AWS](https://aws.amazon.com/products/compute/) 
+  [Types d'instances EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html) 
+  [Conteneurs ECS : instances de conteneur Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ECS_instances.html) 
+  [Conteneurs EKS : composants master EKS](https://docs.aws.amazon.com/eks/latest/userguide/worker.html) 
+  [Fonctions : configuration des fonctions Lambda](https://docs.aws.amazon.com/lambda/latest/dg/best-practices.html#function-configuration) 
+  [Contrôle de l'état du processeur pour votre instance EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/processor_state_control.html) 

 **Vidéos connexes :** 
+  [Amazon EC2 foundations (CMP211-R2)](https://www.youtube.com/watch?v=kMMybKqC2Y0) 
+  [Better, faster, cheaper compute: Cost-optimizing Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 
+  [Deliver high performance ML inference with AWS Inferentia (CMP324-R1)](https://www.youtube.com/watch?v=17r1EapAxpk) 
+  [Optimize performance and cost for your AWS compute (CMP323-R1)](https://www.youtube.com/watch?v=zt6jYJLK8sg) 
+  [Powering next-gen Amazon EC2: Deep dive into the Nitro system](https://www.youtube.com/watch?v=rUY-00yFlE4) 

 **Exemples connexes :** 
+  [Dimensionnement avec Compute Optimizer et activation de l'utilisation de la mémoire](https://www.wellarchitectedlabs.com/cost/200_labs/200_aws_resource_optimization/5_ec2_computer_opt/) 
+  [Code de démonstration Optimiseur de calcul AWS](https://github.com/awslabs/ec2-spot-labs/tree/master/aws-compute-optimizer) 