

# SUS 2 Comment aligner les ressources du cloud sur votre demande ?
<a name="sus-02"></a>

La façon dont les utilisateurs et les applications consomment vos charges de travail et d'autres ressources peut vous aider à identifier les améliorations nécessaires pour atteindre vos objectifs de durabilité. Faites évoluer l'infrastructure pour répondre en permanence à la demande et vérifiez que vous n'utilisez que les ressources minimales requises pour prendre en charge vos utilisateurs. Alignez les niveaux de service sur les besoins des clients. Positionnez des ressources afin de limiter le réseau nécessaire aux utilisateurs et aux applications pour les consommer. Supprimez les ressources inutilisées. Fournissez aux membres de votre équipe des appareils qui répondent à leurs besoins et minimisent leur impact en matière de durabilité.

**Topics**
+ [SUS02-BP01 Mettre à l’échelle l’infrastructure de la charge de travail de façon dynamique](sus_sus_user_a2.md)
+ [SUS02-BP02 Aligner les SLA sur vos objectifs de durabilité](sus_sus_user_a3.md)
+ [SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées](sus_sus_user_a4.md)
+ [SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences réseau](sus_sus_user_a5.md)
+ [SUS02-BP05 Optimiser les ressources des membres de l’équipe pour les activités réalisées](sus_sus_user_a6.md)
+ [SUS02-BP06 Mise en œuvre de la mise en mémoire tampon ou de la limitation pour aplanir la courbe de la demande](sus_sus_user_a7.md)

# SUS02-BP01 Mettre à l’échelle l’infrastructure de la charge de travail de façon dynamique
<a name="sus_sus_user_a2"></a>

Utilisez l’élasticité du cloud et mettez à l’échelle votre infrastructure de façon dynamique afin de rapprocher l’offre de ressources cloud de la demande et d’éviter de surprovisionner une capacité dans votre charge de travail.

**Anti-modèles courants :**
+ Vous ne mettez pas à l’échelle votre infrastructure avec la charge de l’utilisateur.
+ Vous mettez à l’échelle manuellement votre infrastructure en permanence.
+ Vous conservez une capacité accrue après un événement de mise à l’échelle au lieu de la réduire.

 **Avantages à établir cette meilleure pratique :** configurer et tester l’élasticité de la charge de travail permet de rapprocher de façon efficace l’offre des ressources cloud de la demande et d’éviter de surprovisionner une capacité. Vous pouvez profiter de l’élasticité du cloud pour mettre à l’échelle automatiquement la capacité pendant et après les pics de demande, afin d’utiliser uniquement le bon nombre de ressources nécessaires pour répondre aux exigences de votre entreprise.

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Le cloud vous apporte la flexibilité dont vous avez besoin pour développer ou réduire vos ressources de manière dynamique via une grande variété de mécanismes afin de répondre aux fluctuations de la demande. Rapprocher de façon optimale l’offre de la demande a le plus faible impact environnemental pour une charge de travail. 

 La demande peut être fixe ou variable, ce qui nécessite des métriques et une automatisation pour que la gestion ne devienne pas contraignante. Les applications peuvent se mettre à l’échelle de façon verticale (dans les deux sens) en modifiant la taille de l’instance, de façon horizontale (dans les deux sens) en modifiant le nombre d’instances, ou une combinaison des deux. 

 Vous pouvez utiliser plusieurs approches pour rapprocher l’offre de ressources de la demande. 
+  **Approche visant à suivre les cibles :** surveillez votre métrique de capacité de mise à l’échelle et augmentez ou réduisez automatiquement votre capacité selon vos besoins. 
+  **Mise à l’échelle prédictive :** mettez à l’échelle en prévision des tendances quotidiennes et hebdomadaires. 
+  **Approche basée sur un calendrier :** planifiez votre propre calendrier de mise à l’échelle en fonction de changements de charge prévisibles. 
+  **Mise à l’échelle des services :** sélectionnez des services (par exemple sans serveur) conçus pour se mettre à l’échelle ou fournissez une fonction de mise à l’échelle automatique. 

 Identifiez les périodes d’utilisation faible ou nulle, et mettez vos ressources à l’échelle afin de supprimer toute capacité excédentaire et améliorer l’efficacité. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+ L’élasticité correspond à l’offre de ressources dont vous disposez et à la demande pour ces ressources. Les instances, les conteneurs et les fonctions fournissent les mécanismes pour l’élasticité, soit en combinaison avec la mise à l’échelle automatique, soit en tant que fonction du service. AWS fournit une gamme de mécanismes de mise à l’échelle automatique pour veiller à ce que les charges de travail puissent réduire rapidement et facilement pendant les périodes de faible charge utilisateur. Voici des exemples de mécanismes de mise à l’échelle automatique :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2024-06-27/framework/sus_sus_user_a2.html)
+  La mise à l’échelle est souvent discutée pour les services de calcul, tels que les instances Amazon EC2 ou les fonctions AWS Lambda. Envisagez la configuration de services non liés au calcul, tels que les unités de capacité de lecture et d’écriture [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) ou les partitions [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) pour rapprocher la demande. 
+  Vérifiez que les métriques de l’augmentation ou de la diminution sont validées par rapport au type de charge de travail déployée. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N’en faites pas votre métrique principale. Vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (telle que l’utilisation de la mémoire) pour votre politique de mise à l’échelle, le cas échéant. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d’utilisation valide et décrire à quel point l’instance est occupée. 
  +  La valeur de la métrique doit augmenter ou diminuer proportionnellement au nombre d’instances dans le groupe Auto Scaling. 
+  Utilisez la [mise à l’échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) au lieu de la [mise à l’échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d’utiliser des [politiques de mise à l’échelle en suivant les cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) pour votre mise à l’échelle dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer à la fois les événements d’augmentation et de diminution des charges de travail. Créez des scénarios de test pour les événements de diminution afin de vérifier que la charge de travail se comporte comme prévu et n’a aucun impact sur l’expérience utilisateur (comme la perte de sessions permanentes). Vous pouvez utiliser [Activity history](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) (Historique de l’activité) pour vérifier une activité de mise à l’échelle pour un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l’échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Avec la mise à l’échelle prédictive, vous pouvez supprimer le besoin de surprovisionner de la capacité. Pour plus de détails, consultez [Predictive Scaling with Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) (Mise à l’échelle prédictive avec Amazon EC2 Auto Scaling). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Démarrer avec Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Scalabilité prédictive pour EC2 alimentée par le machine learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyser le comportement des utilisateurs avec Amazon OpenSearch Service, Amazon Data Firehose et Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Qu’est-ce qu’Amazon CloudWatch ?](https://docs.aws.amazon.com/Amazon/latest/monitoring/WhatIs.html) 
+  [Surveillance de la charge de base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Présentation de la prise en charge native pour la mise à l’échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Présentation de Karpenter, un Kubernetes Cluster Autoscaler hautement performant et open source](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [En savoir plus sur la Auto Scaling d’un cluster Amazon ECS](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Vidéos connexes :** 
+ [AWS re:Invent 2023 - Scaling on AWS for the first 10 million users ](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 - Scaling containers from one user to millions ](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023 - Scaling FM inference to hundreds of models with Amazon SageMaker AI ](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 - Harness the power of Karpenter to scale, optimize & upgrade Kubernetes ](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Exemples connexes :** 
+ [Mise à l’échelle automatique](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 Aligner les SLA sur vos objectifs de durabilité
<a name="sus_sus_user_a3"></a>

 Vérifiez et optimisez les contrats de niveau de service (SLA) de la charge de travail en fonction de vos objectifs de durabilité pour réduire les ressources nécessaires afin de prendre en charge votre charge de travail tout en continuant à répondre aux besoins de l’entreprise. 

 **Anti-modèles courants :** 
+  Les contrats de niveau de service (SLA) de la charge de travail ne sont pas connus ou ambigus. 
+  Vous définissez votre contrat de niveau de service (SLA) uniquement pour la disponibilité et les performances. 
+  Vous utilisez le même modèle de conception (comme une architecture multi-AZ) pour toutes vos charges de travail. 

 **Avantages liés au respect de cette bonne pratique :** l’alignement des contrats de niveau de service (SLA) sur les objectifs de durabilité entraîne une utilisation optimale des ressources tout en répondant aux besoins métier. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les contrats de niveau de service (SLA) définissent le niveau de service attendu d’une charge de travail sur le cloud, comme le temps de réponse, la disponibilité et la conservation des données. Ils influent sur l’architecture, l’utilisation des ressources et l’impact environnemental d’une charge de travail sur le cloud. À intervalles réguliers, vérifiez les contrats de niveau de service (SLA) et faites des compromis qui réduisent grandement l’utilisation des ressources en échange de baisses acceptables des niveaux de service. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Comprenez les objectifs de durabilité :** identifiez les objectifs de durabilité de votre organisation, tels que la réduction des émissions de carbone ou l’amélioration de l’utilisation des ressources. 
+  **Passez en revue les accords de niveau de service (SLA) :** évaluez vos SLA pour déterminer s’ils répondent aux exigences de votre entreprise. Si vous dépassez les SLA, effectuez un examen plus approfondi. 
+  **Comprenez les compromis :** comprenez les compromis entre la complexité de votre charge de travail (comme le volume élevé d’utilisateurs simultanés), les performances (comme la latence) et l’impact sur la durabilité (comme les ressources requises). Généralement, la priorisation de deux des facteurs se fait au détriment du troisième. 
+  **Ajustez les accords de niveau de service (SLA) :** ajustez vos SLA en faisant des compromis qui réduisent de manière significative les impacts sur la durabilité en échange de diminutions acceptables des niveaux de service. 
  +  **Durabilité et fiabilité :** les charges de travail hautement disponibles ont tendance à consommer plus de ressources. 
  +  **Durabilité et performances :** l’utilisation de plus de ressources pour booster les performances pourrait avoir un impact environnemental plus important. 
  +  **Durabilité et sécurité :** la sécurité trop importante des charges de travail pourrait avoir un impact environnemental plus important. 
+  **Définissez des SLA de durabilité si possible :** incluez des SLA de durabilité pour votre charge de travail. Par exemple, définissez un niveau d’utilisation minimum en tant que SLA de durabilité pour vos instances de calcul. 
+  **Utilisez des modèles de conception efficaces :** utilisez des modèles de conception, tels que des microservices sur AWS qui privilégient les fonctions essentielles à l’entreprise et permettent des niveaux de service inférieurs (tels que les objectifs de temps de réponse ou de délai de récupération) pour les fonctions non essentielles. 
+  **Communiquez et établissez les responsabilités :** partagez les SLA avec toutes les parties prenantes concernées, y compris votre équipe de développement et vos clients. Utilisez les rapports pour suivre et surveiller les SLA. Attribuez des responsabilités pour atteindre les objectifs de durabilité de vos SLA. 
+  **Utilisez des incitations et des récompenses :** utilisez des incitations et des récompenses pour atteindre ou dépasser les SLA alignés sur les objectifs de durabilité. 
+  **Révisez et itérez :** révisez et ajustez régulièrement vos SLA pour vous assurer qu’ils sont conformes à l’évolution des objectifs de durabilité et de performance. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Comprenez les modèles de résilience et les compromis pour concevoir une architecture efficace dans le cloud](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Importance du contrat de niveau de service pour les fournisseurs de SaaS](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Vidéos connexes :** 
+ [AWS re:Invent 2023 - Capacity, availability, cost efficiency: Pick three ](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 - Advanced integration patterns & trade-offs for loosely coupled systems ](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 - Delivering sustainable, high-performing architectures ](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment ](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées
<a name="sus_sus_user_a4"></a>

Mettez hors service les ressources inutilisées de votre charge de travail afin de réduire le nombre de ressources cloud nécessaires pour répondre à votre demande et minimiser le gaspillage.

 **Anti-modèles courants :** 
+  Vous n’analysez pas votre application pour détecter les ressources redondantes ou qui ne sont plus nécessaires. 
+  Vous ne supprimez pas les ressources redondantes ou qui ne sont plus nécessaires. 

 **Avantages liés au respect de cette bonne pratique :** la suppression des éléments inutilisés libère des ressources et améliore l’efficacité globale de la charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les ressources inutilisées consomment les ressources du cloud telles que l’espace de stockage et la puissance de calcul. En identifiant et en éliminant ces ressources, vous pouvez les libérer, ce qui se traduit par une architecture cloud plus efficace. Analysez régulièrement les ressources de l’application telles que les rapports pré-compilés, les jeux de données, les images statiques et les modèles d’accès aux ressources pour identifier des redondances, une sous-utilisation et d’éventuelles cibles de mise hors service. Supprimez ces ressources redondantes pour réduire le gaspillage de ressources dans votre charge de travail. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Réalisez un inventaire :** réalisez un inventaire complet pour identifier tous les actifs relevant de votre charge de travail. 
+  **Analysez l’utilisation :** utilisez une surveillance continue pour identifier les actifs statiques qui ne sont plus nécessaires. 
+  **Supprimez les actifs inutilisés :** élaborez un plan pour supprimer les actifs qui ne sont plus nécessaires. 
  +  Avant de supprimer une ressource, évaluez l’impact de sa suppression sur l’architecture. 
  +  Consolidez les ressources générées qui se chevauchent afin de supprimer tout traitement redondant. 
  +  Mettez à jour vos applications pour ne plus produire et stocker les ressources qui ne sont pas nécessaires. 
+  **Communiquez avec les tiers :** demandez aux tiers d’arrêter de produire et de stocker des ressources gérées en votre nom qui ne sont plus nécessaires. Demandez à consolider les actifs redondants. 
+  **Utilisez des politiques de cycle de vie :** utilisez des politiques de cycle de vie pour supprimer automatiquement les actifs inutilisés. 
  +  Vous pouvez utiliser Amazon S3 Lifecycle afin de gérer vos objets au cours de leur cycle de vie. 
  +  Vous pouvez utiliser Amazon Data Lifecycle Manager afin d’automatiser la création, la conservation et la suppression des instantanés Amazon EBS et des AMI basées sur Amazon EBS. 
+  **Passez en revue et optimisez :** passez régulièrement en revue votre charge de travail pour identifier et supprimer tous les actifs inutilisés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 2 : stockage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [ Comment résilier les ressources actives dont je n’ai plus besoin sur mon Compte AWS ? ](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Vidéos connexes :** 
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2022 - Preserving and maximizing the value of digital media assets using Amazon S3 ](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023 - Optimize costs in your multi-account environments ](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences réseau
<a name="sus_sus_user_a5"></a>

Pour votre charge de travail, sélectionnez un emplacement et des services cloud qui réduisent la distance que le trafic réseau doit parcourir et diminuent les ressources réseau totales requises pour gérer votre charge de travail.

 **Anti-modèles courants :** 
+  Vous sélectionnez la région de la charge de travail en fonction de votre propre emplacement. 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Tout le trafic passe par vos centres de données existants. 

 **Avantages liés au respect de cette bonne pratique :** le fait de placer une charge de travail à proximité de ses utilisateurs permet d’obtenir la latence la plus faible tout en diminuant les déplacements de données sur le réseau et en réduisant l’impact environnemental. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 L’infrastructure AWS Cloud est conçue autour d’options d’emplacement telles que les régions, les zones de disponibilité, les groupes de placement et les emplacements périphériques tels que [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html) et les [zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Ces options d’emplacement sont responsables de la connectivité entre les composants d’application, les services cloud, les réseaux périphériques et les centres de données sur site. 

 Analysez les modèles d’accès au réseau dans votre charge de travail pour identifier comment utiliser ces options de localisation dans le cloud et réduire la distance que le trafic réseau doit parcourir. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  Analysez les modèles d’accès au réseau dans votre charge de travail afin d’identifier comment les utilisateurs utilisent votre application. 
  +  Utilisez des outils de surveillance, tels que [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) et [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), pour recueillir des données sur les activités du réseau. 
  +  Analysez les données pour identifier le modèle d’accès au réseau. 
+  Choisissez les régions pour votre déploiement de charge de travail en fonction des éléments clés suivants : 
  +  **Objectif de durabilité :** comme expliqué dans [Choix de la région](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Emplacement de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning), le code des applications doit s’exécuter aussi près que possible des données. 
  +  **Emplacement de vos utilisateurs :** pour les applications orientées utilisateur, choisissez une ou plusieurs régions proches des utilisateurs de votre charge de travail.
  + **Autres contraintes :** tenez compte de contraintes telles que le coût et la conformité, comme expliqué dans [Éléments à prendre en compte lors de la sélection d’une région pour vos charges de travail](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilisez la mise en cache locale ou les [solutions de mise en cache AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressources fréquemment utilisées afin d’améliorer les performances, de réduire les déplacements de données et de diminuer l’impact environnemental.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Utilisez des services capables de vous aider à exécuter du code plus proche des utilisateurs de votre charge de travail :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Utilisez le regroupement de connexions afin de pouvoir réutiliser les connexions et réduire les ressources nécessaires. 
+  Utilisez des magasins de données distribués qui ne s’appuient pas sur des connexions persistantes ni sur des mises à jour synchrones pour des raisons de cohérence afin de servir les populations régionales. 
+  Remplacez la capacité du réseau statique pré-allouée par une capacité dynamique partagée, et partagez l’impact en matière de durabilité de la capacité du réseau avec d’autres abonnés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 3 : mise en réseau](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Documentation Amazon ElastiCache](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Qu’est-ce qu’Amazon CloudFront ?](https://docs.aws.amazon.com/Amazon/latest/DeveloperGuide/Introduction.html) 
+  [Fonctionnalités clés d'Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 
+ [ Infrastructure mondiale AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones and AWS Outposts, choosing the right technology for your edge workload ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/) (Zones locales AWS et Outpost AWS, choisir la bonne technologie pour votre charge de travail périphérique)
+ [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [ Zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Vidéos connexes :** 
+  [Demystifying data transfer on AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) (Démystifier le transfert de données sur AWS) 
+ [ Scaling network performance on next-gen Amazon EC2 instances ](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [ Vidéo explicative sur les zones locales AWS](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts : Overview and How it Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 : A migration strategy for edge and on-premises workloads ](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021 - AWS Outposts: Bringing the AWS experience on premises ](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 - AWS Wavelength: Run apps with ultra-low latency at 5G edge ](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - AWS Local Zones: Building applications for a distributed edge ](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Building low-latency websites with Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 - Improve performance and availability with AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 - Build your global wide area network using AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Global traffic management with Amazon Route 53 ](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Exemples connexes :** 
+  [Ateliers sur la mise en réseau AWS](https://catalog.workshops.aws/networking/en-US) 
+ [Une architecture axée sur la durabilité : réduisez les mouvements de données sur les réseaux](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Optimiser les ressources des membres de l’équipe pour les activités réalisées
<a name="sus_sus_user_a6"></a>

Optimisez les ressources fournies aux membres de l’équipe pour réduire l’impact sur la durabilité environnementale tout en répondant à leurs besoins. 

 **Anti-modèles courants :** 
+  Vous ignorez l’impact des appareils utilisés par les membres de votre équipe sur l’efficacité globale de votre application cloud. 
+  Vous gérez et mettez à jour manuellement les ressources utilisées par les membres de l’équipe. 

 **Avantages liés au respect de cette bonne pratique :** l’optimisation des ressources des membres de l’équipe améliore l’efficacité globale des applications basées sur le cloud. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Comprenez les ressources que les membres de votre équipe utilisent pour consommer vos services, leur cycle de vie prévu et l’impact financier et sur la durabilité. Mettez en œuvre des stratégies pour optimiser ces ressources. Par exemple, effectuez des opérations complexes, telles que le rendu et la compilation, sur une infrastructure évolutive hautement utilisée plutôt que sur des systèmes mono-utilisateurs puissants et sous-utilisés. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Utilisez des postes de travail économes en énergie :** fournissez aux membres de l’équipe des postes de travail et des périphériques économes en énergie. Utilisez des fonctionnalités de gestion de l’alimentation efficaces (comme le mode faible consommation) sur ces appareils afin de réduire leur consommation d’énergie. 
+  **Utilisez la virtualisation :** utilisez des bureaux virtuels et le streaming d’applications pour limiter les exigences liées aux mises à niveau et aux appareils. 
+  **Encouragez la collaboration à distance :** encouragez les membres d’équipe à utiliser des outils de collaboration à distance tels qu’[Amazon Chime](https://aws.amazon.com/chime/) ou [AWS Wickr](https://aws.amazon.com/wickr/) pour réduire les déplacements et les émissions de carbone associées. 
+  **Utilisez des logiciels économes en énergie :** fournissez aux membres d’équipe des logiciels économes en énergie en supprimant ou en désactivant les fonctionnalités et les processus inutiles. 
+  **Gérez les cycles de vie :** évaluez l’impact des processus et des systèmes sur le cycle de vie de vos appareils et choisissez des solutions qui réduisent au maximum le besoin de remplacer les appareils tout en répondant aux exigences de l’entreprise. Entretenez et mettez à jour régulièrement les postes de travail et les logiciels afin de maintenir et d’améliorer l’efficacité. 
+  **Gestion à distance des appareils :** implémentez la gestion à distance des appareils afin de réduire les déplacements professionnels. 
  +  AWS Systems Manager Fleet Manager est une interface utilisateur (IU) unifiée qui vous aide à gérer à distance vos nœuds qui s’exécutent sur AWS ou sur site. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Qu’est-ce qu’Amazon WorkSpaces ?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [ Cost Optimizer for Amazon WorkSpaces ](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html) (Optimiseur de coûts pour Amazon WorkSpaces)
+  [Documentation Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Vidéos connexes :** 
+  [Managing cost for Amazon WorkSpaces on AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) (Gestion des coûts pour Amazon WorkSpaces sur AWS) 

# SUS02-BP06 Mise en œuvre de la mise en mémoire tampon ou de la limitation pour aplanir la courbe de la demande
<a name="sus_sus_user_a7"></a>

La mise en mémoire tampon et la limitation aplatissent la courbe de la demande et réduisent la capacité provisionnée requise pour votre charge de travail. 

 **Anti-modèles courants :** 
+ Vous traitez les demandes des clients immédiatement alors que ce n’est pas nécessaire.
+ Vous n’analysez pas les exigences des demandes des clients.

 **Avantages liés au respect de cette bonne pratique :** l’aplatissement de la courbe de la demande réduit la capacité provisionnée requise pour la charge de travail. En réduisant la capacité provisionnée, on réduit la consommation d’énergie et l’impact environnemental. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 L’aplatissement de la courbe de demande de la charge de travail peut vous aider à réduire la capacité provisionnée pour une charge de travail et à réduire son impact environnemental. Prenons l’exemple une charge de travail dont la courbe de demande est représentée dans la figure ci-dessous. Cette charge de travail a deux pics, et pour gérer ces pics, la capacité des ressources comme indiqué par la ligne orange est provisionnée. Les ressources et l’énergie utilisées pour cette charge de travail ne sont pas indiquées par la zone sous la courbe de la demande, mais par la zone sous la ligne de la capacité provisionnée, car la capacité provisionnée est nécessaire pour gérer ces deux pics. 

![\[Provisioned capacity waveform with two distinct peaks that require high provisioned capacity.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2024-06-27/framework/images/provisioned-capacity-1.png)


 

 Vous pouvez utiliser la mise en mémoire tampon ou la limitation pour modifier la courbe de la demande et lisser les pics, ce qui signifie moins de capacité provisionnée et moins d’énergie consommée. Mettez en œuvre la limitation lorsque vos clients peuvent effectuer de nouvelles tentatives. Mettez en œuvre une mémoire tampon pour stocker la demande et reporter le traitement. 

![\[Waveform diagram displaying a workload with smoothed-out peaks created using buffering or throttling.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2024-06-27/framework/images/provisioned-capacity-2.png)


 

 **Étapes d’implémentation** 
+  Analysez les demandes des clients pour déterminer comment y répondre. Les questions à se poser sont les suivantes : 
  +  Cette demande peut-elle être traitée de manière asynchrone ? 
  +  Le client a-t-il la possibilité de lancer de nouvelles tentatives ? 
+  Si le client a la possibilité de lancer de nouvelles tentatives, vous pouvez mettre en œuvre un système de limitation, qui indique à la source que si elle ne peut pas répondre à la demande au moment même, elle doit réessayer plus tard. 
  +  Vous pouvez utiliser [Amazon API Gateway](https://aws.amazon.com/api-gateway/) pour la mise en œuvre de la limitation. 
+  Pour les clients qui ne peuvent pas effectuer de nouvelles tentatives, il faut mettre en œuvre un tampon pour aplanir la courbe de demande. Un tampon diffère le traitement des demandes, ce qui permet aux applications qui s’exécutent à différents débits de communiquer efficacement. Une approche basée sur la mémoire tampon utilise une file d’attente ou un flux pour accepter les messages des producteurs. Les messages sont lus par les consommateurs et traités, ce qui permet aux messages de fonctionner au rythme qui répond aux besoins des entreprises. 
  +  [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) est un service géré qui fournit des files d’attente permettant à un seul consommateur de lire des messages individuels. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) fournit un flux de données qui permet à de nombreux consommateurs de lire les mêmes messages. 
+  Analysez la demande globale, le taux de variation et le temps de réponse requis pour dimensionner correctement la limitation ou le tampon nécessaire. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Getting started with Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) (Démarrer avec Amazon SQS)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/) (Intégration des applications à l’aide de files d’attente et de messages)
+ [Gestion et surveillance de la limitation des API dans vos charges de travail](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [ Throttling a tiered, multi-tenant REST API at scale using API Gateway ](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/) (Intégration des applications à l’aide de files d’attente et de messages)

 **Vidéos connexes :** 
+ [AWS re:Invent 2022 - Application integration patterns for microservices ](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 - Smart savings: Amazon EC2 cost-optimization strategies ](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 - Advanced integration patterns & trade-offs for loosely coupled systems ](https://www.youtube.com/watch?v=FGKGdUiZKto)