

# Alignement sur la demande
<a name="alignment-to-demand"></a>

La façon dont les utilisateurs et les applications consomment vos charges de travail et d’autres ressources peut vous aider à identifier les améliorations nécessaires pour atteindre vos objectifs de durabilité. Mettez à l’échelle l’infrastructure pour répondre en permanence à la demande et vérifiez que vous n’utilisez que les ressources minimales requises pour prendre en charge vos utilisateurs. Alignez les niveaux de service sur les besoins des clients. Positionnez des ressources afin de limiter le réseau nécessaire aux utilisateurs et aux applications pour les consommer. Supprimez les ressources inutilisées. Fournissez aux membres de votre équipe des appareils qui répondent à leurs besoins et minimisent leur impact en matière de durabilité.

**Topics**
+ [SUS02-BP01 Mettre à l’échelle l’infrastructure de la charge de travail de façon dynamique](sus_sus_user_a2.md)
+ [SUS02-BP02 S'aligner sur les objectifs SLAs de durabilité](sus_sus_user_a3.md)
+ [SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées](sus_sus_user_a4.md)
+ [SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences en matière de réseau](sus_sus_user_a5.md)
+ [SUS02-BP05 Optimiser les ressources des membres de l’équipe pour les activités réalisées](sus_sus_user_a6.md)
+ [SUS02-BP06 Mettre en œuvre la mise en mémoire tampon ou la régulation pour aplatir la courbe de demande](sus_sus_user_a7.md)

# SUS02-BP01 Mettre à l’échelle l’infrastructure de la charge de travail de façon dynamique
<a name="sus_sus_user_a2"></a>

Utilisez l’élasticité du cloud et mettez à l’échelle votre infrastructure de façon dynamique afin de rapprocher l’offre de ressources cloud de la demande et d’éviter de surprovisionner une capacité dans votre charge de travail.

**Anti-modèles courants :**
+ Vous ne mettez pas à l’échelle votre infrastructure avec la charge de l’utilisateur.
+ Vous mettez à l’échelle manuellement votre infrastructure en permanence.
+ Vous conservez une capacité accrue après un événement de mise à l’échelle au lieu de la réduire.

 **Avantages liés au respect de cette bonne pratique :** la configuration et le test de l’élasticité de la charge de travail permettent de faire correspondre efficacement l’offre de ressources cloud à la demande et d’éviter le sur provisionnement de capacité. Vous pouvez profiter de l’élasticité du cloud pour mettre à l’échelle automatiquement la capacité pendant et après les pics de demande, afin d’utiliser uniquement le bon nombre de ressources nécessaires pour répondre aux exigences de votre entreprise.

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Le cloud vous apporte la flexibilité dont vous avez besoin pour développer ou réduire vos ressources de manière dynamique via une grande variété de mécanismes afin de répondre aux fluctuations de la demande. Rapprocher de façon optimale l’offre de la demande a le plus faible impact environnemental pour une charge de travail. 

 La demande peut être fixe ou variable, ce qui nécessite des métriques et une automatisation pour que la gestion ne devienne pas contraignante. Les applications peuvent se mettre à l’échelle de façon verticale (dans les deux sens) en modifiant la taille de l’instance, de façon horizontale (dans les deux sens) en modifiant le nombre d’instances, ou une combinaison des deux. 

 Vous pouvez utiliser plusieurs approches pour rapprocher l’offre de ressources de la demande. 
+  **Approche de suivi des objectifs :** surveillez votre métrique de capacité de mise à l’échelle et augmentez ou réduisez automatiquement votre capacité selon vos besoins. 
+  **Mise à l’échelle prédictive :** mettez à l’échelle en prévision des tendances quotidiennes et hebdomadaires. 
+  **Approche basée sur le calendrier :** définissez votre propre calendrier de mise à l’échelle en fonction de changements de charge prévisibles. 
+  **Mise à l’échelle des services :** choisissez des services (tels que les services sans serveur) qui sont évolutifs de manière native dès leur conception ou qui proposent une mise à l’échelle automatique en tant que fonctionnalité. 

 Identifiez les périodes d’utilisation faible ou nulle, et mettez vos ressources à l’échelle afin de supprimer toute capacité excédentaire et améliorer l’efficacité. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+ L’élasticité correspond à l’offre de ressources dont vous disposez et à la demande pour ces ressources. Les instances, les conteneurs et les fonctions fournissent les mécanismes pour l’élasticité, soit en combinaison avec la mise à l’échelle automatique, soit en tant que fonction du service. AWS fournit une gamme de mécanismes de mise à l’échelle automatique pour veiller à ce que les charges de travail puissent réduire verticalement avec rapidité et facilité pendant les périodes de faible charge utilisateur. Voici des exemples de mécanismes de mise à l’échelle automatique :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/sustainability-pillar/sus_sus_user_a2.html)
+  La mise à l’échelle est souvent abordée pour les services de calcul, tels que les instances Amazon EC2 ou les fonctions AWS Lambda. Envisagez la configuration de services non informatiques tels que les unités de capacité de lecture et d’écriture [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) ou les partitions [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) pour répondre à la demande. 
+  Vérifiez que les métriques de l’augmentation ou de la diminution sont validées par rapport au type de charge de travail déployée. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N’en faites pas votre métrique principale. Le cas échéant, vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (telle que l’utilisation de la mémoire) pour votre politique de mise à l’échelle. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d’utilisation valide et décrire à quel point l’instance est occupée. 
  +  La valeur de métrique doit augmenter ou diminuer en proportion du nombre d’instances présentes dans le groupe Auto Scaling. 
+  Utilisez une [mise à l’échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) plutôt qu’une [mise à l’échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d’utiliser des [politiques de dimensionnement pour le suivi des cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) dans votre dimensionnement dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer à la fois les événements d’augmentation et de diminution des charges de travail. Créez des scénarios de test pour les événements de diminution afin de vérifier que la charge de travail se comporte comme prévu et n’a aucun impact sur l’expérience utilisateur (comme la perte de sessions permanentes). Vous pouvez utiliser [l’historique des activités](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) pour vérifier une activité de mise à l’échelle dans un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l’échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Avec la mise à l’échelle prédictive, vous pouvez supprimer le besoin de surprovisionner de la capacité. Pour en savoir plus, reportez-vous à [Mise à l’échelle prédictive pour Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Mise en route avec Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Mise à l’échelle prédictive pour EC2 alimentée par le machine learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyser le comportement des utilisateurs avec Amazon OpenSearch Service, Amazon Data Firehose et Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Qu’est-ce qu’Amazon CloudWatch ?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Surveillance de la charge de la base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Présentation de la prise en charge native pour la mise à l’échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Présentation de Karpenter, un Cluster Autoscaler de Kubernetes hautement performant et open source](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Présentation approfondie d’Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Vidéos connexes :** 
+ [AWSre:Invent 2023 - Mise à l’échelle AWS des 10 premiers millions d’utilisateurs](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 - Architecture durable : passé, présent et future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 - Scaling containers from one user to millions ](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2 023 - Scaling FM inference to hundreds of models with Amazon SageMaker AI ](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 - Harness the power of Karpenter to scale, optimize & upgrade Kubernetes ](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Exemples connexes :** 
+ [Autoscaling](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 S'aligner sur les objectifs SLAs de durabilité
<a name="sus_sus_user_a3"></a>

 Passez en revue et optimisez les accords de niveau de service relatifs à la charge de travail (SLA) en fonction de vos objectifs de durabilité afin de minimiser les ressources nécessaires pour soutenir votre charge de travail tout en continuant à répondre aux besoins de l'entreprise. 

 **Anti-modèles courants :** 
+  La charge SLAs de travail est inconnue ou ambiguë. 
+  Vous définissez votre objectif SLA uniquement en fonction de la disponibilité et des performances. 
+  Vous utilisez le même modèle de conception (comme une architecture multi-AZ) pour toutes vos charges de travail. 

 **Avantages de l'établissement de cette meilleure pratique :** L'alignement sur les objectifs SLAs de durabilité permet une utilisation optimale des ressources tout en répondant aux besoins de l'entreprise. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 SLAsdéfinissez le niveau de service attendu d'une charge de travail dans le cloud, tel que le temps de réponse, la disponibilité et la conservation des données. Ils influent sur l’architecture, l’utilisation des ressources et l’impact environnemental d’une charge de travail sur le cloud. À un rythme régulier, passez en revue SLAs et faites des compromis qui réduisent considérablement l'utilisation des ressources en échange de baisses acceptables des niveaux de service. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Comprenez les objectifs de durabilité :** identifiez les objectifs de durabilité de votre organisation, tels que la réduction des émissions de carbone ou l’amélioration de l’utilisation des ressources. 
+  **Révision SLAs :** Évaluez vos SLAs produits pour déterminer s'ils répondent aux besoins de votre entreprise. Si vous dépassezSLAs, effectuez un examen plus approfondi. 
+  **Comprenez les compromis :** déterminez les compromis entre la complexité de votre charge de travail (comme le volume élevé d’utilisateurs simultanés), les performances (comme la latence) et l’impact sur le développement durable (comme les ressources requises). Généralement, la priorisation de deux des facteurs se fait au détriment du troisième. 
+  **Ajustez SLAs :** ajustez le vôtre SLAs en faisant des compromis qui réduisent de manière significative les impacts sur le développement durable en échange de baisses acceptables des niveaux de service. 
  +  **Durabilité et fiabilité :** les charges de travail hautement disponibles ont tendance à consommer davantage de ressources. 
  +  **Durabilité et performance :** l’utilisation de plus de ressources pour améliorer les performances pourrait avoir un impact environnemental plus important. 
  +  **Durabilité et sécurité :** des charges de travail trop sécurisées peuvent avoir un impact environnemental plus important. 
+  **Définissez la durabilité SLAs si possible :** incluez la durabilité SLAs pour votre charge de travail. Par exemple, définissez un niveau d'utilisation minimal afin de garantir la durabilité SLA de vos instances de calcul. 
+  **Utilisez des modèles de conception efficaces :** utilisez des modèles de conception tels que les microservices AWS qui donnent la priorité aux fonctions critiques pour l'entreprise et permettent de réduire les niveaux de service (tels que les objectifs de temps de réponse ou de temps de reprise) pour les fonctions non critiques. 
+  **Communiquez et responsabilisez :** partagez-les SLAs avec toutes les parties prenantes concernées, y compris votre équipe de développement et vos clients. Utilisez les rapports pour suivre et surveiller lesSLAs. Attribuez la responsabilité d'atteindre les objectifs de durabilité de votre entrepriseSLAs. 
+  **Utilisez des incitations et des récompenses :** utilisez des incitations et des récompenses pour atteindre ou SLAs dépasser les objectifs de durabilité. 
+  **Révisez et répétez :** révisez et ajustez régulièrement vos objectifs SLAs pour vous assurer qu'ils correspondent à l'évolution des objectifs de durabilité et de performance. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Comprenez les modèles de résilience et les compromis pour concevoir une architecture efficace dans le cloud](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Importance du contrat de niveau de service pour les fournisseurs de SaaS](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Vidéos connexes :** 
+ [AWS re:Invent 2023 - Capacité, disponibilité, rentabilité : choisissez trois](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:INVENT 2023 - Architecture durable : passé, présent et futur](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 - Modèles d'intégration avancés et compromis pour les systèmes faiblement couplés](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 - Fournir des architectures durables et performantes](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 - Créez un environnement informatique économe en termes de coûts, d'énergie et de ressources](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées
<a name="sus_sus_user_a4"></a>

Mettez hors service les ressources inutilisées de votre charge de travail afin de réduire le nombre de ressources cloud nécessaires pour répondre à votre demande et minimiser le gaspillage.

 **Anti-modèles courants :** 
+  Vous n’analysez pas votre application pour détecter les ressources redondantes ou qui ne sont plus nécessaires. 
+  Vous ne supprimez pas les ressources redondantes ou qui ne sont plus nécessaires. 

 **Avantages de l’établissement de cette meilleure pratique :** la suppression des actifs inutilisés libère des ressources et améliore l’efficacité globale de la charge de travail. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** bas 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les ressources inutilisées consomment les ressources du cloud telles que l’espace de stockage et la puissance de calcul. En identifiant et en éliminant ces ressources, vous pouvez les libérer, ce qui se traduit par une architecture cloud plus efficace. Analysez régulièrement les ressources de l’application telles que les rapports pré-compilés, les jeux de données, les images statiques et les modèles d’accès aux ressources pour identifier des redondances, une sous-utilisation et d’éventuelles cibles de mise hors service. Supprimez ces ressources redondantes pour réduire le gaspillage de ressources dans votre charge de travail. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Réaliser un inventaire :** réalisez un inventaire complet pour identifier tous les actifs relevant de votre charge de travail. 
+  **Analyser l’utilisation :** la surveillance continue vous permet d’identifier les actifs statiques qui ne sont plus nécessaires. 
+  **Supprimer les actifs inutilisés :** élaborez un plan pour supprimer les actifs dont vous n’avez plus besoin. 
  +  Avant de supprimer une ressource, évaluez l’impact de sa suppression sur l’architecture. 
  +  Consolidez les ressources générées qui se chevauchent afin de supprimer tout traitement redondant. 
  +  Mettez à jour vos applications pour ne plus produire et stocker les ressources qui ne sont pas nécessaires. 
+  **Communiquer avec des tiers :** demandez aux tiers d’arrêter de produire et de stocker les ressources gérées en votre nom qui ne sont plus nécessaires. Demandez à consolider les actifs redondants. 
+  **Utilisez des politiques de cycle de vie :** utilisez des politiques de cycle de vie pour supprimer automatiquement les actifs inutilisés. 
  +  Vous pouvez utiliser [Amazon S3 Lifecycle](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) afin de gérer vos objets au cours de leur cycle de vie. 
  +  Vous pouvez utiliser [Amazon Data Lifecycle Manager](https://docs.aws.amazon.com/ebs/latest/userguide/snapshot-lifecycle.html) pour automatiser la création, la rétention et la suppression des instantanés EBS et des AMI basées sur EBS. 
+  **Examiner et optimiser :** examinez régulièrement votre charge de travail pour identifier et supprimer les ressources inutilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 2 : stockage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [ Comment résilier les ressources actives dont je n’ai plus besoin sur mon compte Compte AWS ? ](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Vidéos connexes :** 
+ [AWSre:INVENT 2023 – Architecture durable : passé, présent et futur](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWSre:Invent 2022 – Préserver et optimiser la valeur des actifs multimédias numériques à l’aide d’Amazon S3](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023 – Optimisez les coûts dans vos environnements multi-comptes](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences en matière de réseau
<a name="sus_sus_user_a5"></a>

Pour votre charge de travail, sélectionnez un emplacement et des services cloud qui réduisent la distance que le trafic réseau doit parcourir et diminuent les ressources réseau totales requises pour gérer votre charge de travail.

 **Anti-modèles courants :** 
+  Vous sélectionnez la région de la charge de travail en fonction de votre propre emplacement. 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Tout le trafic passe par vos centres de données existants. 

 **Avantages liés au respect de cette bonne pratique :** placer une charge de travail à proximité de ses clients fournit une faible latence, tout en réduisant les mouvements de données sur le réseau ainsi que l’impact sur l’environnement. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 L' AWS Cloud infrastructure est construite autour d'options de localisation telles que les régions, les zones de disponibilité, les groupes de placement et les emplacements périphériques tels que [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html)les [zones AWS locales](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Ces options d’emplacement sont responsables de la connectivité entre les composants d’application, les services cloud, les réseaux périphériques et les centres de données sur site. 

 Analysez les modèles d’accès au réseau dans votre charge de travail pour identifier comment utiliser ces options de localisation dans le cloud et réduire la distance que le trafic réseau doit parcourir. 

## Étapes d’implémentation
<a name="implementation-steps"></a>
+  Analysez les modèles d’accès au réseau dans votre charge de travail afin d’identifier comment les utilisateurs utilisent votre application. 
  +  Utilisez des outils de surveillance, tels qu'[Amazon CloudWatch [AWS CloudTrail](https://aws.amazon.com/cloudtrail/)](https://aws.amazon.com/cloudwatch/), pour recueillir des données sur les activités du réseau. 
  +  Analysez les données pour identifier le modèle d’accès au réseau. 
+  Choisissez les régions pour votre déploiement de charge de travail en fonction des éléments clés suivants : 
  +  **Votre objectif en matière de développement durable :** comme expliqué dans [Sélection de la région](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Lieu de stockage de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning). Le code de l’application doit s’exécuter aussi près que possible des données. 
  +  **Lieu de stockage de vos données :** pour les applications orientées utilisateur, choisissez une région (ou des régions) proche des utilisateurs de votre charge de travail.
  + **Autres contraintes :** tenez compte des contraintes telles que le coût et la conformité, comme expliqué dans la section [Éléments à prendre en compte lors de la sélection d’une région pour vos charges de travail](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilisez des solutions de mise en cache locale ou [proposées par AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressuorces fréquemment utilisées afin d’améliorer les performances, de réduire les déplacements de données et de diminuer l’impact environnemental.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/sustainability-pillar/sus_sus_user_a5.html)
+  Utilisez des services capables de vous aider à exécuter du code plus proche des utilisateurs de votre charge de travail :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/sustainability-pillar/sus_sus_user_a5.html)
+  Utilisez le regroupement de connexions afin de pouvoir réutiliser les connexions et réduire les ressources nécessaires. 
+  Utilisez des magasins de données distribués qui ne s’appuient pas sur des connexions persistantes ni sur des mises à jour synchrones pour des raisons de cohérence afin de servir les populations régionales. 
+  Remplacez la capacité du réseau statique pré-allouée par une capacité dynamique partagée, et partagez l’impact en matière de durabilité de la capacité du réseau avec d’autres abonnés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre AWS infrastructure pour la durabilité, partie III : mise en réseau](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [ ElastiCache Documentation Amazon](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Qu'est-ce qu'Amazon CloudFront ?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [ CloudFront Principales fonctionnalités d'Amazon](https://aws.amazon.com/cloudfront/features/) 
+ [AWS Infrastructure mondiale](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Zones locales et AWS Outposts choix de la technologie adaptée à votre charge de travail périphérique](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Zones Locales](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Vidéos connexes :** 
+  [Démystifier le transfert de données sur AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [Augmenter les performances du réseau sur les instances Amazon EC2 de nouvelle génération](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [AWS Vidéo explicative sur les Zones Locales](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How it Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 - Une stratégie de migration pour les charges de travail en périphérie et sur site](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:INVENT 2021 - AWS Outposts : Apporter l' AWS expérience sur site](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 - AWS Wavelength : Exécutez des applications avec une latence extrêmement faible à la périphérie de la 5G](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - Zones AWS locales : création d'applications pour une périphérie distribuée](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Création de sites Web à faible latence avec Amazon CloudFront](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 - Améliorez les performances et la disponibilité avec AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 - Construisez votre réseau étendu mondial en utilisant AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020 : gestion du trafic mondial avec Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Exemples connexes :** 
+  [AWS Ateliers de réseautage](https://catalog.workshops.aws/networking/en-US) 
+ [ Architecting for sustainability - Minimize data movement across networks ](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Optimiser les ressources des membres de l’équipe pour les activités réalisées
<a name="sus_sus_user_a6"></a>

Optimisez les ressources fournies aux membres de l’équipe pour réduire l’impact sur la durabilité environnementale tout en répondant à leurs besoins. 

 **Anti-modèles courants :** 
+  Vous ignorez l’impact des appareils utilisés par les membres de votre équipe sur l’efficacité globale de votre application cloud. 
+  Vous gérez et mettez à jour manuellement les ressources utilisées par les membres de l’équipe. 

 **Avantages liés au respect de cette bonne pratique :** l’optimisation des ressources des membres de l’équipe améliore l’efficacité globale des applications compatibles avec le cloud. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** bas 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Comprenez les ressources que les membres de votre équipe utilisent pour consommer vos services, leur cycle de vie prévu et l’impact financier et sur la durabilité. Mettez en œuvre des stratégies pour optimiser ces ressources. Par exemple, effectuez des opérations complexes, telles que le rendu et la compilation, sur une infrastructure évolutive hautement utilisée plutôt que sur des systèmes mono-utilisateurs puissants et sous-utilisés. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  **Utilisez des postes de travail économes en énergie : fournissez aux membres de l’équipe des postes** de travail et des périphériques économes en énergie. Utilisez des fonctionnalités de gestion de l’alimentation efficaces (comme le mode faible consommation) sur ces appareils afin de réduire leur consommation d’énergie. 
+  **Adopter la virtualisation :** utilisez des bureaux virtuels et le streaming d’applications pour limiter les exigences liées aux mises à niveau et aux appareils. 
+  **Encouragez la collaboration à distance :** encouragez les membres de l’équipe à utiliser des outils de collaboration à distance tels qu’[Amazon Chime](https://aws.amazon.com/chime/) ou [AWS Wickr](https://aws.amazon.com/wickr/) à réduire les déplacements et les émissions de carbone associées. 
+  **Utilisez des logiciels économes en énergie :** fournissez aux membres de l’équipe des logiciels économes en énergie en supprimant ou en désactivant les fonctionnalités et les processus inutiles. 
+  **Gérer les cycles de vie :** évaluez l’impact des processus et des systèmes sur le cycle de vie de votre appareil et choisissez des solutions qui réduisent au minimum le besoin de remplacer celui-ci tout en répondant aux exigences de l’entreprise. Entretenez et mettez à jour régulièrement les postes de travail et les logiciels afin de maintenir et d’améliorer l’efficacité. 
+  **Gestion des appareils à distance :** intégrez la gestion à distance des appareils afin de réduire les déplacements professionnels nécessaires. 
  +  [AWS Systems ManagerFleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) est une interface utilisateur (IU) unifiée qui vous aide à gérer à distance vos nœuds qui s’exécutent sur AWS ou sur site. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Qu’est-ce qu’Amazon WorkSpaces ?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [Optimiseur de coûts pour Amazon WorkSpaces](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Documentation Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Vidéos connexes :** 
+  [Gestion des coûts pour Amazon WorkSpaces sur AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) 

# SUS02-BP06 Mettre en œuvre la mise en mémoire tampon ou la régulation pour aplatir la courbe de demande
<a name="sus_sus_user_a7"></a>

La mise en mémoire tampon et la limitation aplatissent la courbe de la demande et réduisent la capacité provisionnée requise pour votre charge de travail. 

 **Anti-modèles courants :** 
+ Vous traitez les demandes des clients immédiatement alors que ce n’est pas nécessaire.
+ Vous n’analysez pas les exigences des demandes des clients.

 **Avantages liés au respect de cette bonne pratique :** l’aplatissement de la courbe de demande réduit la capacité provisionnée requise pour la charge de travail. En réduisant la capacité provisionnée, on réduit la consommation d’énergie et l’impact environnemental. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** faible 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 L’aplatissement de la courbe de demande de la charge de travail peut vous aider à réduire la capacité provisionnée pour une charge de travail et à réduire son impact environnemental. Prenons l’exemple une charge de travail dont la courbe de demande est représentée dans la figure ci-dessous. Cette charge de travail a deux pics, et pour gérer ces pics, la capacité des ressources comme indiqué par la ligne orange est provisionnée. Les ressources et l’énergie utilisées pour cette charge de travail ne sont pas indiquées par la zone sous la courbe de la demande, mais par la zone sous la ligne de la capacité provisionnée, car la capacité provisionnée est nécessaire pour gérer ces deux pics. 

![\[Forme d’onde de capacité provisionnée avec deux pics distincts nécessitant une capacité provisionnée élevée.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/sustainability-pillar/images/provisioned-capacity-1.png)


 

 Vous pouvez utiliser la mise en mémoire tampon ou la limitation pour modifier la courbe de la demande et lisser les pics, ce qui signifie moins de capacité provisionnée et moins d’énergie consommée. Mettez en œuvre la limitation lorsque vos clients peuvent effectuer de nouvelles tentatives. Mettez en œuvre une mémoire tampon pour stocker la demande et reporter le traitement. 

![\[Diagramme de forme d’onde affichant une charge de travail avec des pics lissés créés à l’aide de la mise en mémoire tampon ou de la limitation.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/sustainability-pillar/images/provisioned-capacity-2.png)


 

 **Étapes d’implémentation** 
+  Analysez les demandes des clients pour déterminer comment y répondre. Les questions à se poser sont les suivantes : 
  +  Cette demande peut-elle être traitée de manière asynchrone ? 
  +  Le client a-t-il la possibilité de lancer de nouvelles tentatives ? 
+  Si le client a la possibilité de lancer de nouvelles tentatives, vous pouvez mettre en œuvre un système de limitation, qui indique à la source que si elle ne peut pas répondre à la demande au moment même, elle doit réessayer plus tard. 
  +  Vous pouvez utiliser [Amazon API Gateway](https://aws.amazon.com/api-gateway/) pour implémenter la régulation. 
+  Pour les clients qui ne peuvent pas effectuer de nouvelles tentatives, il faut mettre en œuvre un tampon pour aplanir la courbe de demande. Un tampon diffère le traitement des demandes, ce qui permet aux applications qui s’exécutent à différents débits de communiquer efficacement. Une approche basée sur la mémoire tampon utilise une file d’attente ou un flux pour accepter les messages des producteurs. Les messages sont lus par les consommateurs et traités, ce qui permet aux messages de fonctionner au rythme qui répond aux besoins des entreprises. 
  +  [Amazon Simple Queue Service (AmazonSQS)](https://aws.amazon.com/sqs/) est un service géré qui fournit des files d'attente permettant à un seul consommateur de lire des messages individuels. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) fournit un flux de données qui permet à de nombreux consommateurs de lire les mêmes messages. 
+  Analysez la demande globale, le taux de variation et le temps de réponse requis pour dimensionner correctement la limitation ou le tampon nécessaire. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Commencer à utiliser Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)
+ [Intégration d’applications à l’aide de files d’attente et de messages](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)
+ [Gestion et surveillance de la API régulation de vos charges de travail](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [Limiter à grande échelle un système multi-tenant hiérarchisé à l'aide REST API de Gateway API](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [Intégration d’applications à l’aide de files d’attente et de messages](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

 **Vidéos connexes :** 
+ [AWS re:Invent 2022 - Modèles d'intégration d'applications pour les microservices](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 - Économies intelligentes : stratégies d'optimisation des coûts d'Amazon EC2](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 - Modèles d'intégration avancés et compromis pour les systèmes faiblement couplés](https://www.youtube.com/watch?v=FGKGdUiZKto)