

# SUS 2 Comment aligner les ressources du cloud sur votre demande ?
<a name="sus-02"></a>

La façon dont les utilisateurs et les applications consomment vos charges de travail et d'autres ressources peut vous aider à identifier les améliorations nécessaires pour atteindre vos objectifs de durabilité. Faites évoluer l'infrastructure pour répondre en permanence à la demande et vérifiez que vous n'utilisez que les ressources minimales requises pour prendre en charge vos utilisateurs. Alignez les niveaux de service sur les besoins des clients. Positionnez les ressources afin de limiter la connexion réseau nécessaire aux utilisateurs et aux applications qui les utilisent. Supprimez les ressources inutilisées. Fournissez aux membres de votre équipe des appareils qui répondent à leurs besoins et minimisent leur impact en matière de durabilité.

**Topics**
+ [SUS02-BP01 Mettre à l'échelle l'infrastructure de la charge de travail de façon dynamique](sus_sus_user_a2.md)
+ [SUS02-BP02 Aligner les SLA sur vos objectifs de durabilité](sus_sus_user_a3.md)
+ [SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées](sus_sus_user_a4.md)
+ [SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences réseau](sus_sus_user_a5.md)
+ [SUS02-BP05 Optimiser les ressources des membres de l'équipe pour les activités réalisées](sus_sus_user_a6.md)
+ [SUS02-BP06 Mise en œuvre de la mise en mémoire tampon ou de la limitation pour aplanir la courbe de la demande](sus_sus_user_a7.md)

# SUS02-BP01 Mettre à l'échelle l'infrastructure de la charge de travail de façon dynamique
<a name="sus_sus_user_a2"></a>

Utilisez l'élasticité du cloud et mettez à l'échelle votre infrastructure de façon dynamique afin de rapprocher l'offre de ressources cloud de la demande et d'éviter de surprovisionner une capacité dans votre charge de travail.

**Anti-modèles courants :**
+ Vous ne mettez pas à l'échelle votre infrastructure avec la charge de l'utilisateur.
+ Vous mettez à l'échelle manuellement votre infrastructure en permanence.
+ Vous conservez une capacité accrue après un événement de mise à l'échelle au lieu de la réduire.

 **Avantages à établir cette meilleure pratique :** configurer et tester l'élasticité de la charge de travail permet de rapprocher de façon efficace l'offre des ressources cloud de la demande et d'éviter de surprovisionner une capacité. Vous pouvez profiter de l'élasticité du cloud pour mettre à l'échelle automatiquement la capacité pendant et après les pics de demande, afin d'utiliser uniquement le bon nombre de ressources nécessaires pour répondre aux exigences de votre entreprise.

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Le cloud vous apporte la flexibilité dont vous avez besoin pour développer ou réduire vos ressources de manière dynamique via une grande variété de mécanismes afin de répondre aux fluctuations de la demande. Rapprocher de façon optimale l'offre de la demande a le plus faible impact environnemental pour une charge de travail. 

 La demande peut être fixe ou variable, ce qui nécessite des métriques et une automatisation pour que la gestion ne devienne pas contraignante. Les applications peuvent se mettre à l'échelle de façon verticale (dans les deux sens) en modifiant la taille de l'instance, de façon horizontale (dans les deux sens) en modifiant le nombre d'instances, ou une combinaison des deux. 

 Vous pouvez utiliser plusieurs approches pour rapprocher l'offre de ressources de la demande. 
+  **Approche visant à suivre les cibles :** surveillez votre métrique de capacité de mise à l'échelle et augmentez ou réduisez automatiquement votre capacité selon vos besoins. 
+  **Mise à l'échelle prédictive :** mettez à l'échelle en prévision des tendances quotidiennes et hebdomadaires. 
+  **Approche basée sur un calendrier :** planifiez votre propre calendrier de mise à l'échelle en fonction de changements de charge prévisibles. 
+  **Mise à l'échelle des services :** sélectionnez des services (par exemple sans serveur) conçus pour se mettre à l'échelle ou fournissez une fonction de mise à l'échelle automatique. 

 Identifiez les périodes d'utilisation faible ou nulle, et mettez vos ressources à l'échelle afin de supprimer toute capacité excédentaire et améliorer l'efficacité. 

## Étapes d'implémentation
<a name="implementation-steps"></a>
+ L'élasticité correspond à l'offre de ressources dont vous disposez et à la demande pour ces ressources. Les instances, les conteneurs et les fonctions fournissent les mécanismes pour l'élasticité, soit en combinaison avec la mise à l'échelle automatique, soit en tant que fonction du service. AWS fournit une gamme de mécanismes de mise à l'échelle automatique pour veiller à ce que les charges de travail puissent réduire rapidement et facilement pendant les périodes de faible charge utilisateur. Voici des exemples de mécanismes de mise à l'échelle automatique :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-04-10/framework/sus_sus_user_a2.html)
+  La mise à l'échelle est souvent discutée pour les services de calcul, tels que les instances Amazon EC2 ou les fonctions AWS Lambda. Envisagez la configuration de services non liés au calcul, tels que les unités de capacité de lecture et d'écriture [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) ou les partitions [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) pour rapprocher la demande. 
+  Vérifiez que les métriques de l'augmentation ou de la diminution sont validées par rapport au type de charge de travail déployée. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N'en faites pas votre métrique principale. Vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (telle que l'utilisation de la mémoire) pour votre politique de mise à l'échelle, le cas échéant. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d'utilisation valide et décrire à quel point l'instance est occupée. 
  +  La valeur de la métrique doit augmenter ou diminuer proportionnellement au nombre d'instances dans le groupe Auto Scaling. 
+  Utilisez la [mise à l'échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) au lieu de la [mise à l'échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d'utiliser des [politiques de mise à l'échelle en suivant les cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) pour votre mise à l'échelle dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer à la fois les événements d'augmentation et de diminution des charges de travail. Créez des scénarios de test pour les événements de diminution afin de vérifier que la charge de travail se comporte comme prévu et n'a aucun impact sur l'expérience utilisateur (comme la perte de sessions permanentes). Vous pouvez utiliser [Activity history](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) (Historique de l'activité) pour vérifier une activité de mise à l'échelle pour un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l'échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Avec la mise à l'échelle prédictive, vous pouvez supprimer le besoin de surprovisionner de la capacité. Pour plus de détails, consultez [Predictive Scaling with Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) (Mise à l'échelle prédictive avec Amazon EC2 Auto Scaling). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Démarrer avec Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Scalabilité prédictive pour EC2 alimentée par le machine learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyser le comportement des utilisateurs avec Amazon OpenSearch Service, Amazon Data Firehose et Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Qu'est-ce qu'Amazon CloudWatch ?](https://docs.aws.amazon.com/Amazon/latest/monitoring/WhatIs.html) 
+  [Surveillance de la charge de base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Présentation de la prise en charge native pour la mise à l'échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Présentation de Karpenter, un Kubernetes Cluster Autoscaler hautement performant et open source](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [En savoir plus sur la Auto Scaling d'un cluster Amazon ECS](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Vidéos connexes :** 
+  [Concevoir un environnement de calcul rentable, économe en énergie et en ressources](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+  [Un calcul de meilleure qualité, plus rapide et moins cher : rentabiliser Amazon EC2 (CMP202-R1)](https://www.youtube.com/watch?v=_dvh4P2FVbw) 

 **Exemples connexes :** 
+  [Atelier : exemples de groupes Amazon EC2 Auto Scaling](https://github.com/aws-samples/amazon-ec2-auto-scaling-group-examples) 
+  [Atelier : implémenter la mise à l'échelle automatique avec Karpenter](https://www.eksworkshop.com/beginner/085_scaling_karpenter/) 

# SUS02-BP02 Aligner les SLA sur vos objectifs de durabilité
<a name="sus_sus_user_a3"></a>

 Vérifiez et optimisez les contrats de niveau de service (SLA) de la charge de travail en fonction de vos objectifs de durabilité pour réduire les ressources nécessaires afin de prendre en charge votre charge de travail tout en continuant à répondre aux besoins de l'entreprise. 

 **Anti-modèles courants :** 
+  Les contrats de niveau de service (SLA) de la charge de travail ne sont pas connus ou ambigus. 
+  Vous définissez votre contrat de niveau de service (SLA) uniquement pour la disponibilité et les performances. 
+  Vous utilisez le même modèle de conception (comme une architecture multi-AZ) pour toutes vos charges de travail. 

 **Avantages liés au respect de cette bonne pratique :** l'alignement des contrats de niveau de service (SLA) sur les objectifs de durabilité entraîne une utilisation optimale des ressources tout en répondant aux besoins métier. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les contrats de niveau de service (SLA) définissent le niveau de service attendu d'une charge de travail sur le cloud, comme le temps de réponse, la disponibilité et la conservation des données. Ils influencent l'architecture, l'utilisation des ressources et l'impact environnemental d'une charge de travail sur le cloud. À intervalles réguliers, vérifiez les contrats de niveau de service (SLA) et faites des compromis qui réduisent grandement l'utilisation des ressources en échange de baisses acceptables des niveaux de service. 

 **Étapes d'implémentation** 
+  Définissez ou rétablissez des contrats de niveau de service (SLA) qui soutiennent vos objectifs de durabilité tout en répondant aux exigences de l'entreprise, sans les dépasser. 
+  Faites des compromis qui réduisent grandement les impacts sur la durabilité en échange de baisses acceptables des niveaux de service. 
  +  **Durabilité et fiabilité :** les charges de travail hautement disponibles ont tendance à consommer plus de ressources. 
  +  **Durabilité et performances :** l'utilisation de plus de ressources pour booster les performances pourrait avoir un impact environnemental plus important. 
  +  **Durabilité et sécurité :** la sécurité trop importante des charges de travail pourrait avoir un impact environnemental plus important. 
+  Utilisez des modèles de conception, tels que des [microservices sur AWS](https://docs.aws.amazon.com/whitepapers/latest/microservices-on-aws/microservices-on-aws.html) qui privilégient les fonctions essentielles à l'entreprise et permettent des niveaux de service inférieurs (tels que le temps de réponse ou les objectifs de temps pour la récupération) pour les fonctions non essentielles. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Accords de niveau de service (SLA) AWS](https://aws.amazon.com/legal/service-level-agreements/?aws-sla-cards.sort-by=item.additionalFields.serviceNameLower&aws-sla-cards.sort-order=asc&awsf.tech-category-filter=*all) 
+  [Importance du contrat de niveau de service pour les fournisseurs de SaaS](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Vidéos connexes :** 
+ [Delivering sustainable, high-performing architectures](https://www.youtube.com/watch?v=FBc9hXQfat0) (Offre d'architectures durables hautement performantes)
+ [Concevoir un environnement de calcul rentable, économe en énergie et en ressources](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées
<a name="sus_sus_user_a4"></a>

Mettez hors service les ressources inutilisées de votre charge de travail afin de réduire le nombre de ressources cloud nécessaires pour répondre à votre demande et minimiser le gaspillage.

 **Anti-modèles courants :** 
+  Vous n'analysez pas votre application pour détecter les ressources redondantes ou qui ne sont plus nécessaires. 
+  Vous ne supprimez pas les ressources redondantes ou qui ne sont plus nécessaires. 

 **Avantages liés au respect de cette bonne pratique :** la suppression des éléments inutilisés libère des ressources et améliore l'efficacité globale de la charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Les ressources inutilisées consomment les ressources du cloud telles que l'espace de stockage et la puissance de calcul. En identifiant et en éliminant ces ressources, vous pouvez les libérer, ce qui se traduit par une architecture cloud plus efficace. Analysez régulièrement les ressources de l'application telles que les rapports pré-compilés, les jeux de données, les images statiques et les modèles d'accès aux ressources pour identifier des redondances, une sous-utilisation et d'éventuelles cibles de mise hors service. Supprimez ces ressources redondantes pour réduire le gaspillage de ressources dans votre charge de travail. 

 **Étapes d'implémentation** 
+  Utilisez des outils de surveillance pour identifier les ressources statiques qui ne sont plus nécessaires. 
+  Avant de supprimer une ressource, évaluez l'impact de sa suppression sur l'architecture. 
+  Élaborez un plan et supprimez les ressources qui ne sont plus nécessaires. 
+  Consolidez les ressources générées qui se chevauchent afin de supprimer tout traitement redondant. 
+  Mettez à jour vos applications pour ne plus produire et stocker les ressources qui ne sont pas nécessaires. 
+  Demandez aux tiers d'arrêter de produire et de stocker les ressources gérées en votre nom qui ne sont plus nécessaires. 
+  Demandez aux tiers d'arrêter de consolider les ressources redondantes produites en votre nom. 
+  Examinez régulièrement votre charge de travail pour identifier et supprimer les ressources inutilisées. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 2 : stockage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [ Comment résilier les ressources actives dont je n'ai plus besoin sur mon Compte AWS ? ](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Vidéos connexes :** 
+ [ Comment vérifier et supprimer les ressources actives dont je n'ai plus besoin sur mon Compte AWS ? ](https://www.youtube.com/watch?v=pqg9AqESRlg)

# SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences réseau
<a name="sus_sus_user_a5"></a>

Pour votre charge de travail, sélectionnez un emplacement et des services cloud qui réduisent la distance que le trafic réseau doit parcourir et diminuent les ressources réseau totales requises pour gérer votre charge de travail.

 ** Anti-modèles courants : ** 
+  Vous sélectionnez la région de la charge de travail en fonction de votre propre emplacement. 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Tout le trafic passe par vos centres de données existants. 

 **Avantages liés au respect de cette bonne pratique :** placer une charge de travail à proximité de ses clients fournit une faible latence, tout en réduisant les mouvements de données sur le réseau ainsi que l'impact sur l'environnement. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 L'infrastructure AWS Cloud est conçue autour d'options d'emplacement telles que les régions, les zones de disponibilité, les groupes de placement et les emplacements périphériques comme [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html) et [les zones locales AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Ces options d'emplacement sont responsables de la connectivité entre les composants d'application, les services cloud, les réseaux périphériques et les centres de données sur site. 

 Analysez les modèles d'accès au réseau dans votre charge de travail pour identifier comment utiliser ces options de localisation dans le cloud et réduire la distance que le trafic réseau doit parcourir. 

## Étapes d'implémentation
<a name="implementation-steps"></a>
+  Analysez les modèles d'accès au réseau dans votre charge de travail afin d'identifier comment les utilisateurs utilisent votre application. 
  +  Utilisez des outils de surveillance, comme [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) et [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), pour recueillir des données sur les activités du réseau. 
  +  Analysez les données pour identifier le modèle d'accès au réseau. 
+  Choisissez les régions pour votre déploiement de charge de travail en fonction des éléments clés suivants : 
  +  **Objectif de durabilité** comme indiqué dans [Choix de la région](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Emplacement de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning). Le code de l'application doit s'exécuter aussi près que possible des données. 
  +  **Emplacement de vos utilisateurs :** pour les applications orientées utilisateur, choisissez une région ou des régions proches des utilisateurs de votre charge de travail.
  + **Autres contraintes :** tenez compte de contraintes telles que le coût et la conformité comme indiqué dans [Éléments à prendre en compte lors de la sélection d'une région pour vos charges de travail](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilisez la mise en cache locale ou des [solutions de mise en cache AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressources fréquemment utilisées afin d'améliorer les performances, de limiter les mouvements de données et de réduire l'impact sur l'environnement.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-04-10/framework/sus_sus_user_a5.html)
+  Utilisez des services capables de vous aider à exécuter du code plus proche des utilisateurs de votre charge de travail :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-04-10/framework/sus_sus_user_a5.html)
+  Utilisez le regroupement de connexions afin de pouvoir réutiliser les connexions et réduire les ressources nécessaires. 
+  Utilisez des magasins de données distribués qui ne s'appuient pas sur des connexions persistantes ni sur des mises à jour synchrones pour des raisons de cohérence afin de servir les populations régionales. 
+  Remplacez la capacité du réseau statique pré-allouée par une capacité dynamique partagée, et partagez l'impact en matière de durabilité de la capacité du réseau avec d'autres abonnés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 3 : mise en réseau](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Documentation Amazon ElastiCache](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Qu'est-ce que Amazon CloudFront ?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [Fonctionnalités clés d'Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 

 **Vidéos connexes :** 
+  [Demystifying data transfer on AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [ Scaling network performance on next-gen Amazon EC2 instances ](https://www.youtube.com/watch?v=jNYpWa7gf1A)

 **Exemples connexes :** 
+  [Ateliers sur la mise en réseau AWS](https://catalog.workshops.aws/networking/en-US) 
+ [ Une architecture axée sur la durabilité : réduisez les mouvements de données sur les réseaux ](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Optimiser les ressources des membres de l'équipe pour les activités réalisées
<a name="sus_sus_user_a6"></a>

Optimisez les ressources fournies aux membres de l'équipe pour réduire l'impact sur la durabilité environnementale tout en répondant à leurs besoins. 

 **Anti-modèles courants :** 
+  Vous ignorez l'impact des appareils utilisés par les membres de votre équipe sur l'efficacité globale de votre application cloud. 
+  Vous gérez et mettez à jour manuellement les ressources utilisées par les membres de l'équipe. 

 **Avantages liés au respect de cette bonne pratique :** l'optimisation des ressources des membres de l'équipe améliore l'efficacité globale des applications basées sur le cloud. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Comprenez les ressources que les membres de votre équipe utilisent pour consommer vos services, leur cycle de vie prévu et l'impact financier et sur la durabilité. Mettez en œuvre des stratégies pour optimiser ces ressources. Par exemple, effectuez des opérations complexes, telles que le rendu et la compilation, sur une infrastructure évolutive hautement utilisée plutôt que sur des systèmes mono-utilisateurs puissants et sous-utilisés. 

 **Étapes d'implémentation** 
+  Allouez des postes de travail et d'autres appareils conformément à leur utilisation. 
+  Utilisez des bureaux virtuels et le streaming d'applications pour limiter les exigences liées aux mises à niveau et aux appareils. 
+  Déplacez les tâches gourmandes en processeur ou en mémoire vers le cloud pour profiter de son élasticité. 
+  Évaluez l'impact des processus et des systèmes sur le cycle de vie de votre appareil et choisissez des solutions qui réduisent au minimum le besoin de remplacer celui-ci tout en répondant aux exigences de l'entreprise. 
+  Intégrez la gestion à distance des appareils afin de réduire les déplacements professionnels nécessaires. 
  +  [AWS Systems Manager Fleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) est une interface utilisateur (IU) unifiée qui vous aide à gérer à distance vos nœuds fonctionnant sur site ou dans AWS. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Qu'est-ce qu'Amazon WorkSpaces ?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [ Cost Optimizer for Amazon WorkSpaces ](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html) (Optimiseur de coûts pour Amazon WorkSpaces)
+  [Documentation Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Vidéos connexes :** 
+  [Managing cost for Amazon WorkSpaces on AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) (Gestion des coûts pour Amazon WorkSpaces sur AWS) 

# SUS02-BP06 Mise en œuvre de la mise en mémoire tampon ou de la limitation pour aplanir la courbe de la demande
<a name="sus_sus_user_a7"></a>

La mise en mémoire tampon et la limitation aplatissent la courbe de la demande et réduisent la capacité provisionnée requise pour votre charge de travail. 

 **Anti-modèles courants :** 
+ Vous traitez les demandes des clients immédiatement alors que ce n'est pas nécessaire.
+ Vous n'analysez pas les exigences des demandes des clients.

 **Avantages liés au respect de cette bonne pratique :** l'aplatissement de la courbe de la demande réduit la capacité provisionnée requise pour la charge de travail. En réduisant la capacité provisionnée, on réduit la consommation d'énergie et l'impact environnemental. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** faible 

 L'aplatissement de la courbe de demande de la charge de travail peut vous aider à réduire la capacité provisionnée pour une charge de travail et à réduire son impact environnemental. Prenons l'exemple une charge de travail dont la courbe de demande est représentée dans la figure ci-dessous. Cette charge de travail a deux pics, et pour gérer ces pics, la capacité des ressources comme indiqué par la ligne orange est provisionnée. Les ressources et l'énergie utilisées pour cette charge de travail ne sont pas indiquées par la zone sous la courbe de la demande, mais par la zone sous la ligne de la capacité provisionnée, car la capacité provisionnée est nécessaire pour gérer ces deux pics. 

![\[Forme d'onde de la capacité provisionnée avec deux pics distincts qui nécessitent une capacité provisionnée élevée.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-04-10/framework/images/provisioned-capacity-1.png)


 

 Vous pouvez utiliser la mise en mémoire tampon ou la limitation pour modifier la courbe de la demande et lisser les pics, ce qui signifie moins de capacité provisionnée et moins d'énergie consommée. Mettez en œuvre la limitation lorsque vos clients peuvent effectuer de nouvelles tentatives. Mettez en œuvre une mémoire tampon pour stocker la demande et reporter le traitement. 

![\[Diagramme de forme d'onde affichant une charge de travail avec des pics lissés créés à l'aide de la mise en mémoire tampon ou de la limitation.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/2023-04-10/framework/images/provisioned-capacity-2.png)


 

 **Étapes d'implémentation** 
+  Analysez les demandes des clients pour déterminer comment y répondre. Les questions à se poser sont les suivantes : 
  +  Cette demande peut-elle être traitée de manière asynchrone ? 
  +  Le client a-t-il la possibilité de lancer de nouvelles tentatives ? 
+  Si le client a la possibilité de lancer de nouvelles tentatives, vous pouvez mettre en œuvre un système de limitation, qui indique à la source que si elle ne peut pas répondre à la demande au moment même, elle doit réessayer plus tard. 
  +  Vous pouvez utiliser [Amazon API Gateway](https://aws.amazon.com/api-gateway/) pour la mise en œuvre de la limitation. 
+  Pour les clients qui ne peuvent pas effectuer de nouvelles tentatives, il faut mettre en œuvre un tampon pour aplanir la courbe de demande. Un tampon diffère le traitement des demandes, ce qui permet aux applications qui s'exécutent à différents débits de communiquer efficacement. Une approche basée sur la mémoire tampon utilise une file d'attente ou un flux pour accepter les messages des producteurs. Les messages sont lus par les consommateurs et traités, ce qui permet aux messages de fonctionner au rythme qui répond aux besoins des entreprises. 
  +  [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) est un service géré qui fournit des files d'attente permettant à un seul consommateur de lire des messages individuels. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) fournit un flux de données qui permet à de nombreux consommateurs de lire les mêmes messages. 
+  Analysez la demande globale, le taux de variation et le temps de réponse requis pour dimensionner correctement la limitation ou le tampon nécessaire. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Getting started with Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) (Démarrer avec Amazon SQS)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/) (Intégration des applications à l'aide de files d'attente et de messages)

 **Vidéos connexes :** 
+ [ Choosing the Right Messaging Service for Your Distributed App ](https://www.youtube.com/watch?v=4-JmX6MIDDI) (Choisir le bon service de messagerie pour votre application distribuée)