

# Modèles de comportement des utilisateurs
<a name="a-user-behavior-patterns"></a>

**Topics**
+ [SUS 2 Comment tirer parti des modèles de comportement des utilisateurs afin de soutenir vos objectifs de durabilité ?](w2aac19c15b7b5.md)

# SUS 2 Comment tirer parti des modèles de comportement des utilisateurs afin de soutenir vos objectifs de durabilité ?
<a name="w2aac19c15b7b5"></a>

La façon dont les utilisateurs consomment vos charges de travail et d'autres ressources peut vous aider à identifier les améliorations nécessaires pour atteindre vos objectifs de durabilité. Mettez votre infrastructure à l'échelle afin qu'elle corresponde toujours à la charge de l'utilisateur et garantir que seul le minimum de ressources nécessaires pour soutenir les utilisateurs est déployé. Alignez les niveaux de service sur les besoins des clients. Positionnez des ressources afin de limiter le réseau nécessaire aux utilisateurs pour les consommer. Supprimez toute ressources existante inutilisée. Identifiez les ressources créées et inutilisées, et arrêtez de les générer. Fournissez des appareils aux membres de votre équipe qui répondent à leurs besoins avec un impact minimal en matière de durabilité. 

 Bonnes pratiques : 

# SUS02-BP01 Mettre à l'échelle l'infrastructure avec la charge de l'utilisateur
<a name="sus_sus_user_a2"></a>

 Identifiez les périodes d'utilisation faible ou nulle, et réduisez vos ressources afin de supprimer toute capacité excédentaire et d'améliorer l'efficacité. 

**Anti-modèles courants :**
+ Vous ne mettez pas à l'échelle votre infrastructure avec la charge de l'utilisateur.
+ Vous mettez à l'échelle manuellement votre infrastructure en permanence.
+ Vous conservez une capacité accrue après un événement de mise à l'échelle au lieu de la réduire.

 **Avantages liés au respect de cette bonne pratique :** La configuration et le test de l'élasticité de la charge de travail permettent de réduire l'impact environnemental de la charge de travail, de réaliser des économies et de gérer des points de référence des performances. Vous pouvez profiter de l'élasticité du cloud pour mettre à l'échelle automatiquement la capacité pendant et après les pics de la charge de l'utilisateur, afin d'utiliser uniquement le nombre exact de ressources nécessaires pour répondre aux besoins des clients.

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>
+  L'élasticité correspond à l'offre de ressources dont vous disposez et à la demande pour ces ressources. Les instances, les conteneurs et les fonctions fournissent les mécanismes pour l'élasticité soit en combinaison avec la mise à l'échelle automatique, soit en tant que fonction du service. Utilisez l'élasticité de votre architecture pour veiller à ce que la charge de travail puisse réduire rapidement et facilement pendant la période de faible charge utilisateur : 
  +  Utilisez [Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/what-is-amazon-ec2-auto-scaling.html) pour vous assurer que vous disposez du nombre adéquat d'instances Amazon EC2 disponibles pour gérer la charge utilisateur de votre application. 
  +  Utilisez [Application Auto Scaling](https://docs.aws.amazon.com/autoscaling/application/userguide/what-is-application-auto-scaling.html) pour mettre à l'échelle automatiquement les ressources pour les services AWS individuels au-delà d'Amazon EC2, tels que les fonctions Lambda ou les services Amazon Elastic Container Service (Amazon ECS). 
  +  Utilisez [un Kubernetes Cluster Autoscaler](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) pour mettre à l'échelle automatiquement les clusters Kubernetes sur AWS. 
+  Vérifiez que les métriques de l'augmentation ou de la diminution sont validées par rapport au type de charge de travail déployée. Si vous déployez une application de transcodage vidéo, une utilisation de 100 % du processeur est attendue. N'en faites pas votre métrique principale. Vous pouvez utiliser une [métrique personnalisée](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (telle que l'utilisation de la mémoire) pour votre politique de mise à l'échelle si besoin. Pour choisir les bonnes métriques, tenez compte des conseils suivants pour Amazon EC2 : 
  +  La métrique doit être une métrique d'utilisation valide et décrire à quel point l'instance est occupée. 
  +  La valeur de la métrique doit augmenter ou diminuer proportionnellement au nombre d'instances dans le groupe Auto Scaling. 
+  Utilisez [la mise à l'échelle dynamique](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) plutôt que la [mise à l'échelle manuelle](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) pour votre groupe Auto Scaling. Nous vous recommandons également d'utiliser [des politiques de mise à l'échelle du suivi des cibles](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) dans votre mise à l'échelle dynamique. 
+  Vérifiez que les déploiements de charges de travail peuvent gérer à la fois les événements d'augmentation ou de diminution des charges de travail. Créez des scénarios de test pour les événements de diminution de charge de travail afin de vous assurer que cette dernière se comporte comme prévu. Vous pouvez utiliser **l'historique d'activité** pour tester et vérifier une activité de mise à l'échelle pour un groupe Auto Scaling. 
+  Évaluez votre charge de travail pour les modèles prédictifs et mettez-la à l'échelle de manière proactive pour anticiper les changements prévisibles et prévus de la demande. Utilisez [la mise à l'échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) pour supprimer la contrainte de surdimensionnement. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Démarrer avec Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Scalabilité prédictive pour EC2 alimentée par le machine learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyser le comportement des utilisateurs avec Amazon OpenSearch Service, Amazon Data Firehose et Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Qu'est-ce qu'Amazon CloudWatch ?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Qu'est-ce que AWS X-Ray ?](https://docs.aws.amazon.com/xray/latest/devguide/aws-xray.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Surveillance de la charge de base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Présentation de la prise en charge native pour la mise à l'échelle prédictive avec Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Comment créer une politique Amazon EC2 Auto Scaling basée sur une métrique d'utilisation de la mémoire (Linux)](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) 
+  [Présentation de Karpenter, un Kubernetes Cluster Autoscaler hautement performant et open source](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 

 **Vidéos connexes :** 
+  [Better, faster, cheaper compute: Cost-optimizing Amazon EC2 (CMP202-R1](https://www.youtube.com/watch?v=_dvh4P2FVbw) 

 **Exemples connexes :** 
+  Atelier : exemples de groupes Amazon EC2 Auto Scaling 
+  [Atelier : implémenter la mise à l'échelle automatique avec Karpenter](https://www.eksworkshop.com/beginner/085_scaling_karpenter/) 

# SUS02-BP02 Aligner les SLA sur vos objectifs de durabilité
<a name="sus_sus_user_a3"></a>

 Définissez et mettez à jour les contrats de niveau de service (SLA), tels que la disponibilité ou les périodes de conservation des données, afin de réduire le nombre de ressources nécessaires pour soutenir votre charge de travail tout en continuant à répondre à vos exigences métier. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>
+  Définir des SLA qui soutiennent vos objectifs de durabilité tout en répondant aux exigences de l'entreprise. 
+  Redéfinissez les SLA pour répondre aux exigences de l'entreprise, sans les dépasser. 
+  Faites des compromis qui réduisent grandement les impacts sur la durabilité en échange de baisses acceptables des niveaux de service. 
+  Utilisez des modèles de conception qui privilégient les fonctions essentielles à l'entreprise et permettent des niveaux de service inférieurs (tels que le temps de réponse ou les objectifs de temps pour la récupération) pour les fonctions non essentielles. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Accords de niveau de service (SLA) AWS](https://aws.amazon.com/legal/service-level-agreements/?aws-sla-cards.sort-by=item.additionalFields.serviceNameLower&aws-sla-cards.sort-order=asc&awsf.tech-category-filter=*all) 
+  [Importance du contrat de niveau de service pour les fournisseurs de SaaS](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Vidéos connexes :** 
+  [Building Sustainably on AWS](https://www.youtube.com/watch?v=ARAitMSIxc8) 

# SUS02-BP03 Arrêter la création et la maintenance des ressources inutilisées
<a name="sus_sus_user_a4"></a>

 Analysez les ressources de l'application (telles que les rapports pré-compilés, les jeux de données et les images statiques) et les modèles d'accès aux ressources pour identifier des redondances, une sous-utilisation et d'éventuelles cibles de mise hors service. Consolidez les ressources générées avec le contenu redondant (par exemple, des rapports mensuels avec des jeux de données et des résultats se chevauchant ou courants) pour supprimer les ressources consommées lors de la duplication des résultats. Mettez hors service les ressources inutilisées (par exemple, des images de produits qui ne sont plus vendus) afin de libérer des ressources consommées et réduire le nombre de ressources utilisées afin de soutenir la charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>
+  Gérez les ressources statiques et supprimez les ressources qui ne sont plus nécessaires. 
+  Gérez les ressources générées, arrêtez leur génération et supprimez les ressources qui ne sont plus nécessaires. 
+  Consolidez les ressources générées qui se chevauchent afin de supprimer tout traitement redondant. 
+  Demandez aux tiers d'arrêter de produire et de stocker les ressources gérées en votre nom qui ne sont plus nécessaires. 
+  Demandez aux tiers d'arrêter de consolider les ressources redondantes produites en votre nom. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 2 : stockage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 

 **Vidéos connexes :** 
+  [Building Sustainably on AWS](https://www.youtube.com/watch?v=ARAitMSIxc8) 

# SUS02-BP04 Optimiser l'emplacement géographique des charges de travail en fonction de la localisation des utilisateurs
<a name="sus_sus_user_a5"></a>

 Analysez les modèles d'accès au réseau pour identifier les lieux de connexion de vos clients. Choisissez des régions et des services qui réduisent la distance que le trafic du réseau doit parcourir afin de diminuer le nombre total de ressources réseau nécessaires pour assurer votre charge de travail. 

 ** Anti-modèles courants : ** 
+  Vous sélectionnez la région de la charge de travail en fonction de votre propre emplacement. 

 **Avantages liés au respect de cette bonne pratique :** placer une charge de travail à proximité de ses clients fournit une faible latence, tout en réduisant les mouvements de données sur le réseau ainsi que l'impact sur l'environnement. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyen 

## Directives d'implémentation
<a name="implementation-guidance"></a>
+  Choisissez les régions pour votre déploiement de charge de travail en fonction des éléments clés suivants : 
  +  **Objectif de durabilité** comme indiqué dans [Choix de la région](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Emplacement de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning). Le code de l'application doit s'exécuter aussi près que possible des données. 
  +  **Emplacement de vos utilisateurs :** pour les applications orientées utilisateur, choisissez une région proche de la clientèle de votre charge de travail.
  + **Autres contraintes :** tenez compte de contraintes telles que la sécurité et la conformité comme indiqué dans [Éléments à prendre en compte lors de la sélection d'une région pour vos charges de travail](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilisez [AWS Local Zones](https://aws.amazon.com/global-infrastructure/localzones/) pour exécuter des charges de travail telles que la restitution vidéo et les applications de bureau virtuel à traitement graphique intensif. Ces zones locales vous permettent de profiter des avantages liés à la présence de ressources de calcul et de stockage plus proches des utilisateurs finaux. 
+  Utilisez la mise en cache locale ou des [solutions de mise en cache AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressources fréquemment utilisées afin d'améliorer les performances, limiter les mouvements de données et réduire l'impact sur l'environnement. 
  + Utilisez [Amazon CloudFront](https://aws.amazon.com/cloudfront/) pour mettre en cache du contenu statique comme des images, des scripts et des vidéos, ainsi que du contenu dynamique comme des réponses API ou des applications Web.
  + Utilisez [Amazon ElastiCache](https://aws.amazon.com/elasticache/) pour mettre en cache du contenu pour les applications Web.
  + Utilisez [DynamoDB Accelerator](https://aws.amazon.com/dynamodb/dax/) pour ajouter une accélération en mémoire à vos tables DynamoDB.
+  Utilisez des services capables de vous aider à exécuter du code plus proche des utilisateurs de votre charge de travail :
  + Utilisez [Lambda@Edge](https://aws.amazon.com/lambda/edge/) pour les opérations exigeantes en puissance de calcul qui s'exécutent lorsque des objets ne sont pas dans le cache. 
  + Utilisez [les fonctions Amazon CloudFront](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/cloudfront-functions.html) pour les cas d'utilisation simples comme une demande HTTP(S) ou des manipulations de réponse pouvant être exécutées par des fonctions brèves. 
  + Utilisez [AWS IoT Greengrass](https://aws.amazon.com/greengrass/) pour exécuter du calcul local, une messagerie et une mise en cache de données pour les appareils connectés. 
+  Utilisez le regroupement de connexions afin de pouvoir réutiliser les connexions et réduire les ressources nécessaires. 
+  Utilisez des magasins de données distribués qui ne s'appuient pas sur des connexions persistantes ni sur des mises à jour synchrones pour des raisons de cohérence afin de servir les populations régionales. 
+  Remplacez la capacité du réseau statique pré-allouée par une capacité dynamique partagée, et partagez l'impact en matière de durabilité de la capacité du réseau avec d'autres abonnés. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Optimisation de votre infrastructure AWS pour la durabilité, partie 3 : mise en réseau](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Documentation Amazon ElastiCache](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Qu'est-ce que Amazon CloudFront ?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [Fonctionnalités clés d'Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 
+  [Lambda@Edge](https://aws.amazon.com/lambda/edge/) 
+  [Fonctions CloudFront](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/cloudfront-functions.html) 
+ [AWS IoT Greengrass](https://aws.amazon.com/greengrass/)

 **Vidéos connexes :** 
+  [Building Sustainably on AWS](https://www.youtube.com/watch?v=ARAitMSIxc8) 

 **Exemples connexes :** 
+  [Ateliers sur la mise en réseau AWS](https://catalog.workshops.aws/networking/en-US) 

# SUS02-BP05 Optimiser les ressources des membres de l'équipe pour les activités réalisées
<a name="sus_sus_user_a6"></a>

 Optimisez les ressources fournies aux membres de l'équipe pour réduire l'impact sur la durabilité tout en répondant à leurs besoins. Par exemple, réalisez des opérations complexes, telles que le rendu et la compilation, sur des bureaux partagés sur le cloud et hautement utilisés au lieu de systèmes à utilisateur unique sous-utilisés et très puissants. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>
+  Allouez des postes de travail et d'autres appareils conformément à leur utilisation. 
+  Utilisez des bureaux virtuels et le streaming d'applications pour limiter les exigences liées aux mises à niveau et aux appareils. 
+  Déplacez dans le cloud les tâches gourmandes en processeur ou en mémoire. 
+  Évaluez l'impact des processus et des systèmes sur le cycle de vie de votre appareil et choisissez des solutions qui réduisent au minimum le besoin de remplacer celui-ci tout en répondant aux exigences de l'entreprise. 
+  Intégrez la gestion à distance des appareils afin de réduire les déplacements professionnels nécessaires. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Qu'est-ce qu'Amazon WorkSpaces ?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+  [Documentation Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 
+  [AWS Systems Manager Fleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) 

 **Vidéos connexes :** 
+  [Building Sustainably on AWS](https://www.youtube.com/watch?v=ARAitMSIxc8) 