

# PERF 5  Comment configurer votre solution de mise en réseau ?
<a name="w2aac19c11b5c13"></a>

 La solution réseau optimale pour une charge de travail varie en fonction des exigences de latence, de bande passante, de registre et de débit. Le choix des options d'emplacement est tributaire des contraintes physiques telles que les ressources pour utilisateur ou sur site. Ces contraintes peuvent être compensées avec les emplacements périphériques ou le placement des ressources. 

**Topics**
+ [PERF05-BP01 Comprendre l'impact de la mise en réseau sur les performances](perf_select_network_understand_impact.md)
+ [PERF05-BP02 Évaluer les fonctionnalités de mise en réseau disponibles](perf_select_network_evaluate_features.md)
+ [PERF05-BP03 Choisir une connectivité dédiée ou un VPN de taille appropriée pour les charges de travail hybrides](perf_select_network_hybrid.md)
+ [PERF05-BP04 Tirer parti de l'équilibrage de charge et du déchargement du chiffrement](perf_select_network_encryption_offload.md)
+ [PERF05-BP05 Choisir des protocoles réseau afin d'améliorer les performances](perf_select_network_protocols.md)
+ [PERF05-BP06 Choisir l'emplacement de votre charge de travail en fonction des exigences réseau](perf_select_network_location.md)
+ [PERF05-BP07 Optimiser la configuration réseau en fonction de métriques](perf_select_network_optimize.md)

# PERF05-BP01 Comprendre l'impact de la mise en réseau sur les performances
<a name="perf_select_network_understand_impact"></a>

 Analysez et comprenez l'impact des décisions liées au réseau sur les performances des charges de travail. Le réseau est responsable de la connectivité entre les composants d'application, les services cloud, les réseaux périphériques et les données sur site et, par conséquent, il peut avoir un impact majeur sur les performances de la charge de travail. Outre les performances de la charge de travail, l'expérience utilisateur est également affectée par la latence du réseau, la bande passante, les protocoles, l'emplacement, la congestion du réseau, l'instabilité, le débit et les règles de routage. 

 **Résultat souhaité :** Avoir une liste documentée des exigences de mise en réseau de la charge de travail, y compris la latence, la taille des paquets, les règles de routage, les protocoles et les modèles de trafic pris en charge. Passez en revue les solutions de mise en réseau disponibles et identifiez le service qui répond aux caractéristiques de mise en réseau de votre charge de travail. Les réseaux basés sur le cloud peuvent être rapidement recréés. L'évolution de votre architecture réseau au fil du temps est donc nécessaire pour améliorer l'efficacité des performances. 

 **Anti-modèles courants :** 
+  Tout le trafic passe par vos centres de données existants. 
+  Vous créez des sessions Direct Connect de manière excessive sans connaître les exigences d'utilisation réelles. 
+  Vous ne tenez pas compte des caractéristiques de la charge de travail et de la surcharge de chiffrement lors de la définition de vos solutions de mise en réseau. 
+  Vous utilisez des concepts et des stratégies sur site pour les solutions de mise en réseau dans le cloud. 

 **Avantages liés au respect de cette bonne pratique :** Comprendre comment la mise en réseau affecte les performances de la charge de travail vous aidera à identifier les goulots d'étranglement potentiels, à améliorer l'expérience utilisateur, à accroître la fiabilité et à réduire la maintenance opérationnelle à mesure que la charge de travail évolue. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Identifiez les métriques de performance réseau clés de votre charge de travail et capturez ses caractéristiques de mise en réseau. Définissez et documentez les exigences dans le cadre d'une approche axée sur les données, à l'aide de la définition de points de référence ou de tests de charge. Utilisez ces données pour identifier les points où votre solution réseau est limitée, et examinez les options de configuration susceptibles d'améliorer la charge de travail. Familiarisez-vous avec les fonctionnalités et les options de mise en réseau cloud native disponibles et leur impact sur les performances de votre charge de travail en fonction des exigences. Chaque fonction de mise en réseau présente des avantages et des inconvénients et peut être configurée pour répondre aux caractéristiques et à l'échelle de votre charge de travail en fonction de vos besoins. 

 **Étapes d'implémentation :** 

1.  Définir et documenter les exigences de performances réseau : 

   1.  Inclure des métriques telles que la latence du réseau, la bande passante, les protocoles, les emplacements, les modèles de trafic (pics et fréquence), le débit, le chiffrement, l'inspection et les règles de routage 

1.  Capturer les caractéristiques de mise en réseau fondamentales : 

   1.  [Journaux de flux VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

   1.  [Métriques AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/transit-gateway-cloudwatch-metrics.html) 

   1.  [Métriques AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-cloudwatch-metrics.html) 

1.  Capturer les caractéristiques de mise en réseau des applications : 

   1.  [Adaptateur de réseau élastique (ENA)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html) 

   1.  [Métriques AWS App Mesh](https://docs.aws.amazon.com/app-mesh/latest/userguide/envoy-metrics.html) 

   1.  [Métriques Amazon API Gateway](https://docs.aws.amazon.com/apigateway/latest/developerguide/api-gateway-metrics-and-dimensions.html) 

1.  Capturer les caractéristiques de mise en réseau à la périphérie : 

   1.  [Métriques Amazon CloudFront](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/viewing-cloudfront-metrics.html) 

   1.  [Métriques Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/monitoring-cloudwatch.html) 

   1.  [Métriques AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/cloudwatch-monitoring.html) 

1.  Capturer les caractéristiques de mise en réseau hybride : 

   1.  [Métriques Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/monitoring-cloudwatch.html) 

   1.  [Métriques AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/monitoring-cloudwatch-vpn.html) 

   1.  [Métriques AWS Client VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/monitoring-cloudwatch.html) 

   1.  [Métriques AWS Cloud WAN](https://docs.aws.amazon.com/vpc/latest/cloudwan/cloudwan-cloudwatch-metrics.html) 

1.  Capturer les caractéristiques de mise en réseau de la sécurité : 

   1.  [Métriques AWS Shield, WAF et Network Firewall](https://docs.aws.amazon.com/waf/latest/developerguide/monitoring-cloudwatch.html) 

1.  Capturer les métriques de performance de bout en bout avec des outils de traçabilité : 

   1.  [AWS X-Ray](https://aws.amazon.com/xray/) 

   1.  [Amazon CloudWatch RUM](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 

1.  Définir des points de référence et et tester les performances du réseau : 

   1.  [Évaluer](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) le débit réseau : certains facteurs peuvent affecter les performances du réseau EC2 lorsque les instances se trouvent dans le même VPC. Mesurez la bande passante réseau entre les instances EC2 Linux dans le même VPC. 

   1.  Effectuer [des tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour expérimenter des solutions et des options de mise en réseau 

 **Niveau d'effort du plan d'implémentation : **Il existe un niveau d'effort *moyen* pour documenter les exigences de mise en réseau de la charge de travail, les options et les solutions disponibles. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+ [Mise en réseau améliorée d'EC2 sous Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+ [Capacité réseau améliorée d'EC2 sous Windows ](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+ [Groupes de placement EC2 ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+ [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+ [Network Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway ](https://docs.aws.amazon.com/vpc/latest/tgw)
+ [Transition vers le routage basé sur la latence dans Amazon Route 53 ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [Points de terminaison d'un VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [Journaux de flux VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+ [Connectivity to AWS and hybrid AWS network architectures (NET317-R1) ](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1) ](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Improve Global Network Performance for Applications](https://youtu.be/vNIALfLTW9M) 
+  [EC2 Instances and Performance Optimization Best Practices](https://youtu.be/W0PKclqP3U0) 
+  [Optimizing Network Performance for Amazon EC2 Instances](https://youtu.be/DWiwuYtIgu0) 
+  [Networking best practices and tips with the Well-Architected Framework](https://youtu.be/wOMNpG49BeM) 
+  [AWS networking best practices in large-scale migrations](https://youtu.be/qCQvwLBjcbs) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP02 Évaluer les fonctionnalités de mise en réseau disponibles
<a name="perf_select_network_evaluate_features"></a>

Évaluez les fonctions de mise en réseau dans le cloud qui peuvent améliorer les performances. Mesurez l'impact de ces fonctions au moyen de tests, de métriques et de l'analyse. Par exemple, tirez parti des fonctions au niveau du réseau qui sont disponibles pour réduire la latence, la perte de paquets ou l'instabilité. 

De nombreux services sont créés afin d'améliorer les performances et d'autres offrent généralement des fonctionnalités pour optimiser les performances réseau. Des services tels qu'AWS Global Accelerator et Amazon CloudFront existent pour améliorer les performances, tandis que la plupart des autres services disposent de fonctionnalités de produits pour optimiser le trafic réseau. Examinez des fonctionnalités de service comme la fonctionnalité de réseau d'instance EC2, les types d'instance de mise en réseau améliorés, les instances optimisées pour Amazon EBS, Amazon S3 Transfer Acceleration et la fonctionnalité CloudFront pour optimiser les performances réseau. 

**Résultat souhaité :** Vous avez documenté l'inventaire des composants dans votre charge de travail et identifié quelles configurations de mise en réseau par composant vous aideraient à répondre à vos exigences de performances. Après avoir évalué les fonctionnalités de mise en réseau, vous avez testé et mesuré les métriques de performances afin d'identifier comment utiliser les fonctionnalités à votre disposition. 

**Anti-modèles courants :** 
+ Placement de toutes vos charges de travail dans l'Région AWS la plus proche de votre siège, plutôt que dans une Région AWS plus proche de vos utilisateurs finaux. 
+ Échec du test comparatif des performances de vos charges de travail et évaluation continue des performances de vos charges de travail grâce à ce test comparatif.
+ Pas d'examen des configurations de service pour les options d'amélioration des performances. 

**Avantages liés au respect de cette bonne pratique :** L'évaluation de toutes les options et fonctionnalités de service peut augmenter les performances de vos charges de travail, baisser le coût d'infrastructure, réduire les efforts nécessaires à la maintenance de vos charges de travail et améliorer votre posture générale en matière de sécurité. Vous pouvez utiliser la couverture mondiale d'AWS pour garantir à vos clients une expérience de mise en réseau optimale. 

**Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Élevé 

## Directives d'implémentation
<a name="implementation-guidance"></a>

Examinez les options de configuration liées au réseau disponibles et leur impact potentiel sur votre charge de travail. Pour optimiser les performances, il est essentiel de comprendre les interactions entre ces options et votre architecture, ainsi que l'impact qu'elles auront à la fois sur les performances mesurées et les performances perçues par les utilisateurs. 

**Étapes d'implémentation :** 

1. Créer une liste des composants de la charge de travail. 

   1. Créez, gérez et surveillez le réseau de votre entreprise grâce à [AWS Cloud WAN](https://aws.amazon.com/cloud-wan/). 

   1. Disposez d'une visibilité sur votre réseau grâce à [Network Manager](https://docs.aws.amazon.com/vpc/latest/tgwnm/what-is-network-manager.html). Utilisez un outil de base de données de gestion de la configuration (CMDB) ou un outil tel qu' [AWS Config](https://aws.amazon.com/config/) pour créer un inventaire de votre charge de travail et de sa configuration. 

1. Identifier et documenter le test comparatif pour vos métriques de performances s'il s'agit d'une charge de travail existante, en vous concentrant sur les goulots d'étranglement et les zones à améliorer. Les métriques de mise en réseau liées aux performances diffèrent par charge de travail en fonction des exigences métier et des caractéristiques de charge de travail. Pour commencer, il pourrait être important d'examiner ces métriques pour votre charge de travail : bande passante, latence, perte de paquets, instabilité et retransmissions. 

1. S'il s'agit d'une nouvelle charge de travail, réaliser [des tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour identifier les goulots d'étranglement au niveau des performances. 

1. Concernant l'identification des goulots d'étranglement au niveau des performances, examiner les options de configuration pour les solutions afin d'identifier les opportunités d'amélioration des performances. 

1. Si vous ne connaissez pas votre chemin réseau, utiliser [Network Access Analyzer](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-vaa.html) pour l'identifier. 

1. Examiner vos protocoles réseau pour réduire davantage votre latence.
   + [PERF05-BP05 Choisir des protocoles réseau afin d'améliorer les performances](perf_select_network_protocols.md) 

1. Si vous utilisez un AWS Site-to-Site VPN sur plusieurs emplacements pour vous connecter à une Région AWS, examiner [les connexions Site-to-Site VPN accélérées](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) pour chercher des occasions d'améliorer les performances de mise en réseau.

1. Lorsque le trafic de votre charge de travail est réparti sur plusieurs comptes, évaluer la topologie de votre réseau et les services pour réduire la latence. 
   + Évaluez vos compromis de performances et opérationnels entre [Appairage des VPC](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) et [AWS Transit Gateway](https://aws.amazon.com/transit-gateway/) lors de la connexion à plusieurs comptes. AWS Transit Gateway prend en charge le débit AWS Site-to-Site VPN pour mettre à l'échelle au-delà d'une seule [limite maximum IPsec](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) en utilisant un multi-chemin. Le trafic entre Amazon VPC et AWS Transit Gateway reste sur le réseau AWS privé et n'est pas exposé à Internet. AWS Transit Gateway simplifie la façon dont vous interconnectez tous vos VPC, qui peuvent s'étendre sur des milliers d'Comptes AWS et des réseaux sur site. Partagez votre AWS Transit Gateway entre plusieurs comptes à l'aide de [Resource Access Manager](https://aws.amazon.com/ram/). Pour disposer d'une visibilité sur votre trafic réseau mondial, utilisez [Network Manager](https://aws.amazon.com/transit-gateway/network-manager/) pour profiter d'une vue centrale de vos métriques réseau. 

1. Examiner vos emplacements utilisateur et réduire la distance entre vos utilisateurs et la charge de travail.

   1. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) est un service qui améliore de 60 % les performances du trafic réseau de vos utilisateurs grâce à l'infrastructure réseau mondiale Amazon Web Services. Lorsque la connexion Internet est encombrée, AWS Global Accelerator optimise le chemin vers votre application pour maintenir la perte de paquets, l'instabilité et la latence à un niveau continuellement bas. Il fournit également des adresses IP statiques qui facilitent le déplacement de points de terminaison entre des zones de disponibilité ou des Régions AWS sans avoir besoin de mettre à jour votre configuration DNS ou de modifier les applications orientées client. 

   1. [Amazon CloudFront](https://aws.amazon.com/cloudfront/) peut améliorer la diffusion du contenu de votre charge de travail et la latence à l'échelle mondiale. CloudFront possède plus de 410 points de présence dispersés dans le monde et capables de mettre en cache votre contenu et de réduire la latence pour l'utilisateur final. 

   1. Amazon Route 53 offre des options de [routage basé sur la latence](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-latency.html), [routage de géolocalisation](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geo.html), [routage de proximité géographique](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geoproximity.html)et [routage basé sur IP](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-ipbased.html) pour vous permettre d'améliorer les performances de votre charge de travail pour satisfaire un public international. Identifiez l'option de routage qui optimiserait les performances de votre charge de travail en étudiant le trafic de votre charge de travail et l'emplacement de l'utilisateur. 

1. Évaluer des fonctionnalités Amazon S3 supplémentaires pour améliorer les IOPS de stockage. 

   1.  [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) est une fonction qui permet aux utilisateurs externes de bénéficier des optimisations de mise en réseau de CloudFront pour charger des données dans Amazon S3. Cela améliore le transfert d'importants volumes de données à partir d'emplacements distants qui n'ont pas de connectivité dédiée au AWS Cloud. 

   1.  [Les points d'accès multi-régions dans Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPoints.html) répliquent le contenu vers plusieurs régions et simplifient la charge de travail en fournissant un point d'accès. Lorsqu'un point d'accès multi-région est utilisé, vous pouvez demander ou écrire des données à Amazon S3 tandis que le service identifie le compartiment à la latence la plus faible. 

1. Examiner votre bande passante du réseau de ressources de calcul.

   1. Les interfaces réseau Elastic (ENI) utilisées par des instances EC2, des conteneurs et des fonctions Lambda sont limitées par flux. Examinez vos groupes de placement pour optimiser votre [débit de mise en réseau EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html). Pour éviter le goulot d'étranglement de la conception par flux, créez votre application pour qu'elle utilise plusieurs flux. Pour surveiller et disposer d'une visibilité sur vos métriques de mise en réseau liée au calcul, utilisez [les métriques CloudWatch](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ec2-instance-network-bandwidth.html) et [https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html). `ethtool` est inclus dans le pilote ENA et expose des métriques liées au réseau supplémentaires capables d'être publiées en tant que [métriques personnalisées](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html) sur CloudWatch. 

   1. Les instances EC2 plus récentes peuvent tirer parti d'une capacité réseau améliorée. [Les instances EC2 de la série N](https://aws.amazon.com/ec2/nitro/), telles que `M5n` et `M5dn`, profitent de la quatrième génération de cartes Nitro personnalisées pour diffuser jusqu'à 100 Gbps de débit réseau dans une instance unique. Ces instances offrent quatre fois plus de bande passante réseau et de processus de paquets que les instances `M5` de base et sont idéales pour les applications gourmandes en réseau. 

   1. [Les Amazon Elastic Network Adapters](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) (ENA) fournissent une optimisation ultérieure en diffusant un meilleur débit pour vos instances dans un [groupe de placement du cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-cluster%23placement-groups-limitations-cluster). 

   1. [Elastic Fabric Adapter](https://aws.amazon.com/hpc/efa/) (EFA) est une interface réseau pour les instances Amazon EC2 qui vous permet d'exécuter des charges de travail nécessitant des niveaux élevés de communication entre les nœuds à grande échelle sur AWS. Avec EFA, les applications de calcul hautes performances (HPC) utilisant l'interface de transmission de message (MPI) et les applications de machine learning (ML) utilisant NVIDIA Collective Communications Library (NCCL) peuvent s'adapter à des milliers de CPU ou de GPU. 

   1. [Les instances optimisées par Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) utilisent une pile de configuration optimisée et offrent une capacité dédiée supplémentaire pour les E/S Amazon EBS. Cette optimisation offre les meilleures performances pour vos volumes EBS : elle réduit les conflits entre les E/S Amazon EBS et le reste du trafic issu de votre instance. 

**Niveau d'effort du plan d'implémentation : **

Pour créer cette bonne pratique, vous devez connaître vos options actuelles en matière de composants de la charge de travail capables d'impacter les performances du réseau. La collecte des composants, l'évaluation des options d'amélioration du réseau, l'expérimentation, l'implémentation et la documentation de ces améliorations est un niveau d'effort *faible* to *modéré* . 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Bande passante du réseau d'instance Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Création d'une CMDB cloud](https://aws.amazon.com/blogs/mt/building-a-cloud-cmdb-on-aws-for-consistent-resource-configuration-in-hybrid-environments/) 
+  [Mise à l'échelle du débit VPN à l'aide d'AWS Transit Gateway](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP03 Choisir une connectivité dédiée ou un VPN de taille appropriée pour les charges de travail hybrides
<a name="perf_select_network_hybrid"></a>

 Lorsqu'un réseau commun est requis pour connecter des ressources sur site et des ressources cloud dans AWS, assurez-vous que vous disposez d'une bande passante adéquate pour répondre à vos exigences de performances. Estimez les exigences en matière de bande passante et de latence pour votre charge de travail hybride. Ces chiffres permettront d'établir les exigences de dimensionnement pour AWS Direct Connect ou vos points de terminaison VPN. 

 **Résultat souhaité :** Lorsque vous déployez une charge de travail nécessitant une connectivité réseau hybride, vous disposez de plusieurs options de configuration pour la connectivité, telles que des VPN gérés ou non gérés, ou Direct Connect. Sélectionnez le type de connexion approprié pour chaque charge de travail tout en vous assurant que les exigences de bande passante et de chiffrement entre votre emplacement et le cloud sont adéquates. 

 **Anti-modèles courants :** 
+  Vous n'évaluez les solutions VPN que pour les exigences de chiffrement de votre réseau. 
+  Vous n'évaluez pas les options de sauvegarde ou de connectivité parallèle. 
+  Vous utilisez les configurations par défaut pour les routeurs, les tunnels et les sessions BGP. 
+  Vous ne parvenez pas à comprendre ni à identifier toutes les exigences de la charge de travail (chiffrement, protocole, bande passante et trafic requis). 

 **Avantages liés au respect de cette bonne pratique :** La sélection et la configuration de solutions de réseau hybride de taille appropriée contribuent à accroître la fiabilité de votre charge de travail et optimisent les possibilités de performances. En identifiant les exigences de la charge de travail, en effectuant une planification appropriée et en évaluant les solutions hybrides, vous minimiserez les modifications coûteuses du réseau physique et les frais généraux opérationnels tout en augmentant le délai de mise sur le marché. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Développer une architecture de mise en réseau hybride basée sur vos besoins en bande passante : évaluez les besoins de vos applications hybrides en matière de bande passante et de latence. Il est possible qu'une seule connexion VPN ou Direct Connect ne suffise pas et que vous deviez concevoir une configuration hybride pour permettre l'équilibrage de la charge de trafic sur plusieurs connexions. Le scénario pertinent sera fonction des besoins en bande passante. Direct Connect peut être nécessaire, ce qui offre des performances plus prévisibles et cohérentes en raison de sa connectivité au réseau privé. Direct Connect est idéal pour les charges de travail de production qui nécessitent une latence constante et une instabilité quasi nulle. 

 AWS Direct Connect fournit une connectivité dédiée à l'environnement AWS, de 50 Mbit/s à 10 Gbit/s. Cela vous permet de gérer et de contrôler la latence et de profiter d'une bande passante provisionnée. Ainsi, vos charges de travail peuvent se connecter facilement et de manière performante à d'autres environnements. En tirant parti de l'un des partenaires AWS Direct Connect, vous pouvez bénéficier d'une connectivité de bout en bout à partir de plusieurs environnements, ce qui vous donne accès à un réseau étendu aux performances constantes. 

 AWS Site-to-Site VPN est un service VPN géré pour les VPC. Lorsqu'une connexion VPN est créée, AWS fournit des tunnels vers deux points de terminaison VPN différents. Avec AWS Transit Gateway, vous pouvez simplifier la connectivité entre plusieurs VPC et vous connecter à n'importe quel VPC attaché à AWS Transit Gateway avec une seule connexion VPN. AWS Transit Gateway permet également une mise à l'échelle au-delà de la limite de débit VPN IPsec de 1,25 Gbit/s en activant la prise en charge du routage multi-chemins d'accès (ECMP) à coût égal sur plusieurs tunnels VPN. 

 **Niveau d'effort du plan d'implémentation : **Il existe un niveau d'effort *élevé* pour évaluer les besoins de la charge de travail pour les réseaux hybrides et mettre en œuvre des solutions de mise en réseau hybrides. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Network Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+ [Transit Gateway ](https://docs.aws.amazon.com/vpc/latest/tgw) 
+ [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [Points de terminaison d'un VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [Journaux de flux VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [de site à site AWS](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) 
+  [Création d'une infrastructure réseau AWS multi-VPC évolutive et sécurisée](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) 
+  [Client VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Vidéos connexes :** 
+ [Connectivity to AWS and hybrid AWS network architectures (NET317-R1) ](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1) ](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 
+  [Direct Connect* *](https://www.youtube.com/watch?v=DXFooR95BYc&t=6s) 
+  [Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 
+  [Solutions VPN](https://www.youtube.com/watch?v=qmKkbuS9gRs) 
+  [Sécurité avec les solutions VPN](https://www.youtube.com/watch?v=FrhVV9nG4UM) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP04 Tirer parti de l'équilibrage de charge et du déchargement du chiffrement
<a name="perf_select_network_encryption_offload"></a>

 Répartissez le trafic sur plusieurs ressources ou services pour permettre à votre charge de travail de tirer parti de l'élasticité fournie par le cloud. Vous pouvez également utiliser l'équilibrage de charge afin de décharger le chiffrement pour améliorer les performances, gérer et acheminer efficacement le trafic. 

 Lors de la mise en œuvre d'une architecture évolutive dans laquelle vous souhaitez utiliser plusieurs instances pour le contenu du service, vous pouvez utiliser des équilibreurs de charge dans votre Amazon VPC. AWS fournit plusieurs modèles pour vos applications dans le service ELB. Application Load Balancer est le mieux adapté à l'équilibrage de charge du trafic HTTP et HTTPS et fournit un routage avancé des demandes destiné à la livraison d'architectures d'applications modernes, y compris des microservices et des conteneurs. 

 Le Network Load Balancer (équilibreur de charge de réseau) est tout indiqué pour l'équilibrage de charge du trafic TCP, qui nécessite des performances extrêmes. Il est capable de traiter des millions de requêtes par seconde tout en maintenant de très faibles latences. Il est optimisé pour gérer les tendances soudaines et instables du trafic. 

 [https://aws.amazon.com/elasticloadbalancing/](https://aws.amazon.com/elasticloadbalancing/) assure la gestion intégrée des certificats et le déchiffrement SSL/TLS, ce qui vous permet de gérer de façon centralisée les paramètres SSL de l'équilibreur de charge et de décharger les tâches gourmandes en CPU de votre charge de travail. 

 **Anti-modèles courants :** 
+  Vous acheminez tout le trafic Internet via des équilibreurs de charge existants. 
+  Vous utilisez l'équilibrage de charge TCP générique et faites en sorte que chaque nœud de calcul gère le chiffrement SSL. 

 **Avantages liés au respect de cette bonne pratique :** Un équilibreur de charge gère la charge variable du trafic de votre application dans une seule ou plusieurs zones de disponibilité. Les équilibreurs de charge offrent la haute disponibilité, la mise à l'échelle automatique et la sécurité robuste nécessaires pour rendre vos applications tolérantes aux pannes. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Débit 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Utiliser l'équilibreur de charge approprié pour votre charge de travail : sélectionnez l'équilibreur de charge approprié pour votre charge de travail. Si vous devez équilibrer la charge des demandes HTTP, nous vous recommandons l'équilibreur de charge d'application (Application Load Balancer). Pour l'équilibrage de charge des protocoles réseau et de transport (couche 4 - TCP, UDP), et pour les applications à performances extrêmes et à faible latence, nous recommandons Network Load Balancer. Les équilibreurs de charge Application Load Balancers prennent en charge HTTPS, tandis que les Network Load Balancers prennent en charge le déchargement du chiffrement TLS. 

 Activer le déchargement du chiffrement HTTPS ou TLS : Elastic Load Balancing inclut la gestion intégrée des certificats, l'authentification des utilisateurs et le déchiffrement SSL/TLS. Il offre la flexibilité nécessaire pour gérer de manière centralisée les paramètres TLS et décharger les charges de travail gourmandes en CPU de vos applications. Chiffrez tout le trafic HTTPS dans le cadre du déploiement de votre équilibreur de charge. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP05 Choisir des protocoles réseau afin d'améliorer les performances
<a name="perf_select_network_protocols"></a>

 Prenez des décisions concernant les protocoles de communication entre les systèmes et les réseaux en fonction de l'impact sur les performances de la charge de travail. 

 Il existe une relation entre la latence et la bande passante pour atteindre le débit. Si votre transfert de fichiers utilise TCP, des latences plus élevées réduiront le débit global. Il existe des approches pour résoudre ce problème avec le réglage du protocole TCP et les protocoles de transfert optimisés. Certaines approches utilisent le protocole UDP. 

 **Anti-modèles courants :** 
+  Vous utilisez TCP pour toutes les charges de travail, quelles que soient les exigences de performance. 

 **Avantages liés au respect de cette bonne pratique :** Pour vous assurer d'obtenir les meilleures performances pour cette charge de travail, vous devez choisir le bon protocole de communication entre les différents éléments de la charge de travail. Le protocole UDP sans connexion permet d'obtenir une vitesse élevée, mais sans retransmission ni fiabilité élevées. Quoique complet, le protocole TCP nécessite une surcharge plus importante pour le traitement des paquets. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyenne entreprise 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Optimiser le trafic réseau : sélectionnez le protocole approprié pour optimiser les performances de votre charge de travail. Il existe une relation entre la latence et la bande passante pour atteindre le débit. Des latences plus élevées réduisent le débit global si votre transfert de fichiers utilise TCP. Il existe des approches pour résoudre ce problème de latence avec le réglage du protocole TCP et les protocoles de transfert optimisés. D'autres approches utilisent le protocole UDP. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP06 Choisir l'emplacement de votre charge de travail en fonction des exigences réseau
<a name="perf_select_network_location"></a>

 Utilisez les options d'emplacement dans le cloud disponibles pour réduire la latence du réseau ou améliorer le débit. Utilisez les Régions AWS, les zones de disponibilité, les groupes de placement et les emplacements périphériques comme AWS Outposts, AWS les zones locales et AWS Wavelength pour réduire la latence du réseau ou améliorer le débit. 

 L'infrastructure du AWS Cloud repose sur des régions et des zones de disponibilité. Une région est un emplacement physique dans le monde qui héberge plusieurs zones de disponibilité. 

 Les zones de disponibilité consistent en un ou plusieurs centres de données distincts, chacun disposant d'une alimentation, d'un réseau et d'une connectivité redondants, hébergés dans des installations séparées. Ces zones de disponibilité vous permettent d'exploiter des applications de production et des bases de données plus hautement disponibles, tolérantes aux pannes et évolutives que ce que peut vous offrir un centre de données unique. 

 Choisissez la ou les régions appropriées pour votre déploiement en fonction des éléments clés suivants : 
+  **Emplacement de vos utilisateurs**: choisir une région proche des utilisateurs de votre charge de travail garantit une latence plus faible lorsqu'ils utilisent la charge de travail. 
+  **Emplacement de vos données**: pour les applications utilisant de grandes quantités de données, le risque principal de goulot d'étranglement en termes de latence est encouru moment où les données sont transférées. Le code de l'application doit s'exécuter aussi près que possible des données. 
+  **Autres contraintes**: tenez compte de contraintes telles que la sécurité et la conformité. 

 Amazon EC2 fournit des groupes de placement pour la mise en réseau. Un groupe de placement est un regroupement logique d'instances permettant de réduire la latence ou d'augmenter la fiabilité. L'utilisation de groupes de placement avec des types d'instance pris en charge et un adaptateur Elastic Network Adapter (ENA) permet aux charges de travail de participer à un réseau 25 Gbit/s à faible latence. Les groupes de placement sont recommandés pour les charges de travail nécessitant une latence réseau faible, un débit réseau élevé, ou les deux. L'utilisation de groupes de placement présente l'avantage de réduire l'instabilité des communications réseau. 

 Les services sensibles à la latence sont livrés à la périphérie à l'aide d'un réseau mondial d'emplacements périphériques. Ces emplacements périphériques fournissent généralement des services tels que les réseaux de diffusion de contenu (CDN) et les systèmes de noms de domaine (DNS). Placer ces services en périphérie permet aux charges de travail de répondre avec une faible latence aux requêtes de contenu ou de résolution DNS. Ces services fournissent également des services géographiques tels que le ciblage géographique du contenu (qui fournit des contenus différents en fonction de l'emplacement des utilisateurs finaux) ou le routage en fonction de la latence pour diriger les utilisateurs finaux vers la région plus proche (latence minimum). 

 [https://aws.amazon.com/cloudfront/](https://aws.amazon.com/cloudfront/) est un réseau de diffusion de contenu (CDN) mondial qui peut être utilisé pour accélérer aussi bien du contenu statique comme des images, des scripts et des vidéos, que du contenu dynamique comme des API ou des applications Web. Il s'appuie sur un réseau mondial d'emplacements périphériques qui met en cache le contenu et fournit une connectivité réseau à hautes performances à nos utilisateurs. CloudFront accélère également de nombreuses autres fonctions telles que le chargement du contenu et les applications dynamiques, ce qui lui permet d'améliorer les performances de toutes les applications desservant du trafic sur Internet. [https://aws.amazon.com/lambda/edge/](https://aws.amazon.com/lambda/edge/) est une fonction d'Amazon CloudFront qui vous permet d'exécuter du code plus près des utilisateurs de votre charge de travail, ce qui améliore les performances et réduit la latence. 

 Amazon Route 53 est un service web de système de noms de domaine (DNS) dans le cloud hautement disponible et évolutif. Il est conçu pour donner aux développeurs et aux entreprises un moyen extrêmement fiable et rentable d'acheminer les utilisateurs finaux vers des applications Internet en remplaçant des noms comme www.exemple.com, par des adresses IP numériques comme 192.168.2.1, que les ordinateurs utilisent pour se connecter l'un à l'autre. Route 53 est entièrement compatible avec IPv6. 

 [https://aws.amazon.com/outposts/](https://aws.amazon.com/outposts/) est conçu pour les charges de travail qui doivent rester hébergées sur site en raison des exigences de latence, lorsque vous souhaitez que cette charge de travail s'exécute en toute transparence avec le reste de vos autres charges de travail dans AWS. AWS Outposts sont des racks de calcul et de stockage entièrement gérés et configurables construits avec du matériel conçu par AWS qui vous permettent d'exécuter le calcul et le stockage sur site, tout en vous connectant de manière transparente au large éventail de services AWS dans le cloud. 

 [https://aws.amazon.com/about-aws/global-infrastructure/localzones/](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) est conçu pour exécuter des charges de travail nécessitant une latence de quelques millisecondes, comme le rendu vidéo et les applications de bureau virtuel gourmandes en graphiques. Ces zones locales vous permettent de profiter de tous les avantages liés à la présence de ressources de calcul et de stockage plus proches des utilisateurs finaux. 

 [https://aws.amazon.com/wavelength/](https://aws.amazon.com/wavelength/) est conçu pour fournir des applications à latence ultra-faible aux appareils 5G en étendant AWS l'infrastructure, les services, les API et les outils aux réseaux 5G. Wavelength intègre le stockage et le calcul dans les réseaux 5G des fournisseurs de télécommunications pour aider votre charge de travail 5G si elle nécessite une latence de quelques millisecondes, comme les appareils IoT, le streaming de jeux, les véhicules autonomes et la production multimédia en direct. 

 Utilisez des services en périphérie pour réduire la latence et permettre la mise en cache de contenu. Assurez-vous d'avoir configuré correctement le contrôle du cache pour les services DNS et HTTP/HTTPS pour retirer le plus grand bénéfice de ces approches. 

 **Anti-modèles courants :** 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Vous avez choisi la région la plus proche de votre emplacement, pas celle de l'utilisateur final de la charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** Vous devez vous assurer que votre réseau est disponible partout où vous souhaitez atteindre les clients. L'utilisation du réseau mondial privé d'AWS garantit que vos clients bénéficient de la plus faible latence en déployant des charges de travail aux emplacements les plus proches d'eux. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Moyenne entreprise 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Réduire la latence en sélectionnant les emplacements appropriés : identifiez où se trouvent vos utilisateurs et vos données. Profitez des Régions AWS, des zones de disponibilité, des groupes de placement et des emplacements périphériques afin de réduire la latence. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF05-BP07 Optimiser la configuration réseau en fonction de métriques
<a name="perf_select_network_optimize"></a>

 Utilisez les données collectées et analysées pour prendre des décisions avisées concernant l'optimisation de votre configuration réseau. Mesurez l'impact de ces modifications et utilisez les mesures d'impact pour prendre des décisions. 

 Activez les journaux de flux VPC pour tous les réseaux VPC utilisés par votre charge de travail. La fonctionnalité de journaux de flux VPC vous permet de capter des informations sur le trafic IP circulant vers et depuis les interfaces réseau dans votre VPC. Les journaux de flux VPC vous aident à effectuer un certain nombre de tâches, telles que la résolution des problèmes qui empêchent un trafic spécifique d'atteindre une instance, ce qui vous aide à diagnostiquer des règles de groupe de sécurité trop restrictives. Vous pouvez utiliser les journaux de flux comme outil de sécurité pour surveiller le trafic qui atteint votre instance, profiler votre trafic réseau et rechercher des comportements de trafic anormaux. 

 Utilisez les métriques de mise en réseau pour apporter des modifications à la configuration de mise en réseau à mesure que la charge de travail évolue. Les réseaux basés sur le cloud peuvent être rapidement recréés. L'évolution de votre architecture réseau dans le temps est donc nécessaire pour continuer d'assurer l'efficacité des performances. 

 **Anti-modèles courants :** 
+  Vous supposez que tous les problèmes liés aux performances sont liés à l'application. 
+  Vous testez uniquement les performances de votre réseau à partir d'un emplacement proche de l'endroit où vous avez déployé la charge de travail. 

 **Avantages liés au respect de cette bonne pratique :**Vous devez surveiller les métriques de performance réseau afin de vous assurer que vous avez les métriques requises pour la charge de travail. Vous pouvez capturer des informations sur le trafic IP vers et depuis les interfaces réseau de votre VPC et utiliser ces données pour ajouter de nouvelles optimisations ou déployer votre charge de travail dans de nouvelles régions géographiques. 

 **Niveau de risque exposé si cette bonne pratique n'est pas respectée :** Faible 

## Directives d'implémentation
<a name="implementation-guidance"></a>

 Activer les journaux de flux VPC : les journaux de flux VPC permettent de capturer des informations sur le trafic IP vers et depuis les interfaces réseau dans votre VPC. Les journaux de flux VPC vous aident à effectuer un certain nombre de tâches, telles que la résolution des problèmes qui empêchent un trafic spécifique d'atteindre une instance, ce qui peut vous aider à diagnostiquer des règles de groupe de sécurité trop restrictives. Vous pouvez utiliser les journaux de flux comme outil de sécurité pour surveiller le trafic qui atteint votre instance, profiler votre trafic réseau et rechercher des comportements de trafic anormaux. 

 Sélectionner les métriques appropriées pour les options de réseau : assurez-vous de sélectionner les métriques de réseau appropriées pour votre charge de travail. Vous pouvez activer les métriques pour la passerelle NAT VPC, les passerelles de transit et les tunnels VPN. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Amazon EBS – Instances optimisées](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d'EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d'EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec Elastic Network Adapter (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d'un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Surveillance de vos réseaux mondiaux et principaux avec les métriques Amazon Cloudwatch](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) 
+  [Surveiller en permanence le trafic et les ressources du réseau](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) 

 **Vidéos connexes :** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Monitoring and troubleshooting network traffic](https://www.youtube.com/watch?v=Ed09ReWRQXc) 
+  [Simplify Traffic Monitoring and Visibility with Amazon VPC Traffic Mirroring](https://www.youtube.com/watch?v=zPovlZxuZ-c) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité évolutives](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 
+  [Surveillance réseau AWS](https://github.com/aws-samples/monitor-vpc-network-patterns) 