

# PERF 4. Comment sélectionner et configurer les ressources de mise en réseau de votre charge de travail ?
<a name="perf-04"></a>

La solution de mise en réseau optimale pour une charge de travail varie en fonction de la latence, des exigences de débit, de l’instabilité et de la bande passante. Le choix des options d’emplacement est tributaire des contraintes physiques telles que les ressources pour utilisateur ou sur site. Ces contraintes peuvent être compensées avec les emplacements périphériques ou le placement des ressources.

**Topics**
+ [

# PERF04-BP01 Compréhension de l’impact de la mise en réseau sur les performances
](perf_networking_understand_how_networking_impacts_performance.md)
+ [

# PERF04-BP02 Évaluation des fonctionnalités de mise en réseau disponibles
](perf_networking_evaluate_networking_features.md)
+ [

# PERF04-BP03 Choix d’une connectivité dédiée ou d’un VPN approprié pour votre charge de travail
](perf_networking_choose_appropriate_dedicated_connectivity_or_vpn.md)
+ [

# PERF04-BP04 Utilisation de l’équilibrage de charge pour répartir le trafic entre plusieurs ressources
](perf_networking_load_balancing_distribute_traffic.md)
+ [

# PERF04-BP05 Choix de protocoles réseau afin d’améliorer les performances
](perf_networking_choose_network_protocols_improve_performance.md)
+ [

# PERF04-BP06 Choisissez l'emplacement de votre charge de travail en fonction des exigences du réseau
](perf_networking_choose_workload_location_network_requirements.md)
+ [

# PERF04-BP07 Optimisation de la configuration réseau en fonction de métriques
](perf_networking_optimize_network_configuration_based_on_metrics.md)

# PERF04-BP01 Compréhension de l’impact de la mise en réseau sur les performances
<a name="perf_networking_understand_how_networking_impacts_performance"></a>

 Analysez et comprenez l’impact des décisions liées au réseau sur votre charge de travail afin de fournir des performances efficaces et une meilleure expérience utilisateur. 

 **Anti-modèles courants :** 
+  Tout le trafic passe par vos centres de données existants. 
+  Vous acheminez l’ensemble du trafic via des pare-feux centralisés au lieu d’utiliser des outils de sécurité réseau natifs cloud. 
+  Vous configurez des connexions AWS Direct Connect sans connaître les exigences d’utilisation réelles. 
+  Vous ne tenez pas compte des caractéristiques de la charge de travail et de la surcharge de chiffrement lors de la définition de vos solutions de mise en réseau. 
+  Vous utilisez des concepts et des stratégies sur site pour les solutions de mise en réseau dans le cloud. 

 **Avantages liés au respect de cette bonne pratique :** comprendre comment la mise en réseau affecte les performances de la charge de travail vous aide à identifier les goulots d’étranglement potentiels, à améliorer l’expérience utilisateur, à accroître la fiabilité et à réduire la maintenance opérationnelle à mesure que la charge de travail évolue. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Le réseau est responsable de la connectivité entre les composants d’application, les services cloud, les réseaux périphériques et les données sur site et, par conséquent, il peut avoir un impact majeur sur les performances de la charge de travail. Outre les performances de la charge de travail, l’expérience utilisateur peut également être affectée par la latence du réseau, la bande passante, les protocoles, l’emplacement, la congestion du réseau, l’instabilité, le débit et les règles de routage. 

 Veillez à avoir une liste documentée des exigences de mise en réseau de la charge de travail, y compris la latence, la taille des paquets, les règles de routage, les protocoles et les modèles de trafic pris en charge. Passez en revue les solutions de mise en réseau disponibles et identifiez le service qui répond aux caractéristiques de mise en réseau de votre charge de travail. Les réseaux basés sur le cloud peuvent être rapidement recréés. L’évolution de votre architecture réseau au fil du temps est donc nécessaire pour améliorer l’efficacité des performances. 

### Étapes d’implémentation :
<a name="implementation-steps"></a>
+  Définissez et documentez les exigences de performance réseau, y compris les métriques telles que la latence du réseau, la bande passante, les protocoles, les emplacements, les modèles de trafic (pics et fréquence), le débit, le chiffrement, l’inspection et les règles de routage. 
+  Découvrez les principaux services réseau AWS tels que les [VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html), [AWS Direct Connect](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-direct-connect.html), [Elastic Load Balancing (ELB)](https://aws.amazon.com/elasticloadbalancing/) et [Amazon Route 53](https://aws.amazon.com/route53/). 
+  Capturez les principales caractéristiques réseau suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_networking_understand_how_networking_impacts_performance.html)
+  Définition de points de référence et test des performances du réseau : 
  +  [Étalonnez](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) le débit du réseau, car certains facteurs peuvent affecter les performances du réseau Amazon EC2 lorsque les instances se trouvent dans le même VPC. Mesurez la bande passante du réseau entre les instances Amazon EC2 Linux dans le même VPC. 
  +  Effectuez des [tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour expérimenter des solutions et des options de mise en réseau. 

## Ressources
<a name="resources"></a>

 **Documents connexes:** 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d’EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d’EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Passerelle de transit](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d’un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 

 **Vidéos connexes :** 
+ [AWS re:Invent 2023 - AWS networking foundations](https://www.youtube.com/watch?v=8nNurTFy-h4)
+ [AWS re:Invent 2023 - What can networking do for your application?](https://www.youtube.com/watch?v=tUh26i8uY9Q)
+ [AWS re:Invent 2023 - Advanced VPC designs and new capabilities](https://www.youtube.com/watch?v=cRdDCkbE4es)
+ [AWS re:Invent 2023 - A developer’s guide to cloud networking](https://www.youtube.com/watch?v=i77D556lrgY)
+  [AWS re:Invent 2019 - Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [AWS re:Invent 2019 - Optimizing Network Performance for Amazon EC2 Instances](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Summit Online - Improve Global Network Performance for Applications](https://youtu.be/vNIALfLTW9M) 
+  [AWS re:Invent 2020 - Networking best practices and tips with the Well-Architected Framework](https://youtu.be/wOMNpG49BeM) 
+  [AWS re:Invent 2020 - AWS networking best practices in large-scale migrations](https://youtu.be/qCQvwLBjcbs) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité de mise à l’échelle](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 
+ [Atelier pratique sur le pare-feu réseau](https://catalog.us-east-1.prod.workshops.aws/workshops/d071f444-e854-4f3f-98c8-025fa0d1de2f/en-US)
+ [Observation et diagnostic de votre réseau sur AWS](https://catalog.us-east-1.prod.workshops.aws/workshops/cf2ecaa4-e4be-4f40-b93f-e9fe3b1c1f64/en-US)
+ [Détection et résolution des erreurs de configuration du réseau sur AWS](https://validating-network-reachability.awssecworkshops.com/)

# PERF04-BP02 Évaluation des fonctionnalités de mise en réseau disponibles
<a name="perf_networking_evaluate_networking_features"></a>

Évaluez les fonctions de mise en réseau dans le cloud qui peuvent améliorer les performances. Mesurez l’impact de ces fonctions au moyen de tests, de métriques et de l’analyse. Par exemple, tirez parti des fonctionnalités au niveau du réseau qui sont disponibles pour réduire la latence, la distance réseau ou l’instabilité.

 **Anti-modèles courants :** 
+ Vous restez au sein d’une même région, car c’est là que votre siège social se trouve physiquement.
+ Vous utilisez des pare-feux plutôt que des groupes de sécurité pour filtrer le trafic.
+ Vous enfreignez le protocole TLS pour inspecter le trafic plutôt que de vous fier aux groupes de sécurité, aux politiques relatives aux points de terminaison et à d’autres fonctionnalités natives cloud.
+ Vous utilisez uniquement la segmentation basée sur un sous-réseau au lieu des groupes de sécurité.

 **Avantages liés au respect de cette bonne pratique :** l’évaluation de toutes les options et fonctionnalités de service peut augmenter les performances de vos charges de travail, baisser le coût d’infrastructure, réduire les efforts nécessaires à la maintenance de vos charges de travail et améliorer votre posture générale en matière de sécurité. Vous pouvez utiliser la couverture mondiale d’AWS pour fournir à vos clients une expérience de mise en réseau optimale. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 AWS propose des services tels que [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) et [Amazon CloudFront](https://aws.amazon.com/cloudfront/) qui peuvent contribuer à améliorer les performances du réseau, tandis que la plupart des services AWS proposent des fonctionnalités (telles que la fonctionnalité [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/)) permettant d’optimiser le trafic réseau. 

 Examinez les options de configuration liées au réseau disponibles et leur impact potentiel sur votre charge de travail. L’optimisation des performances dépend de la compréhension de la manière dont ces options interagissent avec votre architecture et de l’impact qu’elles auront à la fois sur les performances mesurées et sur l’expérience utilisateur. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Créer une liste des composants de la charge de travail. 
  +  Pensez à utiliser [AWS Cloud WAN](https://aws.amazon.com/cloud-wan/) pour créer, gérer et surveiller le réseau de votre organisation lors de la création d’un réseau mondial unifié. 
  +  Surveiller vos réseaux mondiaux et principaux avec les [métriques Amazon CloudWatch Logs](https://docs.aws.amazon.com/network-manager/latest/tgwnm/monitoring-cloudwatch-metrics.html) Tirer parti [d’Amazon CloudWatch RUM](https://aws.amazon.com/about-aws/whats-new/2021/11/amazon-cloudwatch-rum-applications-client-side-performance/), qui fournit des informations permettant d’identifier, de comprendre et d’améliorer l’expérience numérique des utilisateurs. 
  +  Visualisez la latence agrégée du réseau entre Régions AWS et les zones de disponibilité, ainsi qu’à l’intérieur de chaque zone de disponibilité, à l’aide de [AWS Network Manager](https://aws.amazon.com/transit-gateway/network-manager/) pour mieux comprendre comment la performance de votre application est liée à la performance du réseau AWS sous-jacent. 
  +  Utilisez un outil de base de données de gestion de la configuration (CMDB) existant ou un service tel que [AWS Config](https://aws.amazon.com/config/) pour créer un inventaire de votre charge de travail et de la manière dont elle est configurée. 
+  Identifier et documenter le test comparatif pour vos métriques de performances s’il s’agit d’une charge de travail existante, en vous concentrant sur les goulots d’étranglement et les zones à améliorer. Les métriques de mise en réseau liées aux performances diffèrent par charge de travail en fonction des exigences métier et des caractéristiques de charge de travail. Pour commencer, il pourrait être important d’examiner ces métriques pour votre charge de travail : bande passante, latence, perte de paquets, instabilité et retransmissions. 
+  S’il s’agit d’une nouvelle charge de travail, effectuez des [tests de charge](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) pour identifier les goulots d’étranglement liés aux performances. 
+  Concernant l’identification des goulots d’étranglement au niveau des performances, examiner les options de configuration pour les solutions afin d’identifier les opportunités d’amélioration des performances. Découvrez les principales options et fonctionnalités de mise en réseau suivantes :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_networking_evaluate_networking_features.html)

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html)
+ [Mise en réseau améliorée d’EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html)
+ [Capacité réseau améliorée d’EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html)
+ [Groupes de placement EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html)
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html)
+ [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/)
+ [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html)
+ [Points de terminaison d’un VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+ [Journaux de flux VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 – Ready for what’s next? Designing networks for growth and flexibility](https://www.youtube.com/watch?v=FkWOhTZSfdA) 
+  [AWS re:Invent 2023 – Advanced VPC designs and new capabilities](https://www.youtube.com/watch?v=cRdDCkbE4es) 
+  [AWS re:Invent 2023 – A developer’s guide to cloud networking](https://www.youtube.com/watch?v=i77D556lrgY) 
+  [AWS re:Invent 2022 – Dive deep on AWS networking infrastructure](https://www.youtube.com/watch?v=HJNR_dX8g8c) 
+ [AWS re:Invent 2019 – Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs)
+ [AWS re:Invent 2018 – Optimizing Network Performance for Amazon EC2 Instances](https://www.youtube.com/watch?v=DWiwuYtIgu0)
+ [AWS Global Accelerator](https://www.youtube.com/watch?v=Docl4julOQw)

 **Exemples connexes :** 
+ [AWS Transit Gateway et solutions de sécurité de mise à l’échelle](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions)
+ [Ateliers sur la mise en réseau AWS](https://catalog.workshops.aws/networking/en-US)
+  [Observation et diagnostic de votre réseau](https://catalog.us-east-1.prod.workshops.aws/workshops/cf2ecaa4-e4be-4f40-b93f-e9fe3b1c1f64/en-US) 
+  [Détection et résolution des erreurs de configuration du réseau sur AWS](https://validating-network-reachability.awssecworkshops.com/) 

# PERF04-BP03 Choix d’une connectivité dédiée ou d’un VPN approprié pour votre charge de travail
<a name="perf_networking_choose_appropriate_dedicated_connectivity_or_vpn"></a>

 Lorsque la connectivité hybride est requise pour connecter des ressources sur site et dans le cloud, allouez une bande passante adéquate pour répondre à vos exigences de performance. Estimez les exigences en matière de bande passante et de latence pour votre charge de travail hybride. Ces chiffres détermineront vos exigences en matière de dimensionnement. 

 **Anti-modèles courants :** 
+  Vous n’évaluez les solutions VPN que pour les exigences de chiffrement de votre réseau. 
+  Vous n’évaluez pas les options de sauvegarde ni de connectivité redondante. 
+  Vous n’identifiez pas toutes les exigences de la charge de travail (chiffrement, protocole, bande passante et trafic requis). 

 **Avantages liés au respect de cette bonne pratique :** la sélection et la configuration de solutions de connectivité appropriées renforcent la fiabilité de votre charge de travail et optimisent les performances. En identifiant les exigences de la charge de travail, en effectuant une planification appropriée et en évaluant les solutions hybrides, vous pouvez minimiser les modifications coûteuses du réseau physique et les frais généraux opérationnels tout en accélérant le délai de rentabilisation. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Développez une architecture réseau hybride en fonction de vos besoins en bande passante. [Direct Connect](https://aws.amazon.com/directconnect/) vous permet de connecter votre réseau sur site en privé à AWS. Cette solution convient lorsque vous avez besoin d’une bande passante élevée et d’une faible latence tout en conservant des performances constantes. Une connexion VPN établit une connexion sécurisée sur Internet. Elle sert uniquement lorsque seule une connexion temporaire est requise, lorsque le coût est un facteur, ou en cas d’urgence en attendant qu’une connectivité réseau physique résiliente soit établie lors de l’utilisation d’Direct Connect. 

 Si vos besoins en bande passante sont élevés, vous pouvez envisager divers services Direct Connect ou VPN. Le trafic peut être équilibré entre les services, mais nous ne recommandons pas l’équilibrage de charge entre Direct Connect et le VPN en raison des différences de latence et de bande passante. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Évaluez les besoins en bande passante et en latence de vos applications existantes. 
  +  Pour les charges de travail existantes qui migrent vers AWS, exploitez les données de vos systèmes internes de surveillance du réseau. 
  +  Pour les nouvelles charges de travail ou pour les charges de travail existantes pour lesquelles vous ne disposez pas de données de suivi, contactez les propriétaires du produit pour obtenir des métriques de performance adéquates et offrir une bonne expérience utilisateur. 
+  Sélectionnez une connexion dédiée ou un VPN comme option de connectivité. En fonction de toutes les exigences de la charge de travail (besoins en matière de chiffrement, de bande passante et de trafic), vous pouvez choisir AWS Direct Connect ou [Site-to-Site VPN](https://aws.amazon.com/vpn/) (ou les deux). Le schéma suivant peut vous aider à choisir le type de connexion approprié. 
  +  [AWS Direct Connect](https://aws.amazon.com/directconnect/) fournit une connectivité dédiée à l’environnement AWS, de 50 Mbit/s à 100 Gbit/s, en utilisant des connexions dédiées ou des connexions hébergées. Cela vous permet de gérer et de contrôler la latence et de profiter d’une bande passante provisionnée. Ainsi, vos charges de travail peuvent se connecter efficacement à d’autres environnements. Grâce aux partenaires AWS Direct Connect, vous bénéficiez d’une connectivité de bout en bout à partir de plusieurs environnements, ce qui vous permet de disposer d’un réseau étendu aux performances constantes. AWS offre une bande passante de connexion directe évolutive en utilisant soit le débit 100 Gbit/s natif, soit le protocole LAG (Link Aggregation Group), soit le protocole BGP ECMP (Equal-cost multipath). 
  +  Le [VPN de site à site](https://aws.amazon.com/vpn/) AWS fournit un service VPN géré prenant en charge la sécurité du protocole Internet (IPsec). Lorsqu’une connexion VPN est créée, chaque connexion VPN comprend deux tunnels pour une haute disponibilité. 
+  Consultez la documentation AWS pour choisir l’option de connectivité appropriée : 
  +  Si vous décidez d’utiliser Direct Connect, sélectionnez la bande passante adaptée à votre connectivité. 
  +  Si vous utilisez un réseau AWS Site-to-Site VPN sur plusieurs sites pour vous connecter à une Région AWS, utilisez une [connexion VPN de site à site](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) accélérée pour améliorer les performances du réseau. 
  +  Si la conception de votre réseau consiste en une connexion VPN IPSec sur [AWS Direct Connect](https://aws.amazon.com/directconnect/), pensez à utiliser un VPN IP privé pour améliorer la sécurité et réaliser une segmentation. [AWS Le VPN IP privé de site à site](https://aws.amazon.com/blogs/networking-and-content-delivery/introducing-aws-site-to-site-vpn-private-ip-vpns/) est déployé au-dessus de l’interface virtuelle de transit (VIF). 
  +  [AWS Direct Connect SiteLink](https://aws.amazon.com/blogs/aws/new-site-to-site-connectivity-with-aws-direct-connect-sitelink/) permet de créer des connexions redondantes et à faible latence entre vos centres de données à travers le monde en envoyant les données sur le chemin le plus rapide entre les [sites AWS Direct Connect](https://aws.amazon.com/directconnect/locations/), en contournant Régions AWS. 
+  Validez votre configuration de connectivité avant le déploiement en production. Effectuez des tests de sécurité et de performance pour vous assurer qu’elle répond à vos exigences en matière de bande passante, de fiabilité, de latence et de conformité. 
+  Surveillez régulièrement les performances et l’utilisation de votre connectivité et optimisez-les si nécessaire. 

![\[Organigramme décrivant les options à envisager pour déterminer si vous avez besoin de performances déterministes dans votre mise en réseau ou non.\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/images/deterministic-networking-flowchart.png)


 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+ [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/)
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/what-is-transit-gateway.html)
+ [Points de terminaison d’un VPC](https://docs.aws.amazon.com/vpc/latest/privatelink/concepts.html)
+  [Création d’une infrastructure réseau AWS multi-VPC évolutive et sécurisée](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [VPN client](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 – Building hybrid network connectivity with AWS](https://www.youtube.com/watch?v=Fi4me2vPwrQ) 
+  [AWS re:Invent 2023 – Secure remote connectivity to AWS](https://www.youtube.com/watch?v=yHEhrkGdnj0) 
+  [AWSre:Invent 2022 – Optimizing performance with Amazon CloudFront](https://www.youtube.com/watch?v=LkyifXYEtrg) 
+ [AWS re:Invent 2019 – Connectivity to AWS and hybrid AWS network architectures](https://www.youtube.com/watch?v=eqW6CPb58gs)
+  [AWS re:Invent 2020 – AWS Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité de mise à l’échelle](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [AWS Ateliers sur la mise en réseau](https://networking.workshop.aws/) 

# PERF04-BP04 Utilisation de l’équilibrage de charge pour répartir le trafic entre plusieurs ressources
<a name="perf_networking_load_balancing_distribute_traffic"></a>

 Répartissez le trafic sur plusieurs ressources ou services pour permettre à votre charge de travail de tirer parti de l’élasticité fournie par le cloud. Vous pouvez également utiliser l’équilibreur de charge afin de décharger la terminaison du chiffrement en vue d’améliorer les performances, d’assurer la fiabilité et de gérer et acheminer efficacement le trafic. 

 **Anti-modèles courants :** 
+  Vous ne tenez pas compte des exigences de votre charge de travail lorsque vous choisissez le type d’équilibreur de charge. 
+  Vous ne tirez pas parti des fonctions d’équilibrage de charge pour optimiser les performances. 
+  La charge de travail est exposée directement à Internet sans équilibreur de charge. 
+  Vous acheminez tout le trafic Internet via des équilibreurs de charge existants. 
+  Vous utilisez l’équilibrage de charge TCP générique et faites en sorte que chaque nœud de calcul gère le chiffrement SSL. 

 **Avantages liés au respect de cette bonne pratique :** un équilibreur de charge gère la charge variable du trafic de votre application dans une seule zone de disponibilité ou entre plusieurs zones de disponibilité et permet une haute disponibilité, une mise à l’échelle automatique et une meilleure utilisation de votre charge de travail. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** élevé 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les équilibreurs de charge constituent le point d’entrée de votre charge de travail, à partir duquel ils distribuent le trafic vers vos cibles principales, telles que les instances de calcul ou les conteneurs, afin d’améliorer l’utilisation. 

 Le choix du bon type d’équilibreur de charge est la première étape de l’optimisation de votre architecture. Commencez par énumérer les caractéristiques de votre charge de travail, telles que le protocole (TCP, HTTP, TLS ou WebSockets), le type de cible (instances, conteneurs ou sans serveur), les exigences de l’application (connexions de longue durée, authentification de l’utilisateur ou permanence) et le placement (région, zone locale, Outpost ou isolement de zone). 

 AWS fournit plusieurs modèles permettant à vos applications d’utiliser l’équilibrage de charge. [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) est davantage adapté à l’équilibrage de charge du trafic HTTP et HTTPS et fournit un routage avancé des demandes, axé sur la diffusion d’architectures d’application modernes, notamment de microservices et de conteneurs. 

 Le [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) est tout indiqué pour l’équilibrage de charge du trafic TCP, qui nécessite des performances extrêmes. Il est capable de traiter des millions de requêtes par seconde tout en maintenant de très faibles latences. Il est optimisé pour gérer les tendances soudaines et instables du trafic. 

 [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) assure la gestion intégrée des certificats et le déchiffrement SSL/TLS, ce qui vous permet de gérer de façon centralisée les paramètres SSL de l’équilibreur de charge et de décharger les tâches gourmandes en CPU de votre charge de travail. 

 Après avoir choisi le bon équilibreur de charge, vous pouvez commencer à tirer parti de ses fonctionnalités pour réduire les efforts que votre système dorsal doit fournir pour servir le trafic. 

 Par exemple, en utilisant à la fois Application Load Balancer (ALB) et Network Load Balancer (NLB), vous pouvez effectuer un déchargement du chiffrement SSL/TLS. Cela permet d’éviter que la liaison TLS, très gourmande en ressources CPU, ne soit effectuée par vos cibles, et permet également d’améliorer la gestion des certificats. 

 Lorsque vous configurez le déchargement SSL/TLS dans votre équilibreur de charge, celui-ci se charge du chiffrement du trafic en provenance et à destination des clients, tout en acheminant le trafic non chiffré vers vos systèmes backend. Cela libère vos ressources dorsales et améliore le temps de réponse pour les clients. 

 Application Load Balancer peut également servir le trafic HTTP/2 sans avoir besoin de le prendre en charge sur vos cibles. Cette simple décision peut améliorer le temps de réponse de votre application, car HTTP/2 utilise plus efficacement les connexions TCP. 

 Les exigences de latence de votre charge de travail doivent être prises en compte lors de la définition de l’architecture. Par exemple, si vous avez une application sensible à la latence, vous pouvez décider d’utiliser Network Load Balancer, qui offre des latences extrêmement faibles. Vous pouvez également décider de rapprocher votre charge de travail de vos clients en tirant parti d’Application Load Balancer dans [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) ou même [AWS Outposts](https://aws.amazon.com/outposts/rack/). 

 L’équilibrage de charge entre zones est un autre élément à prendre en compte pour les charges de travail sensibles à la latence. Avec l’équilibrage de charge inter-zone, chaque nœud d’équilibreur de charge distribue le trafic sur les cibles enregistrées dans toutes les zones de disponibilité activées. 

 Intégrez Auto Scaling à votre équilibreur de charge. L’un des aspects essentiels d’un système performant est le dimensionnement adéquat de vos ressources dorsales. Pour ce faire, vous pouvez tirer parti des intégrations d’équilibreurs de charge pour les ressources cibles du système dorsal. Grâce à l’intégration de l’équilibreur de charge avec les groupes Auto Scaling, les cibles seront ajoutées ou retirées de l’équilibreur de charge selon les besoins en fonction du trafic entrant. Les équilibreurs de charge peuvent également s’intégrer à [Amazon ECS](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) et [Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) pour les charges de travail conteneurisées. 
+  [Amazon ECS – Équilibrage de charge des services](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html) 
+  [Répartition de la charge des applications sur Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html) 
+  [Répartition de charge réseau sur Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Définissez vos exigences en matière d’équilibrage de charge, notamment en matière de volume de trafic, de disponibilité et de capacité de mise à l’échelle des applications. 
+  Choisissez le type d’équilibreur de charge adapté à votre application. 
  +  Utilisez Application Load Balancer pour les charges de travail HTTP/HTTPS. 
  +  Utilisez Network Load Balancer pour les charges de travail non HTTP qui fonctionnent sur TCP ou UDP. 
  +  Utilisez une combinaison des deux ([ALB comme cible de NLB](https://aws.amazon.com/blogs/networking-and-content-delivery/application-load-balancer-type-target-group-for-network-load-balancer/)) si vous souhaitez tirer parti des fonctionnalités des deux produits. Par exemple, vous pouvez le faire si vous voulez utiliser les IP statiques du NLB avec le routage basé sur l’en-tête HTTP de l’ALB, ou si vous voulez exposer votre charge de travail HTTP à un [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html). 
  +  Pour une comparaison complète des équilibreurs de charge, consultez la [comparaison des produits ELB](https://aws.amazon.com/elasticloadbalancing/features/). 
+  Utilisez le déchargement SSL/TLS si possible. 
  +  Configurez les écouteurs HTTPS/TLS avec [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html) et [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-tls-listener.html) intégrés à [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/). 
  +  Notez que certaines charges de travail peuvent nécessiter un chiffrement de bout en bout pour des raisons de conformité. Dans ce cas, il est nécessaire de permettre le chiffrement au niveau des cibles. 
  +  Pour connaître les bonnes pratiques en matière de sécurité, consultez [SEC09-BP02 Appliquer](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html) le chiffrement en transit. 
+  Sélectionnez le bon algorithme de routage (ALB uniquement). 
  +  L’algorithme de routage peut faire une réelle différence dans la manière d’utiliser vos cibles dorsales et donc dans leur impact sur les performances. Par exemple, ALB propose [deux options pour les algorithmes de routage](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#modify-routing-algorithm) : 
  +  **Demandes en suspens les moins nombreuses :** permet d’obtenir une meilleure répartition de la charge sur vos cibles dorsales dans les cas où les requêtes de votre application varient en complexité ou vos cibles varient en capacité de traitement. 
  +  **Tour de rôle :** utilisez cette méthode lorsque les requêtes et les cibles sont similaires, ou si vous devez distribuer les requêtes de manière égale entre les cibles. 
+  Envisagez un isolement inter-zone ou par zone. 
  +  Utilisez la désactivation des zones croisées (isolation zonale) pour améliorer la latence et les domaines de défaillance zonale. Elle est désactivée par défaut dans NLB et dans ALB, [vous pouvez la désactiver par groupe cible](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/disable-cross-zone.html). 
  +  Utilisez les zones croisées activées pour une disponibilité et une flexibilité accrues. Par défaut, la zone croisée est activée pour ALB et dans NLB, [vous pouvez l’activer par groupe cible](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/target-group-cross-zone.html). 
+  Activez l’option de persistance HTTP pour vos charges de travail HTTP (ALB uniquement). Grâce à cette fonction, l’équilibreur de charge peut réutiliser les connexions dorsales jusqu’à l’expiration du délai de persistance, ce qui améliore les temps de demande et de réponse HTTP et réduit également l’utilisation des ressources sur vos cibles dorsales. Pour savoir comment procéder pour Apache et Nginx, consultez [Quels sont les paramètres optimaux pour utiliser Apache ou NGINX en tant que serveur dorsal pour ELB ?](https://aws.amazon.com/premiumsupport/knowledge-center/apache-backend-elb/) 
+  Activez la surveillance pour votre équilibreur de charge. 
  +  Activez les journaux d’accès pour votre [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) et [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-access-logs.html). 
  +  Les principaux champs à prendre en compte pour ALB sont `request_processing_time`, `request_processing_time`, et `response_processing_time`. 
  +  Les principaux champs à prendre en compte pour NLB sont `connection_time` et `tls_handshake_time`. 
  +  Soyez prêt à interroger les journaux lorsque vous en aurez besoin. Vous pouvez utiliser Amazon Athena pour interroger  [les journaux ALB](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) et [les journaux NLB](https://docs.aws.amazon.com/athena/latest/ug/networkloadbalancer-classic-logs.html). 
  +  Créez les alarmes pour les métriques liées aux performances, telles que  [`TargetResponseTime` pour ALB](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html). 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Comparaison des produits ELB ](https://aws.amazon.com/elasticloadbalancing/features/) 
+  [AWSInfrastructure mondiale ](https://aws.amazon.com/about-aws/global-infrastructure/) 
+  [Amélioration des performances et réduction des coûts grâce à l’affinité des zones de disponibilité ](https://aws.amazon.com/blogs/architecture/improving-performance-and-reducing-cost-using-availability-zone-affinity/) 
+  [Procédure détaillée d’analyse des journaux avec Amazon Athena  ](https://github.com/aws/elastic-load-balancing-tools/tree/master/amazon-athena-for-elb) 
+  [Interrogation des journaux de l’application Load Balancer](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) 
+  [Surveillance de vos Application Load Balancers](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-monitoring.html) 
+  [Surveillance de vos Network Load Balancers](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-monitoring.html) 
+  [Utiliser Elastic Load Balancing pour répartir le trafic sur les instances dans votre groupe Auto Scaling.](https://docs.aws.amazon.com/autoscaling/ec2/userguide/autoscaling-load-balancer.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023: qu’est-ce que la mise en réseau peut faire pour votre application ?](https://www.youtube.com/watch?v=tUh26i8uY9Q) 
+  [AWS re:Inforce 20 : comment utiliser Elastic Load Balancing pour améliorer votre posture de sécurité à l’échelle](https://www.youtube.com/watch?v=YhNc5VSzOGQ) 
+  [AWS re:Invent 2018 : Elastic Load Balancing : Plongée en profondeur et bonnes pratiques](https://www.youtube.com/watch?v=VIgAT7vjol8) 
+  [AWS re:Invent 2021 - How to choose the right load balancer for your AWS workloads ](https://www.youtube.com/watch?v=p0YZBF03r5A) 
+  [AWS re:Invent 2019: Get the most from Elastic Load Balancing for different workloads](https://www.youtube.com/watch?v=HKh54BkaOK0) 

 **Exemples connexes :** 
+  [Passerelle équilibreur de charge](https://catalog.workshops.aws/gwlb-networking/en-US) 
+  [CDK et CloudFormation exemples pour l’analyse des journaux avec Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/log-analysis-elb-cdk-cf-template) 

# PERF04-BP05 Choix de protocoles réseau afin d’améliorer les performances
<a name="perf_networking_choose_network_protocols_improve_performance"></a>

 Prenez des décisions concernant les protocoles de communication entre les systèmes et les réseaux en fonction de l’impact sur les performances de la charge de travail. 

 Il existe une relation entre la latence et la bande passante pour atteindre le débit. Si votre transfert de fichiers utilise le protocole de contrôle de transmission (TCP), des latences plus élevées réduiront très probablement le débit global. Il existe des approches pour résoudre ce problème avec le réglage du protocole TCP et les protocoles de transfert optimisés. Le protocole UDP (User Datagram Protocol) est une solution possible. 

 **Anti-modèles courants :** 
+  Vous utilisez TCP pour toutes les charges de travail, quelles que soient les exigences de performance. 

 **Avantages liés au respect de cette bonne pratique :** vérifiez que vous utilisez un protocole approprié pour la communication entre les utilisateurs et les composants de la charge de travail, afin d’améliorer l’expérience globale des utilisateurs de vos applications. Par exemple, le protocole UDP sans connexion permet d’obtenir une vitesse élevée, mais sans retransmission ni fiabilité élevée. Quoique complet, le protocole TCP nécessite une surcharge plus importante pour le traitement des paquets. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Si vous avez la possibilité de choisir différents protocoles pour votre application et que vous possédez l’expertise nécessaire dans ce domaine, optimisez votre application et l’expérience de l’utilisateur final en utilisant un autre protocole. Notez que cette approche présente des difficultés importantes et ne doit être tentée que si vous avez d’abord optimisé votre application à d’autres égards. 

 Pour améliorer les performances de votre charge de travail, il est essentiel de comprendre les exigences en matière de latence et de débit, puis de choisir des protocoles réseau qui optimisent les performances. 

 **Quand envisager l’utilisation du protocole TCP** 

 Le protocole TCP assure une livraison fiable des données et peut être utilisé pour la communication entre les composants de la charge de travail où la fiabilité et la livraison garantie des données sont importantes. De nombreuses applications web reposent sur des protocoles basés sur le protocole TCP, tels que HTTP et HTTPS, pour ouvrir des sockets TCP pour la communication entre les composants de l’application. Les e-mails et le transfert de données de fichiers sont des applications courantes qui utilisent également le protocole TCP, car il s’agit d’un mécanisme de transfert simple et fiable entre les composants de l’application. L’utilisation de TLS avec TCP peut ajouter une certaine surcharge à la communication, ce qui peut entraîner une augmentation de la latence et une réduction du débit, mais elle présente l’avantage de la sécurité. La surcharge provient principalement de la charge supplémentaire du processus de liaison, qui peut prendre plusieurs allers-retours pour se terminer. Une fois la liaison établie, la charge de chiffrement et de déchiffrement des données devient relativement faible. 

 **Quand envisager l’utilisation du protocole UDP** 

 UDP est un protocole orienté sans connexion et convient donc aux applications qui nécessitent une transmission rapide et efficace, comme les données de journal, de surveillance et de VoIP. En outre, envisagez d’utiliser UDP si vous avez des composants de charge de travail qui répondent à de petites requêtes provenant d’un grand nombre de clients, afin de garantir des performances optimales de la charge de travail. Le protocole DTLS (Datagram Transport Layer Security) est l’équivalent UDP du protocole TLS (Transport Layer Security). Lors de l’utilisation de DTLS avec UDP, la charge provient du chiffrement et du déchiffrement des données, car le processus de liaison est simplifié. DTLS ajoute également une petite quantité de charge aux paquets UDP, car il inclut des champs supplémentaires pour indiquer les paramètres de sécurité et pour détecter la falsification. 

 **Quand envisager l’utilisation du protocole SRD** 

 Le protocole SRD (scalable reliable datagram) est un protocole de transport en réseau optimisé pour les charges de travail à haut débit en raison de sa capacité à répartir le trafic sur plusieurs chemins et à se rétablir rapidement en cas de perte de paquets ou de défaillance d’un lien. Le protocole SRD est donc le mieux adapté aux charges de travail de calcul haute performance (HPC) qui nécessitent un débit élevé et une communication à faible latence entre les nœuds de calcul. Il peut s’agir de tâches de traitement parallèle telles que la simulation, la modélisation et l’analyse de données qui impliquent le transfert d’un gros volume de données entre les nœuds. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Utilisez les services [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) et [AWS Transfer Family](https://aws.amazon.com/aws-transfer-family/) pour améliorer le débit de vos applications de transfert de fichiers en ligne. Le service AWS Global Accelerator vous aide à réduire la latence entre vos appareils clients et votre charge de travail sur AWS. Avec AWS Transfer Family, vous pouvez utiliser des protocoles basés sur TCP tels que le protocole de transfert de fichiers Secure Shell (SFTP) et le protocole de transfert de fichiers sur SSL (FTPS) pour mettre à l’échelle et gérer en toute sécurité vos transferts de fichiers vers des services de stockage AWS. 
+  Utilisez la latence du réseau pour déterminer si le protocole TCP est adapté à la communication entre les composants de la charge de travail. Si la latence du réseau entre votre application cliente et le serveur est élevée, la liaison tripartite TCP peut prendre un certain temps, ce qui a un impact sur la réactivité de votre application. Des métriques telles que le délai jusqu’au premier octet (TTFB) et le temps de propagation aller et retour (RTT) peuvent être utilisées pour mesurer la latence du réseau. Si votre charge de travail sert des contenus dynamiques aux utilisateurs, envisagez d’utiliser [Amazon CloudFront](https://aws.amazon.com/cloudfront/), qui établit une connexion persistante avec chaque origine de contenu dynamique afin de supprimer le temps d’établissement de la connexion qui, sinon, ralentirait chaque demande du client. 
+  L’utilisation de TLS avec TCP ou UDP peut entraîner une augmentation de la latence et une réduction du débit de votre charge de travail en raison de l’impact du chiffrement et du déchiffrement. Pour de telles charges de travail, envisagez le délestage SSL/TLS sur [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) pour améliorer les performances de la charge de travail en permettant à l’équilibreur de charge de gérer le processus de cryptage et de décryptage SSL/TLS au lieu de laisser les instances dorsales s’en charger. Cela peut contribuer à réduire l’utilisation du processeur sur les instances dorsales, ce qui peut améliorer les performances et augmenter la capacité. 
+  Utilisez le [Network Load Balancer (NLB)](https://aws.amazon.com/elasticloadbalancing/network-load-balancer/) pour déployer des services reposant sur le protocole UDP, tels que l’authentification et l’autorisation, la journalisation, DNS, IoT et le média de streaming, afin d’améliorer les performances et la fiabilité de votre charge de travail. Le NLB distribue le trafic UDP entrant sur plusieurs cibles, ce qui vous permet de mettre à l’échelle votre charge de travail horizontalement, d’augmenter la capacité et de réduire les frais généraux associés à une seule cible. 
+  Pour vos charges de travail de calcul haute performance (HPC), pensez à utiliser la fonctionnalité [Adaptateur réseau élastique (ENA) Express](https://aws.amazon.com/about-aws/whats-new/2022/11/elastic-network-adapter-ena-express-amazon-ec2-instances/) qui utilise le protocole SRD pour améliorer les performances du réseau en fournissant une bande passante à flux unique plus élevée (25 Gbit/s) et une latence de queue plus faible (99,9 centile) pour le trafic réseau entre les instances EC2. 
+  Utilisez [Application Load Balancer (ALB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) pour acheminer et équilibrer la charge de votre trafic gRPC (Remote Procedure Calls) entre les composants de la charge de travail ou entre les clients et les services gRPC. gRPC utilise le protocole HTTP/2 basé sur TCP pour le transport et offre des avantages en matière de performances, tels qu’une empreinte réseau plus légère, la compression, une sérialisation binaire efficace, la prise en charge de nombreux langages et le streaming bidirectionnel. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Comment router le trafic UDP dans Kubernetes ?](https://aws.amazon.com/blogs/containers/how-to-route-udp-traffic-into-kubernetes/) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Mise en réseau améliorée d’EC2 sous Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Capacité réseau améliorée d’EC2 sous Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Groupes de placement EC](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Activation de la mise en réseau améliorée avec un adaptateur réseau élastique (ENA) sur les instances de Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Mise en réseau de produits avec AWS](https://aws.amazon.com/products/networking/) 
+  [Transition vers le routage basé sur la latence dans Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Points de terminaison d’un VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2022 – Scaling network performance on next-gen Amazon Elastic Compute Cloud instances](https://www.youtube.com/watch?v=jNYpWa7gf1A) 
+  [AWS re:Invent 2022 – Application networking foundations](https://www.youtube.com/watch?v=WcZwWuq6FTk) 

 **Exemples connexes :** 
+  [AWS Transit Gateway et solutions de sécurité de mise à l’échelle](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 

# PERF04-BP06 Choisissez l'emplacement de votre charge de travail en fonction des exigences du réseau
<a name="perf_networking_choose_workload_location_network_requirements"></a>

Évaluez les options de placement des ressources afin de réduire la latence du réseau et d’améliorer le débit, offrant ainsi une expérience utilisateur optimale en réduisant les temps de chargement des pages et de transfert des données.

 **Anti-modèles courants :** 
+  Vous regroupez toutes les ressources de charge de travail dans un seul emplacement géographique. 
+  Vous avez choisi la région la plus proche de votre emplacement, pas celle de l’utilisateur final de la charge de travail. 

 **Avantages liés au respect de cette bonne pratique :** l’expérience utilisateur est fortement affectée par le temps de latence entre l’utilisateur et votre application. En utilisant un réseau mondial AWS privé Régions AWS et approprié, vous pouvez réduire le temps de latence et offrir une meilleure expérience aux utilisateurs distants. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Les ressources, telles que EC2 les instances Amazon, sont placées dans des zones de disponibilité [Régions AWS](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/)internes [AWS Outposts](https://aws.amazon.com/outposts/), [des zones AWS locales](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) ou [AWS Wavelength](https://aws.amazon.com/wavelength/)des zones. Le choix de cet emplacement influence la latence et le débit du réseau à partir d’un emplacement donné de l’utilisateur. Les services périphériques tels qu'[Amazon CloudFront [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)](https://aws.amazon.com/cloudfront/)peuvent également être utilisés pour améliorer les performances du réseau soit en mettant en cache le contenu sur des sites périphériques, soit en fournissant aux utilisateurs un chemin optimal vers la charge de travail via le réseau AWS mondial. 

 Amazon EC2 propose des groupes de placement pour la mise en réseau. Un groupe de placement est un regroupement logique d’instances permettant de réduire la latence. L'utilisation de groupes de placement dotés de types d'instances compatibles et d'un adaptateur réseau élastique (ENA) permet aux charges de travail de participer à un réseau de 25 Gbit/s à faible latence et à instabilité réduite. Les groupes de placement sont recommandés pour les charges de travail nécessitant une latence réseau faible, un débit réseau élevé ou les deux. 

 [Les services sensibles à la latence sont fournis sur des sites périphériques via un réseau AWS mondial, tel qu'Amazon. CloudFront](https://aws.amazon.com/cloudfront/) Ces emplacements périphériques fournissent généralement des services tels que le réseau de diffusion de contenu (CDN) et le système de noms de domaine (DNS). En disposant de ces services à la périphérie, les charges de travail peuvent répondre avec une faible latence aux demandes de contenu ou de DNS résolution. Ces services fournissent également des services géographiques tels que le ciblage géographique du contenu (qui fournit des contenus différents en fonction de l’emplacement des utilisateurs finaux) ou le routage en fonction de la latence pour diriger les utilisateurs finaux vers la région plus proche (latence minimum). 

 Utilisez des services en périphérie pour réduire la latence et permettre la mise en cache de contenu. Configurez correctement le contrôle du cache pour les deux DNS etHTTP/HTTPSafin de tirer le meilleur parti de ces approches. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Capturez des informations sur le trafic IP entrant et sortant des interfaces réseau. 
  + [Enregistrement du trafic IP à l'aide de VPC Flow Logs](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html)
  + [Comment l'adresse IP du client est-elle préservée dans AWS Global Accelerator](https://docs.aws.amazon.com/global-accelerator/latest/dg/preserve-client-ip-address.headers.html)
+  Analysez les modèles d’accès au réseau dans votre charge de travail afin d’identifier comment les utilisateurs utilisent votre application. 
  +  Utilisez des outils de surveillance, tels qu'[Amazon CloudWatch [AWS CloudTrail](https://aws.amazon.com/cloudtrail/)](https://aws.amazon.com/cloudwatch/), pour recueillir des données sur les activités du réseau. 
  +  Analysez les données pour identifier le modèle d’accès au réseau. 
+  Choisissez les régions pour le déploiement de votre charge de travail en fonction des éléments clés suivants : 
  +  **Lieu de stockage de vos données :** pour les applications utilisant de grandes quantités de données (telles que le big data et le machine learning). Le code de l’application doit s’exécuter aussi près que possible des données. 
  +  **Lieu de stockage de vos données :** pour les applications orientées utilisateur, choisissez une région (ou des régions) proche des utilisateurs de votre charge de travail. 
  +  **Autres contraintes** : tenez compte des contraintes telles que le coût et la conformité, comme expliqué dans la section [Éléments à prendre en compte lors de la sélection d’une région pour vos charges de travail](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilisez des zones locales [AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) pour exécuter des charges de travail telles que le rendu vidéo. Les zones locales vous permettent de profiter des avantages liés à la présence de ressources de calcul et de stockage plus proches des utilisateurs finaux. 
+  Utilisez [AWS Outposts](https://aws.amazon.com/outposts/) pour les charges de travail qui doivent rester sur site et dont vous souhaitez qu’elles fonctionnent de manière transparente avec le reste de vos charges de travail dans AWS. 
+  Les applications telles que le streaming vidéo en direct haute résolution, le son haute fidélité et la réalité augmentée ou virtuelle (AR/VR) nécessitent ultra-low-latency des appareils 5G. Pour de telles applications, considérez [AWS Wavelength](https://aws.amazon.com/wavelength/). AWS Wavelength intègre des services de AWS calcul et de stockage dans les réseaux 5G, fournissant une infrastructure informatique de pointe mobile pour le développement, le déploiement et la mise à l'échelle d' ultra-low-latencyapplications. 
+  Utilisez des solutions de mise en cache locale ou [proposées par AWS](https://aws.amazon.com/caching/aws-caching/) pour les ressuorces fréquemment utilisées afin d’améliorer les performances, de réduire les déplacements de données et de diminuer l’impact environnemental.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Utilisez des services capables de vous aider à exécuter le code plus près des utilisateurs de votre charge de travail, tels que les suivants :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_networking_choose_workload_location_network_requirements.html)
+  Certaines applications nécessitent des points d’entrée fixes ou des performances plus élevées en réduisant la latence et l’instabilité du premier octet et en augmentant le débit. Ces applications peuvent bénéficier de services réseau qui fournissent des adresses IP anycast statiques et des TCP terminaisons aux emplacements périphériques. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)peut améliorer les performances de vos applications jusqu'à 60 % et permettre un basculement rapide pour les architectures multirégionales. AWS Global Accelerator vous fournit des adresses IP anycast statiques qui servent de point d'entrée fixe pour vos applications hébergées dans une ou plusieurs d' Régions AWS entre elles. Ces adresses IP permettent au trafic de pénétrer sur le réseau AWS mondial aussi près que possible de vos utilisateurs. AWS Global Accelerator réduit le temps de configuration de la connexion initiale en établissant une TCP connexion entre le client et l'emplacement AWS périphérique le plus proche du client. Passez en revue l'utilisation de AWS Global Accelerator pour améliorer les performances de vosTCP/UDPworkloads et permettre un basculement rapide pour les architectures multirégionales. 

## Ressources
<a name="resources"></a>

 **Bonnes pratiques associées :** 
+ [COST07-BP02 Mettre en œuvre les régions en fonction des coûts](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_pricing_model_region_cost.html)
+ [COST08-BP03 Mettre en œuvre des services pour réduire les coûts de transfert de données](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_data_transfer_implement_services.html)
+ [REL10-BP01 Déployer la charge de travail sur plusieurs sites](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_multiaz_region_system.html)
+ [REL10-BP02 Sélectionnez les emplacements appropriés pour votre déploiement multisite](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_select_location.html)
+ [SUS01-BP01 Choisissez la région en fonction des exigences commerciales et des objectifs de durabilité](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_region_a2.html)
+ [SUS02-BP04 Optimiser le placement géographique des charges de travail en fonction de leurs exigences en matière de réseau](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_user_a5.html)
+ [SUS04-BP07 Minimiser le mouvement des données sur les réseaux](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_data_a8.html)

 **Documents connexes :** 
+ [AWS Infrastructure mondiale](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Zones locales et AWS Outposts choix de la technologie adaptée à votre charge de travail périphérique](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Zones Locales](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)
+ [AWS Wavelength](https://aws.amazon.com/wavelength/)
+ [Amazon CloudFront](https://aws.amazon.com/cloudfront/)
+ [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/)
+ [AWS Direct Connect](https://aws.amazon.com/directconnect/)
+ [AWS Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/)
+ [Amazon Route 53](https://aws.amazon.com/route53/)

 **Vidéos connexes :** 
+ [AWS Vidéo explicative sur les Zones Locales](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How it Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 - Une stratégie de migration pour les charges de travail en périphérie et sur site](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:INVENT 2021 - AWS Outposts : Apporter l' AWS expérience sur site](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 : AWS Wavelength : Exécutez des applications avec une latence extrêmement faible à la périphérie de la 5G](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - Zones AWS locales : création d'applications pour une périphérie distribuée](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Création de sites Web à faible latence avec Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 - Améliorez les performances et la disponibilité avec AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 - Construisez votre réseau étendu mondial en utilisant AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020 : gestion du trafic mondial avec Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Exemples connexes :** 
+ [AWS Global Accelerator Atelier de routage personnalisé](https://catalog.us-east-1.prod.workshops.aws/workshops/ac213084-3f4a-4b01-9835-5052d6096b5b/en-US)
+ [Gestion des réécritures et des redirections à l’aide des fonctions de périphérie](https://catalog.us-east-1.prod.workshops.aws/workshops/814dcdac-c2ad-4386-98d5-27d37bb77766/en-US)

# PERF04-BP07 Optimisation de la configuration réseau en fonction de métriques
<a name="perf_networking_optimize_network_configuration_based_on_metrics"></a>

 Utilisez les données collectées et analysées pour prendre des décisions avisées concernant l’optimisation de votre configuration réseau. 

 **Anti-modèles courants :** 
+  Vous supposez que tous les problèmes liés aux performances sont liés à l’application. 
+  Vous testez uniquement les performances de votre réseau à partir d’un emplacement proche de l’endroit où vous avez déployé la charge de travail. 
+  Vous utilisez des configurations par défaut pour tous les services du réseau. 
+  Vous surdimensionnez la ressource réseau afin de fournir une capacité suffisante. 

 **Avantages liés au respect de cette bonne pratique :** la collecte des métriques nécessaires de votre réseau AWS et la mise en œuvre d’outils de surveillance du réseau vous permettent de comprendre les performances du réseau et d’optimiser les configurations du réseau. 

 **Niveau d’exposition au risque si cette bonne pratique n’est pas respectée :** bas 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 La surveillance du trafic en provenance et à destination des VPC, des sous-réseaux ou des interfaces réseau est essentielle pour comprendre comment utiliser les ressources réseau AWS et comment optimiser les configurations réseau. Les outils de mise en réseau AWS suivants vous permettent d’obtenir des informations supplémentaires sur l’utilisation du trafic, l’accès au réseau et les journaux. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Identifiez les indicateurs clés de performance tels que la latence ou la perte de paquets à collecter. AWS fournit plusieurs outils qui peuvent vous aider à collecter ces métriques. Les outils suivants vous permettent d’obtenir des informations supplémentaires sur l’utilisation du trafic, l’accès au réseau et les journaux.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/wellarchitected/latest/framework/perf_networking_optimize_network_configuration_based_on_metrics.html)
+  Identifiez les principaux intervenants et les modèles de trafic des applications à l’aide des journaux de flux VPC et AWS Transit Gateway. 
+  Évaluez et optimisez votre architecture réseau actuelle, y compris les VPC, les sous-réseaux et le routage. À titre d’exemple, vous pouvez évaluer l’impact de l’appairage de VPC ou d’AWS Transit Gateway sur l’amélioration de la mise en réseau de votre architecture. 
+  Évaluez les chemins de routage de votre réseau pour vérifier que le chemin le plus court entre les destinations est toujours utilisé. L’Analyseur d’accès réseau vous aide à le faire. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [Journalisation des requêtes DNS publiques](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html) 
+  [Qu’est-ce qu’IPAM ?](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html) 
+  [Définir Reachability Analyzer](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) 
+  [Définir l’Analyseur d’accès réseau](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html) 
+  [Métriques CloudWatch pour vos VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-cloudwatch.html) 
+  [Optimiser les performances et réduire les coûts de l’analyse des réseaux grâce aux journaux de flux VPC au format Apache Parquet](https://aws.amazon.com/blogs/big-data/optimize-performance-and-reduce-costs-for-network-analytics-with-vpc-flow-logs-in-apache-parquet-format/) 
+  [Surveillance de vos réseaux mondiaux et principaux avec les métriques Amazon Cloudwatch](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) 
+  [Surveiller en permanence le trafic et les ressources du réseau](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) 

 **Vidéos connexes :** 
+  [AWS re:Invent 2023 – A developer’s guide to cloud networking](https://www.youtube.com/watch?v=i77D556lrgY) 
+  [AWS re:Invent 2023 – Ready for what’s next? Designing networks for growth and flexibility](https://www.youtube.com/watch?v=FkWOhTZSfdA) 
+  [AWS re:Invent 2023 - Advanced VPC designs and new capabilities](https://www.youtube.com/watch?v=cRdDCkbE4es) 
+  [AWS re:Invent 2022 – Dive deep on AWS networking infrastructure](https://www.youtube.com/watch?v=HJNR_dX8g8c) 
+  [AWS re:Invent 2020 – Networking best practices and tips with the AWS Well-Architected Framework](https://www.youtube.com/watch?v=wOMNpG49BeM) 
+  [AWS re:Invent 2020 – Monitoring and troubleshooting network traffic](https://www.youtube.com/watch?v=Ed09ReWRQXc) 

 **Exemples connexes :** 
+  [Ateliers sur la mise en réseau AWS](https://networking.workshop.aws/) 
+  [Surveillance réseau AWS](https://github.com/aws-samples/monitor-vpc-network-patterns) 
+  [Observation et diagnostic de votre réseau sur AWS](https://catalog.us-east-1.prod.workshops.aws/workshops/cf2ecaa4-e4be-4f40-b93f-e9fe3b1c1f64/en-US) 
+  [Détection et résolution des erreurs de configuration du réseau sur AWS](https://validating-network-reachability.awssecworkshops.com/) 