

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Processus d'adoption du cloud hybride
<a name="pillars"></a>

Les sections suivantes présentent les architectures et les détails de conception de chaque pilier du cloud AWS hybride :
+ [Réseautage à la périphérie](networking.md)
+ [La sécurité à la périphérie](security.md)
+ [Résilience à la périphérie](resiliency.md)
+ [Planification des capacités à la périphérie](capacity-planning.md)
+ [Gestion de l'infrastructure de pointe](infrastructure-mgmt.md)

# Réseautage à la périphérie
<a name="networking"></a>

Lorsque vous concevez des solutions qui utilisent une infrastructure AWS périphérique, telle que AWS Outposts des Zones Locales, vous devez examiner attentivement la conception du réseau. Le réseau constitue la base de la connectivité permettant d'atteindre les charges de travail déployées dans ces emplacements périphériques et est essentiel pour garantir une faible latence. Cette section décrit les différents aspects de la connectivité périphérique hybride.

## Architecture VPC
<a name="vpc-architecture"></a>

Un cloud privé virtuel (VPC) couvre toutes les zones de disponibilité de son. Région AWS Vous pouvez facilement étendre n'importe quel VPC de la région aux avant-postes ou aux zones locales en utilisant la AWS console ou le AWS Command Line Interface (AWS CLI) pour ajouter un sous-réseau d'avant-poste ou de zone locale. Les exemples suivants montrent comment créer des sous-réseaux dans des zones locales AWS Outposts et dans des zones locales à l'aide de AWS CLI :
+ **AWS Outposts**: Pour ajouter un sous-réseau Outpost à un VPC, spécifiez le nom de ressource Amazon (ARN) de l'Outpost.

  ```
  aws ec2 create-subnet --vpc-id vpc-081ec835f3EXAMPLE \
  --cidr-block 10.0.0.0/24 \
  --outpost-arn arn:aws:outposts:us-west-2:11111111111:outpost/op-0e32example1 \
  --tag-specifications ResourceType=subnet,Tags=[{Key=Name,Value=my-ipv4-only-subnet}]
  ```

  Pour plus d’informations, consultez la [documentation AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/launch-instance.html#create-subnet).
+ **Zones locales** : pour ajouter un sous-réseau de zone locale à un VPC, suivez la même procédure que pour les zones de disponibilité, mais spécifiez l'ID de zone locale `<local-zone-name>` (dans l'exemple suivant).

  ```
  aws ec2 create-subnet --vpc-id vpc-081ec835f3EXAMPLE \
  --cidr-block 10.0.1.0/24 \
  --availability-zone <local-zone-name> \
  --tag-specifications ResourceType=subnet,Tags=[{Key=Name,Value=my-ipv4-only-subnet}]
  ```

  Pour plus d'informations, consultez la [documentation sur les Zones Locales](https://docs.aws.amazon.com/local-zones/latest/ug/getting-started.html#getting-started-create-local-zone-subnet).

Le schéma suivant montre une AWS architecture qui inclut les sous-réseaux Outpost et Local Zone.

![\[AWS architecture avec sous-réseaux Outpost et:Local Zone.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/architecture-lz-outpost.png)


## Trafic d'une région à l'autre
<a name="edge-to-region-traffic"></a>

Lorsque vous concevez une architecture hybride à l'aide de services tels que les zones locales AWS Outposts, tenez compte à la fois des flux de contrôle et des flux de trafic de données entre les infrastructures de périphérie et Régions AWS. Selon le type d'infrastructure périphérique, votre responsabilité peut varier : certaines infrastructures nécessitent que vous gériez la connexion à la région parent, tandis que d'autres s'en chargent par le biais de l'infrastructure AWS globale. Cette section explore les implications de connectivité du plan de contrôle et du plan de données pour les Zones Locales et AWS Outposts.

### AWS Outposts plan de contrôle
<a name="outposts-control-plane"></a>

AWS Outposts fournit une structure réseau appelée *lien de service*. Le lien de service est une connexion obligatoire entre AWS Outposts et la région sélectionnée Région AWS ou parent (également appelée *région d'origine*). Il permet la gestion de l'avant-poste et l'échange de trafic entre l'avant-poste et. Région AWS Le lien de service utilise un ensemble crypté de connexions VPN pour communiquer avec la région d'origine. Vous devez fournir une connectivité entre AWS Outposts et Région AWS soit via un lien Internet ou une interface virtuelle Direct Connect publique (VIF publique), soit via une interface virtuelle Direct Connect privée (VIF privée). Pour une expérience et une résilience optimales, il est AWS recommandé d'utiliser une connectivité redondante d'au moins 500 Mbits/s (1 Gbit/s est préférable) pour la connexion par liaison de service au. Région AWS La connexion par liaison de service minimale de 500 Mbits/s vous permet de lancer EC2 des instances Amazon, de connecter des volumes Amazon EBS et d'accéder à des métriques Services AWS telles qu'Amazon EKS, Amazon EMR et Amazon CloudWatch . Le réseau doit prendre en charge une unité de transmission (MTU) maximale de 1 500 octets entre l'Outpost et les points de terminaison de la liaison de service du parent. Région AWS[Pour plus d'informations, consultez la section [AWS Outposts connectivité à Régions AWS](https://docs.aws.amazon.com/outposts/latest/userguide/region-connectivity.html) dans la documentation des Outposts.](https://docs.aws.amazon.com/outposts/latest/userguide/region-connectivity.html)

![\[Lien de service pour les Outposts utilisant Direct Connect (VIF privé) et une connectivité privée.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/dc-service-link.png)


Pour plus d'informations sur la création d'architectures résilientes pour les liens de service qui utilisent Direct Connect l'Internet public, consultez la section sur la [connectivité des ancres](https://docs.aws.amazon.com/whitepapers/latest/aws-outposts-high-availability-design/anchor-connectivity.html) du AWS livre blanc Considérations relatives à la *conception et à l'architecture de AWS Outposts haute disponibilité*.

### AWS Outposts plan de données
<a name="outposts-data-plane"></a>

Le plan de données situé entre AWS Outposts et Région AWS est soutenu par la même architecture de liaison de service que celle utilisée par le plan de contrôle. La bande passante du lien de service du plan de données entre AWS Outposts et Région AWS doit être en corrélation avec la quantité de données à échanger : plus la dépendance aux données est grande, plus la bande passante de la liaison doit être importante.

Les besoins en bande passante varient en fonction des caractéristiques suivantes :
+ Le nombre de AWS Outposts racks et les configurations de capacité
+ Caractéristiques de la charge de travail telles que la taille de l'AMI, l'élasticité des applications et les besoins en vitesse de rafale
+ Trafic VPC vers la région

Le trafic entre les EC2 instances dans AWS Outposts et EC2 les instances dans le Région AWS a une MTU de 1 300 octets. Nous vous recommandons de discuter de ces exigences avec un spécialiste du cloud AWS hybride avant de proposer une architecture qui comporte des co-dépendances entre la Région et AWS Outposts.

### Plan de données des zones locales
<a name="local-zone-data-plane"></a>

Le plan de données entre les Zones Locales et le Région AWS est pris en charge par l'infrastructure AWS globale. Le plan de données est étendu via un VPC de la zone Région AWS à une zone locale. Les Zones Locales fournissent également une connexion sécurisée à haut débit et vous permettent de vous connecter facilement à l'ensemble des services régionaux par le biais de ces mêmes services APIs et de jeux d'outils. Région AWS

Le tableau suivant présente les options de connexion et les options associées MTUs.


| **À partir de** | **À** | **MTU** | 
| --- | --- | --- | 
| Amazon EC2 dans la région | Amazon EC2 dans les Zones Locales | 1 300 octets | 
| Direct Connect | Zones locales | 1 468 octets | 
| Passerelle Internet | Zones locales | 1 500 octets | 
| Amazon EC2 dans les Zones Locales | Amazon EC2 dans les Zones Locales | 9 001 octets | 

Zones Locales utilisent l'infrastructure AWS globale pour se connecter Régions AWS. L'infrastructure est entièrement gérée par AWS, vous n'avez donc pas à configurer cette connectivité. Nous vous recommandons de discuter des exigences et des considérations relatives aux zones locales avec un spécialiste du cloud AWS hybride avant de concevoir une architecture comportant des co-dépendances entre la région et les zones locales.

## De la périphérie au trafic sur site
<a name="edge-to-on-premises-traffic"></a>

AWS les services cloud hybrides sont conçus pour répondre aux cas d'utilisation nécessitant une faible latence, un traitement local des données ou une conformité en matière de résidence des données. L'architecture réseau permettant d'accéder à ces données est importante, et elle dépend du fait que votre charge de travail s'exécute dans des zones locales AWS Outposts ou dans des zones locales. La connectivité locale nécessite également une portée bien définie, comme indiqué dans les sections suivantes.

### AWS Outposts passerelle locale
<a name="outpost-lgw"></a>

La passerelle locale (LGW) est un composant essentiel de l' AWS Outposts architecture. La passerelle locale permet la connectivité entre vos sous-réseaux Outpost et votre réseau sur site. Le rôle principal d'un LGW est de fournir une connectivité entre un avant-poste et votre réseau local sur site. Il fournit également une connectivité à Internet via votre réseau local via un routage [VPC direct ou des](https://docs.aws.amazon.com/outposts/latest/userguide/routing.html#direct-vpc-routing) [adresses IP appartenant au client](https://docs.aws.amazon.com/outposts/latest/userguide/routing.html#ip-addressing).
+ Le **routage VPC direct** utilise l'adresse IP privée des instances de votre VPC pour faciliter la communication avec votre réseau local. Ces adresses sont publiées sur votre réseau local via le protocole BGP (Border Gateway Protocol). La publication sur BGP concerne uniquement les adresses IP privées appartenant aux sous-réseaux de votre rack Outpost. Ce type de routage est le mode par défaut pour AWS Outposts. Dans ce mode, la passerelle locale n'exécute pas le NAT pour les instances, et vous n'avez pas besoin d'attribuer d'adresses IP élastiques à vos EC2 instances. Le schéma suivant montre une passerelle AWS Outposts locale qui utilise le routage VPC direct.

![\[Outposts la passerelle locale avec le mode VPC direct.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/outpost-lgw-direct-vpc.png)

+ Avec les adresses **IP appartenant au client**, vous pouvez fournir une plage d'adresses, connue sous le nom de *pool d'adresses IP appartenant au client (CoIP)*, qui prend en charge les plages CIDR qui se chevauchent et les autres topologies de réseau. Lorsque vous choisissez une CoIP, vous devez créer un pool d'adresses, l'attribuer à la table de routage de la passerelle locale et publier ces adresses sur votre réseau via BGP. Les adresses CoIP fournissent une connectivité locale ou externe aux ressources de votre réseau local. Vous pouvez attribuer ces adresses IP aux ressources de votre Outpost, telles que les EC2 instances, en allouant une nouvelle adresse IP élastique depuis le CoIP, puis en l'attribuant à votre ressource. Le schéma suivant montre une passerelle AWS Outposts locale qui utilise le mode CoIP.

![\[Outposts la passerelle locale avec le mode COIP.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/outpost-lgw-coip.png)


La connectivité locale depuis AWS Outposts un réseau local nécessite certaines configurations de paramètres, telles que l'activation du protocole de routage BGP et des préfixes publicitaires entre les homologues BGP. Le MTU qui peut être pris en charge entre votre Outpost et la passerelle locale est de 1 500 octets. Pour plus d'informations, contactez un spécialiste du cloud AWS hybride ou consultez la [AWS Outposts documentation](https://docs.aws.amazon.com/outposts/latest/userguide/outposts-local-gateways.html).

### Zones Locales et Internet
<a name="local-zones-internet"></a>

Les secteurs qui ont besoin d'une faible latence ou d'une résidence locale des données (par exemple, les jeux vidéo, le streaming en direct, les services financiers et le gouvernement) peuvent utiliser les Zones Locales pour déployer et fournir leurs applications aux utilisateurs finaux via Internet. Lors du déploiement d'une zone locale, vous devez allouer des adresses IP publiques à utiliser dans une zone locale. Lorsque vous attribuez des adresses IP élastiques, vous pouvez spécifier l'emplacement à partir duquel l'adresse IP est publiée. Cet emplacement est appelé *groupe frontalier du réseau*. Un groupe frontalier réseau est un ensemble de zones de disponibilité, de zones locales ou de AWS Wavelength zones à partir desquelles AWS une adresse IP publique est annoncée. Cela permet de garantir une latence ou une distance physique minimale entre le AWS réseau et les utilisateurs qui accèdent aux ressources de ces zones. Pour voir tous les groupes de bordures du réseau pour les zones locales, consultez la section [Zones locales disponibles](https://docs.aws.amazon.com/local-zones/latest/ug/available-local-zones.html) dans la documentation relative aux zones locales.

Pour exposer à Internet une charge de travail EC2 hébergée par Amazon dans une zone locale, vous pouvez activer l'option **Attribuer automatiquement une adresse IP publique** lorsque vous lancez l' EC2 instance. Si vous utilisez un Application Load Balancer, vous pouvez le définir comme étant connecté à Internet afin que les adresses IP publiques attribuées à la zone locale puissent être propagées par le réseau frontalier associé à la zone locale. En outre, lorsque vous utilisez des adresses IP élastiques, vous pouvez associer l'une de ces ressources à une EC2 instance après son lancement. Lorsque vous envoyez du trafic via une passerelle Internet dans les Zones Locales, les mêmes spécifications de [bande passante d'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html) que celles utilisées par la région sont appliquées. Le trafic réseau de la zone locale est directement dirigé vers Internet ou vers des points de présence (PoPs) sans traverser la région mère de la zone locale, afin de permettre l'accès à un calcul à faible latence.

Les Zones Locales fournissent les options de connectivité suivantes sur Internet :
+ Accès public : connecte les charges de travail ou les appareils virtuels à Internet en utilisant des adresses IP élastiques via une passerelle Internet.
+ Accès Internet sortant : permet aux ressources d'atteindre les points de terminaison publics par le biais d'instances de traduction d'adresses réseau (NAT) ou d'appliances virtuelles associées à des adresses IP élastiques, sans exposition directe à Internet.
+ Connectivité VPN : établit des connexions privées en utilisant le VPN Internet Protocol Security (IPsec) via des appliances virtuelles associées à des adresses IP élastiques.

Pour plus d'informations, consultez la section [Options de connectivité pour les zones locales](https://docs.aws.amazon.com/local-zones/latest/ug/local-zones-connectivity.html) dans la documentation relative aux zones locales.

### Zones Locales et Direct Connect
<a name="local-zones-dc"></a>

Les Zones Locales sont également compatibles Direct Connect, ce qui vous permet d'acheminer votre trafic via une connexion réseau privée. Pour plus d'informations, consultez [Direct Connect in Local Zones](https://docs.aws.amazon.com/local-zones/latest/ug/local-zones-connectivity-direct-connect.html) dans la documentation Local Zones.

### Zones locales et passerelles de transit
<a name="local-zones-tgw"></a>

AWS Transit Gateway ne prend pas en charge les attachements VPC directs aux sous-réseaux de zone locale. Cependant, vous pouvez vous connecter aux charges de travail de zone locale en créant des pièces jointes Transit Gateway dans les sous-réseaux de zone de disponibilité parents du même VPC. Cette configuration permet l'interconnectivité entre plusieurs charges de travail VPCs et celles de votre zone locale. Pour plus d'informations, consultez la section [Connexion de la passerelle de transit entre les zones locales](https://docs.aws.amazon.com/local-zones/latest/ug/local-zones-connectivity-transit-gateway-lzs.html) dans la documentation relative aux zones locales.

### Zones Locales et peering VPC
<a name="local-zones-peering"></a>

Vous pouvez étendre n'importe quel VPC d'une région parent à une zone locale en créant un nouveau sous-réseau et en l'affectant à la zone locale. Le peering VPC peut être établi entre ces deux zones et les étendre VPCs aux Zones Locales. Lorsque les pairs se VPCs trouvent dans la même zone locale, le trafic reste dans la zone locale et ne passe pas par la région mère.

# La sécurité à la périphérie
<a name="security"></a>

Dans le AWS Cloud, la sécurité est la priorité absolue. À mesure que les entreprises adoptent l'évolutivité et la flexibilité du cloud, AWS cela les aide à faire de la sécurité, de l'identité et de la conformité des facteurs commerciaux clés. AWS intègre la sécurité dans son infrastructure de base et propose des services pour vous aider à répondre à vos exigences uniques en matière de sécurité dans le cloud. Lorsque vous étendez la portée de votre architecture dans le AWS Cloud, vous bénéficiez de l'intégration d'infrastructures telles que les Zones Locales et les Outposts dans. Régions AWS Cette intégration permet d' AWS étendre un groupe sélectionné de services de sécurité essentiels jusqu'à la périphérie.

La sécurité est une responsabilité partagée entre vous AWS et vous. Le [modèle de responsabilitéAWS partagée](https://aws.amazon.com/compliance/shared-responsibility-model/) fait la différence entre la sécurité *du* cloud et la sécurité *dans* le cloud :
+ **Sécurité du cloud** : AWS est chargée de protéger l'infrastructure qui s'exécute Services AWS dans le AWS Cloud. AWS vous fournit également des services que vous pouvez utiliser en toute sécurité. Des auditeurs tiers testent et vérifient régulièrement l'efficacité de la AWS sécurité dans le cadre des [programmes de AWS conformité](https://aws.amazon.com/compliance/programs/).
+ **Sécurité dans le cloud** — Votre responsabilité est déterminée par Service AWS ce que vous utilisez. Vous êtes également responsable d’autres facteurs, y compris la sensibilité de vos données, les exigences de votre entreprise, et la législation et la réglementation applicables.

## Protection des données
<a name="data-protection"></a>

Le modèle de responsabilité AWS partagée s'applique à la protection des données dans AWS Outposts et Zones locales AWS. Comme décrit dans ce modèle, AWS est responsable de la protection de l'infrastructure globale qui gère AWS Cloud (*sécurité du cloud*). Vous êtes responsable du contrôle de votre contenu hébergé sur cette infrastructure (*sécurité dans le cloud*). Ce contenu inclut la configuration de la sécurité et les tâches de gestion pour le Services AWS produit que vous utilisez.

À des fins de protection des données, nous vous recommandons de protéger les Compte AWS informations d'identification et de configurer les utilisateurs individuels avec [Gestion des identités et des accès AWS (IAM)](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html) ou [AWS IAM Identity Center](https://docs.aws.amazon.com/singlesignon/latest/userguide/what-is.html). Cela donne à chaque utilisateur uniquement les autorisations nécessaires pour accomplir ses tâches.

### Chiffrement au repos
<a name="encryption-at-rest"></a>

#### Chiffrement dans les volumes EBS
<a name="encryption-ebs"></a>

Avec AWS Outposts, toutes les données sont cryptées au repos. Le matériau clé est enveloppé d'une clé externe, la clé de sécurité Nitro (NSK), qui est stockée dans un appareil amovible. Le NSK est nécessaire pour déchiffrer les données de votre rack Outpost. Vous pouvez utiliser le chiffrement Amazon EBS pour vos volumes et instantanés EBS. Le chiffrement Amazon EBS utilise [AWS Key Management Service (AWS KMS)](https://docs.aws.amazon.com/kms/latest/developerguide/overview.html) et des clés KMS.

Dans le cas des zones locales,**** tous les volumes EBS sont chiffrés par défaut dans toutes les zones locales, à l'exception de la liste décrite dans la [Zones locales AWS FAQ](https://aws.amazon.com/about-aws/global-infrastructure/localzones/faqs/#:~:text=What%E2%80%99s%20the%20default%20encryption%20behavior%20of%20EBS%20volumes%20in%20Local%20Zones%3F) (voir la question : *Quel est le comportement de chiffrement par défaut des volumes EBS dans les zones locales ?* ), sauf si le chiffrement est activé pour le compte.

#### Chiffrement dans Amazon S3 sur Outposts
<a name="encryption-s3"></a>

Par défaut, toutes les données stockées dans Amazon S3 sur Outposts sont chiffrées à l’aide du chiffrement côté serveur avec les clés de chiffrement gérées Amazon S3 (SSE-S3). Vous pouvez éventuellement utiliser le chiffrement côté serveur avec les clés de chiffrement fournies par le client (SSE-C). Pour utiliser SSE-C, spécifiez une clé de chiffrement dans le cadre de vos demandes d’API sur les objets. Un chiffrement côté serveur chiffre uniquement les données d’objet, pas les métadonnées d’objet.

**Note**  
Amazon S3 on Outposts ne prend pas en charge le chiffrement côté serveur avec des clés KMS (SSE-KMS).

### Chiffrement en transit
<a name="encryption-in-transit"></a>

En AWS Outposts effet, le lien de service est une connexion nécessaire entre votre serveur Outposts et la région de votre choix Région AWS (ou de votre région d'origine) et permet la gestion de l'Outpost et l'échange de trafic vers et depuis le. Région AWS Le lien de service utilise un VPN AWS géré pour communiquer avec la région d'origine. Chaque hôte interne AWS Outposts crée un ensemble de tunnels VPN pour diviser le trafic du plan de contrôle et le trafic VPC. En fonction de la connectivité du lien de service (Internet ou Direct Connect) AWS Outposts, ces tunnels nécessitent l'ouverture de ports de pare-feu pour que le lien de service puisse créer une superposition au-dessus de celui-ci. Pour obtenir des informations techniques détaillées sur la sécurité AWS Outposts et le lien de service, voir [Connectivité via le lien de service](https://docs.aws.amazon.com/outposts/latest/userguide/service-links.html) et [Sécurité de l'infrastructure AWS Outposts dans](https://docs.aws.amazon.com/outposts/latest/server-userguide/infrastructure-security.html) la AWS Outposts documentation.

Le lien AWS Outposts de service crée des tunnels chiffrés qui établissent la connectivité du plan de contrôle et du plan de données avec le parent Région AWS, comme illustré dans le schéma suivant.

![\[Considérations relatives aux VPC d'ancrage.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/anchor-vpc.png)


Chaque AWS Outposts hôte (calcul et stockage) a besoin de ces tunnels chiffrés via des ports TCP et UDP connus pour communiquer avec sa région mère. Le tableau suivant indique les ports et adresses source et de destination pour les protocoles UDP et TCP.


| **Protocole** | **Port source** | **Adresse source** | **Port de destination** | **Adresse de destination** | 
| --- | --- | --- | --- | --- | 
| UDP | 443 | AWS Outposts liaison de service /26 | 443 | AWS Outposts Routes publiques de la région ou VPC CIDR d'ancrage | 
| TCP | 1025-65535 | AWS Outposts liaison de service /26 | 443 | AWS Outposts Routes publiques de la région ou VPC CIDR d'ancrage | 

Les zones Locales sont également connectées à la région mère via le backbone privé mondial redondant et à très haut débit d'Amazon. Cette connexion permet aux applications qui s'exécutent dans les Zones Locales d'accéder rapidement, de manière sécurisée et fluide aux autres Services AWS. Tant que les Zones Locales font partie de l'infrastructure AWS mondiale, toutes les données circulant sur le réseau AWS mondial sont automatiquement cryptées au niveau de la couche physique avant de quitter les installations AWS sécurisées. Si vous avez des exigences spécifiques pour chiffrer les données en transit entre vos sites locaux et Direct Connect PoPs pour accéder à une zone locale, vous pouvez activer la sécurité MAC (MACsec) entre votre routeur ou commutateur local et le point de terminaison. Direct Connect Pour plus d'informations, consultez le billet de AWS blog [Ajouter MACsec de la sécurité aux Direct Connect connexions](https://aws.amazon.com/blogs/networking-and-content-delivery/adding-macsec-security-to-aws-direct-connect-connections/).

### Suppression de données
<a name="data-deletion"></a>

Lorsque vous arrêtez ou mettez fin à une instance EC2 AWS Outposts, la mémoire qui lui est allouée est nettoyée (mise à zéro) par l'hyperviseur avant d'être allouée à une nouvelle instance, et chaque bloc de stockage est réinitialisé. La suppression de données du matériel Outpost implique l'utilisation de matériel spécialisé. Le NSK est un petit appareil, illustré sur la photo suivante, qui se fixe à l'avant de chaque ordinateur ou unité de stockage d'un avant-poste. Il est conçu pour fournir un mécanisme permettant d'empêcher l'exposition de vos données depuis votre centre de données ou votre site de colocation. Les données de l'appareil Outpost sont protégées en enveloppant le matériel de saisie utilisé pour chiffrer l'appareil et en stockant le matériel emballé sur le NSK. Lorsque vous renvoyez un hôte d'Outpost, vous détruisez le NSK en tournant une petite vis sur le jeton qui écrase le NSK et le détruit physiquement. La destruction du NSK détruit les données de votre avant-poste de manière cryptographique. 

![\[Appareil NSK dans Outposts.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/nsk.jpg)


## Gestion des identités et des accès
<a name="security-iam"></a>

Gestion des identités et des accès AWS (IAM) est un outil Service AWS qui permet à un administrateur de contrôler en toute sécurité l'accès aux AWS ressources. Les administrateurs IAM contrôlent qui peut être authentifié (connecté) et autorisé (autorisé) à utiliser AWS Outposts les ressources. Si vous en avez un Compte AWS, vous pouvez utiliser IAM sans frais supplémentaires.

Le tableau suivant répertorie les fonctionnalités IAM que vous pouvez utiliser avec AWS Outposts.


| **Fonctionnalité IAM** | **AWS Outposts soutien** | 
| --- | --- | 
| Politiques basées sur l’identité | Oui | 
| Politiques basées sur les ressources | Oui\$1 | 
| Actions de politique | Oui | 
| Ressources de politique | Oui | 
| Clés de condition de politique (spécifiques au service) | Oui | 
| Listes de contrôle d'accès (ACLs) | Non | 
| Contrôle d’accès par attributs (ABAC) (balises dans les politiques) | Oui | 
| Informations d’identification temporaires | Oui | 
| Autorisations de principal | Oui | 
| Rôles du service | Non | 
| Rôles liés à un service | Oui | 

**\$1** Outre les politiques basées sur l'identité IAM, Amazon S3 on Outposts prend en charge les politiques relatives aux compartiments et aux points d'accès. Il s'agit de [politiques basées sur les ressources](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_identity-vs-resource.html) associées à la ressource Amazon S3 on Outposts.

Pour plus d'informations sur la prise en charge de ces fonctionnalités AWS Outposts, consultez le [guide de AWS Outposts l'utilisateur](https://docs.aws.amazon.com/outposts/latest/userguide/security_iam_service-with-iam.html).

## Sécurité de l’infrastructure
<a name="infrastructure-security"></a>

La protection de l’infrastructure est un aspect essentiel du programme de sécurité des informations. Il garantit que les systèmes et services de charge de travail sont protégés contre les accès involontaires et non autorisés, ainsi que contre les vulnérabilités potentielles. Par exemple, vous définissez les limites de confiance (par exemple, les limites du réseau et des comptes), la configuration et la maintenance de la sécurité du système (par exemple, renforcement, minimisation et application de correctifs), l'authentification et les autorisations du système d'exploitation (par exemple, les utilisateurs, les clés et les niveaux d'accès) et les autres points d'application des politiques appropriés (par exemple, les pare-feux d'applications Web ou les passerelles d'API).

AWS propose un certain nombre d'approches en matière de protection de l'infrastructure, comme indiqué dans les sections suivantes.

### Protection des réseaux
<a name="protecting-networks"></a>

Vos utilisateurs peuvent faire partie de votre personnel ou de vos clients, et peuvent être situés n'importe où. Pour cette raison, vous ne pouvez pas faire confiance à tous ceux qui ont accès à votre réseau. Lorsque vous appliquez le principe de sécurité à tous les niveaux, vous adoptez une approche [zéro confiance](https://aws.amazon.com/blogs/security/zero-trust-architectures-an-aws-perspective/). Dans le modèle de sécurité Zero Trust, les composants d'application ou les microservices sont considérés comme discrets, et aucun composant ou microservice ne fait confiance à aucun autre composant ou microservice. Pour atteindre une sécurité zéro confiance, suivez les recommandations suivantes :
+ [Créez des couches réseau](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_network_protection_create_layers.html). Les réseaux en couches permettent de regrouper de manière logique des composants réseau similaires. Ils réduisent également l'impact potentiel d'un accès non autorisé au réseau.
+ [Contrôlez les couches de trafic](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_network_protection_layered.html). Appliquez plusieurs contrôles avec une defense-in-depth approche à la fois pour le trafic entrant et sortant. Cela inclut l'utilisation de groupes de sécurité (pare-feux d'inspection dynamiques), de réseaux ACLs, de sous-réseaux et de tables de routage.
+ [Mettre en œuvre l'inspection et la protection](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_network_protection_inspection.html). Inspectez et filtrez votre trafic à chaque niveau. Vous pouvez inspecter vos configurations VPC pour détecter tout accès involontaire potentiel à l'aide de l'analyseur d'accès [réseau](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-vaa.html). Vous pouvez définir vos exigences en matière d'accès au réseau et identifier les chemins réseau potentiels qui ne les respectent pas.

### Protection des ressources informatiques
<a name="protecting-compute-resources"></a>

Les ressources de calcul incluent les instances EC2, les conteneurs, AWS Lambda les fonctions, les services de base de données, les appareils IoT, etc. Chaque type de ressource de calcul nécessite une approche différente en matière de sécurité. Cependant, ces ressources partagent des stratégies communes que vous devez prendre en compte : *défense en profondeur*, *gestion des vulnérabilités*, *réduction de la surface d'attaque*, *automatisation de la configuration et du fonctionnement*, et *réalisation d'actions à distance*.

Voici des conseils généraux pour protéger vos ressources informatiques pour les services clés :
+ [Créez et maintenez un programme de gestion des vulnérabilités](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_compute_vulnerability_management.html). Scannez et corrigez régulièrement des ressources telles que les instances EC2, les conteneurs Amazon Elastic Container Service (Amazon ECS) et les charges de travail Amazon Elastic Kubernetes Service (Amazon EKS).
+ [Automatisez la protection informatique](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_compute_auto_protection.html). Automatisez vos mécanismes informatiques de protection, notamment la gestion des vulnérabilités, la réduction de la surface d'attaque et la gestion des ressources. Cette automatisation libère du temps que vous pouvez utiliser pour sécuriser d'autres aspects de votre charge de travail et contribue à réduire le risque d'erreur humaine.
+ [Réduisez la surface d'attaque](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_compute_reduce_surface.html). Réduisez votre exposition aux accès involontaires en renforçant vos systèmes d'exploitation et en minimisant les composants, les bibliothèques et les services consommables externes que vous utilisez.

En outre, pour chacune des Service AWS applications que vous utilisez, consultez les recommandations de sécurité spécifiques dans la [documentation du service](https://docs.aws.amazon.com/).

## Accès Internet
<a name="internet-access"></a>

Les deux, AWS Outposts ainsi que les Zones Locales, fournissent des modèles architecturaux qui permettent à vos charges de travail d'accéder à Internet et à partir de celui-ci. Lorsque vous utilisez ces modèles, considérez la consommation Internet depuis la région comme une option viable uniquement si vous l'utilisez pour appliquer des correctifs, mettre à jour, accéder à des référentiels Git externes à Git AWS, etc. Pour ce modèle architectural, les concepts d'[inspection entrante centralisée](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/centralized-inbound-inspection.html) et de [sortie Internet centralisée](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/centralized-egress-to-internet.html) s'appliquent. Ces modèles d'accès utilisent des passerelles NAT AWS Transit Gateway, des pare-feux réseau et d'autres composants résidant dans des zones locales Régions AWS, mais y étant AWS Outposts connectés, via le chemin de données entre la région et la périphérie.

Local Zones adopte une structure de *réseau appelée groupe de frontières* de réseau, qui est utilisée dans Régions AWS. AWS annonce les adresses IP publiques de ces groupes uniques. Un groupe frontalier du réseau est composé de zones de disponibilité, de zones locales ou de zones de longueur d'onde. Vous pouvez attribuer explicitement un pool d'adresses IP publiques à utiliser dans un groupe frontalier du réseau. Vous pouvez utiliser un groupe de bordure réseau pour étendre la passerelle Internet aux Zones Locales en autorisant le service d'adresses IP Elastic à partir du groupe. Cette option nécessite le déploiement d'autres composants pour compléter les services de base disponibles dans les Zones Locales. Ces composants peuvent provenir de ISVs et vous aider à créer des couches d'inspection dans votre zone locale, comme décrit dans le billet de AWS blog [Architectures d'inspection hybrides avec Zones locales AWS](https://aws.amazon.com/blogs/networking-and-content-delivery/hybrid-inspection-architectures-with-aws-local-zone/).

Dans AWS Outposts, si vous souhaitez utiliser la passerelle locale (LGW) pour accéder à Internet depuis votre réseau, vous devez modifier la table de routage personnalisée associée au AWS Outposts sous-réseau. La table de routage doit avoir une entrée de route par défaut (0.0.0.0/0) qui utilise le LGW comme prochain saut. Vous êtes responsable de la mise en œuvre des contrôles de sécurité restants dans votre réseau local, y compris les défenses périmétriques telles que les pare-feux et les systèmes de prévention des intrusions ou les systèmes de détection des intrusions (IPS/IDS). Cela correspond au modèle de responsabilité partagée, qui répartit les tâches de sécurité entre vous et le fournisseur de cloud.

### Accès à Internet par l'intermédiaire du parent Région AWS
<a name="parent-region"></a>

Dans cette option, les charges de travail de l'Outpost accèdent à Internet via le [lien de service](https://docs.aws.amazon.com/outposts/latest/userguide/service-links.html) et la passerelle Internet du parent. Région AWS Le trafic sortant vers Internet peut être acheminé via la passerelle NAT instanciée dans votre VPC. Pour renforcer la sécurité de votre trafic entrant et sortant, vous pouvez utiliser des services AWS de sécurité tels que AWS WAF, AWS Shield, et Amazon CloudFront dans le. Région AWS

Le schéma suivant montre le trafic entre la charge de travail de l' AWS Outposts instance et Internet passant par le parent Région AWS.

![\[Charges de travail dans Outpost accédant à Internet par le biais du parent. Région AWS\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/internet-access-through-parent-region.png)


### Accès à Internet via le réseau de votre centre de données local
<a name="local-network"></a>

Dans cette option, les charges de travail de l'Outpost accèdent à Internet via votre centre de données local. Le trafic de charge de travail qui accède à Internet passe par votre point de présence Internet local et sort localement. Dans ce cas, l'infrastructure de sécurité réseau de votre centre de données local est chargée de sécuriser le trafic de AWS Outposts charge de travail.

L'image suivante montre le trafic entre une charge de travail du AWS Outposts sous-réseau et Internet passant par un centre de données.

![\[Charges de travail dans Outpost accédant à Internet via un réseau local.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/internet-access-through-local-network.png)


## Gouvernance de l'infrastructure
<a name="infrastructure-governance"></a>

Que vos charges de travail soient déployées dans une zone locale ou un Région AWS avant-poste, vous pouvez les utiliser AWS Control Tower pour la gouvernance de l'infrastructure. AWS Control Tower propose un moyen simple de configurer et de gérer un environnement AWS multi-comptes, en suivant les meilleures pratiques prescriptives. AWS Control Tower orchestre les capacités de plusieurs autres Services AWS, notamment AWS Organizations AWS Service Catalog, et IAM Identity Center (voir [tous les services intégrés](https://docs.aws.amazon.com/controltower/latest/userguide/integrated-services.html)) pour créer une zone d'atterrissage en moins d'une heure. Les ressources sont configurées et gérées en votre nom.

AWS Control Tower fournit une gouvernance unifiée dans tous les AWS environnements, y compris les régions, les zones locales (extensions à faible latence) et les Outposts (infrastructure sur site). Cela permet de garantir une sécurité et une conformité cohérentes sur l'ensemble de votre architecture de cloud hybride. Pour plus d’informations, consultez la [documentation AWS Control Tower](https://docs.aws.amazon.com/controltower/latest/userguide/what-is-control-tower.html).

Vous pouvez configurer AWS Control Tower des fonctionnalités telles que des garde-corps pour vous conformer aux exigences en matière de résidence des données dans les gouvernements et les secteurs réglementés tels que les institutions de services financiers ()FSIs. Pour comprendre comment déployer des barrières de sécurité pour la résidence des données à la périphérie, consultez ce qui suit :
+ [Meilleures pratiques pour gérer la résidence des données lors de Zones locales AWS l'utilisation des contrôles de zone d'atterrissage](https://aws.amazon.com/blogs/compute/best-practices-for-managing-data-residency-in-aws-local-zones-using-landing-zone-controls/) (article de AWS blog)
+ [Architecture pour la résidence des données à l'aide de glissières de sécurité pour les AWS Outposts racks et les zones d'atterrissage (article de](https://aws.amazon.com/blogs/compute/architecting-for-data-residency-with-aws-outposts-rack-and-landing-zone-guardrails/) blog)AWS 
+ [Résidence des données avec l'objectif des services cloud hybrides (documentation](https://docs.aws.amazon.com/wellarchitected/latest/data-residency-hybrid-cloud-services-lens/data-residency-with-hybrid-cloud-services-lens.html)AWS Well-Architected Framework)

### Partage des ressources des Outposts
<a name="sharing-outposts-resources"></a>

Comme un avant-poste est une infrastructure limitée installée dans votre centre de données ou dans un espace de colocation, pour une gouvernance centralisée AWS Outposts, vous devez contrôler de manière centralisée les comptes avec lesquels les AWS Outposts ressources sont partagées.

Grâce au partage d'Outpost, les propriétaires d'Outposts peuvent partager leurs Outposts et leurs ressources, y compris leurs sites et sous-réseaux, avec d'autres Comptes AWS utilisateurs de la même organisation dans. AWS Organizations En tant que propriétaire d'Outpost, vous pouvez créer et gérer les ressources d'Outpost à partir d'un emplacement central, et partager les ressources entre plusieurs personnes Comptes AWS au sein de votre AWS organisation. Cela permet aux autres consommateurs d'utiliser les sites Outpost, de configurer VPCs, de lancer et d'exécuter des instances sur l'Outpost partagé.

Les ressources partageables AWS Outposts sont les suivantes :
+ Hôtes dédiés alloués
+ Réservations de capacité
+ Pools d'adresses IP appartenant au client (CoIP)
+ Tables de routage de passerelle locale
+ Outposts
+ Amazon S3 sur Outposts
+ Sites
+ Subnets

Pour suivre les meilleures pratiques en matière de partage des ressources d'Outposts dans un environnement multi-comptes, consultez les articles de blog suivants : AWS 
+ [Partage AWS Outposts dans un AWS environnement multi-comptes : partie 1](https://aws.amazon.com/blogs/mt/best-practices-aws-outposts-in-a-multi-account-aws-environment-part-1/)
+ [Partage AWS Outposts dans un AWS environnement multi-comptes : partie 2](https://aws.amazon.com/blogs/mt/best-practices-aws-outposts-in-a-multi-account-aws-environment-part-2/)

# La résilience à la périphérie
<a name="resiliency"></a>

Le pilier de fiabilité englobe la capacité d'une charge de travail à exécuter correctement et de manière cohérente la fonction prévue lorsqu'elle est censée le faire. Cela inclut la capacité d'exploiter et de tester la charge de travail tout au long de son cycle de vie. En ce sens, lorsque vous concevez une architecture résiliente à la périphérie, vous devez d'abord déterminer les infrastructures que vous utiliserez pour déployer cette architecture. Il existe trois combinaisons possibles à implémenter en utilisant Zones locales AWS et AWS Outposts : *avant-poste vers avant-poste*, *avant-poste vers zone locale et zone* *locale vers zone locale*, comme illustré dans le schéma suivant. Bien qu'il existe d'autres possibilités pour les architectures résilientes, telles que la combinaison de services de AWS périphérie avec une infrastructure sur site traditionnelle Régions AWS, ce guide se concentre sur ces trois combinaisons qui s'appliquent à la conception de services de cloud hybride

![\[Mettre en œuvre la résilience à la périphérie avec les Zones Locales et les Outposts.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/resiliency-at-edge-options.png)


## Considérations relatives à l’infrastructure
<a name="infrastructure-considerations"></a>

À AWS, l'un des principes fondamentaux de la conception des services est d'éviter les points de défaillance uniques dans l'infrastructure physique sous-jacente. En raison de ce principe, les AWS logiciels et les systèmes utilisent plusieurs zones de disponibilité et résistent à la défaillance d'une seule zone. À la périphérie, AWS propose des infrastructures basées sur les Zones Locales et les Outposts. Par conséquent, un facteur essentiel pour garantir la résilience lors de la conception de l'infrastructure consiste à définir où les ressources d'une application sont déployées.

### Local Zones
<a name="infrastructure-local-zones"></a>

Les zones locales agissent de la même manière que les zones de disponibilité qui les composent Région AWS, car elles peuvent être sélectionnées comme emplacement pour les AWS ressources zonales telles que les sous-réseaux et les instances EC2. Cependant, ils ne sont pas situés dans un Région AWS, mais à proximité de grands centres industriels et informatiques où il n'en Région AWS existe pas aujourd'hui. Malgré cela, ils conservent des connexions sécurisées à bande passante élevée entre les charges de travail locales de la zone locale et les charges de travail exécutées dans le. Région AWS Par conséquent, vous devez utiliser les Zones Locales pour déployer les charges de travail au plus près de vos utilisateurs afin de garantir une faible latence.

### Outposts
<a name="infrastructure-outposts"></a>

AWS Outposts est un service entièrement géré qui étend AWS l'infrastructure et Services AWS APIs les outils à votre centre de données. La même infrastructure matérielle que celle utilisée dans le AWS Cloud est installée dans votre centre de données. Les Outposts sont ensuite connectés aux plus proches. Région AWS Vous pouvez utiliser les Outposts pour prendre en charge vos charges de travail nécessitant une faible latence ou nécessitant un traitement local des données.

#### Zones de disponibilité pour les parents
<a name="infrastructure-parent-az"></a>

Chaque zone locale ou avant-poste possède une région parent (également appelée *région d'origine*). La région parent est l'endroit où le plan de contrôle de l'infrastructure AWS périphérique (avant-poste ou zone locale) est ancré. Dans le cas des zones locales, la région parent est un composant architectural fondamental d'une zone locale et ne peut pas être modifiée par les clients. AWS Outposts l'étend AWS Cloud à votre environnement sur site. Vous devez donc sélectionner une région et une zone de disponibilité spécifiques lors du processus de commande. Cette sélection ancre le plan de contrôle de votre déploiement d'Outposts à l' AWS infrastructure choisie.

Lorsque vous développez des architectures de haute disponibilité en périphérie, la région parent de ces infrastructures, telle que les Outposts ou les Zones Locales, doit être identique, afin qu'un VPC puisse être étendu entre elles. Ce VPC étendu est à la base de la création de ces architectures à haute disponibilité. Lorsque vous définissez une architecture hautement résiliente, vous devez donc valider la région parent et la zone de disponibilité de la région dans laquelle le service sera (ou est) ancré. Comme illustré dans le schéma suivant, si vous souhaitez déployer une solution de haute disponibilité entre deux Outposts, vous devez choisir deux zones de disponibilité différentes pour ancrer les Outposts. Cela permet une architecture multi-AZ du point de vue du plan de contrôle. Si vous souhaitez déployer une solution à haute disponibilité incluant une ou plusieurs zones locales, vous devez d'abord valider la zone de disponibilité parent dans laquelle l'infrastructure est ancrée. Pour cela, utilisez la AWS CLI commande suivante :

```
aws ec2 describe-availability-zones --zone-ids use1-mia1-az1
```

Résultat de la commande précédente :

```
{     "AvailabilityZones": [         
          {
             "State": "available",
             "OptInStatus": "opted-in",
             "Messages": [],
             "RegionName": "us-east-1",
             "ZoneName": "us-east-1-mia-1a",
             "ZoneId": "use1-mia1-az1",
             "GroupName": "us-east-1-mia-1",
             "NetworkBorderGroup": "us-east-1-mia-1",
             "ZoneType": "local-zone",
             "ParentZoneName": "us-east-1d",
             "ParentZoneId": "use1-az2"
         }
     ]
 }
```

Dans cet exemple, la zone locale de Miami (`us-east-1d-mia-1a1`) est ancrée dans la zone de `us-east-1d-az2`**** disponibilité. **Par conséquent, si vous devez créer une architecture résiliente à la périphérie, vous devez vous assurer que l'infrastructure secondaire (Outposts ou Zones Locales) est ancrée dans une zone de disponibilité autre que. `us-east-1d-az2`** Par exemple, `us-east-1d-az1` serait valide.

Le schéma suivant fournit des exemples d'infrastructures périphériques à haute disponibilité.

![\[Architectures périphériques à haute disponibilité.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/ha-edge-architectures.png)


## Considérations relatives au réseau
<a name="networking-considerations"></a>

Cette section décrit les considérations initiales relatives à la mise en réseau en périphérie, principalement pour les connexions permettant d'accéder à l'infrastructure périphérique. Il passe en revue les architectures valides qui fournissent un réseau résilient pour le lien de service.

### Réseau de résilience pour les Zones Locales
<a name="resiliency-networking-local-zone"></a>

Les Zones Locales sont connectées à la région mère par de multiples liaisons haut débit sécurisées et redondantes qui vous permettent d'utiliser n'importe quel service régional, tel qu'Amazon S3 et Amazon RDS, de manière fluide. Vous êtes responsable de fournir la connectivité entre votre environnement local ou vos utilisateurs et la zone locale. Quelle que soit l'architecture de connectivité que vous choisissez (par exemple, VPN ou Direct Connect), la latence qui doit être atteinte via les liens réseau doit être équivalente pour éviter tout impact sur les performances de l'application en cas de défaillance d'une liaison principale. Si vous l'utilisez Direct Connect, les architectures de résilience applicables sont les mêmes que celles permettant d'accéder à un Région AWS, comme indiqué dans les [recommandations de Direct Connect résilience](https://aws.amazon.com/directconnect/resiliency-recommendation/). Cependant, certains scénarios s'appliquent principalement aux Zones Locales internationales. Dans le pays où la zone locale est activée, le fait de n'avoir qu'un Direct Connect seul PoP rend impossible la création des architectures recommandées pour Direct Connect la résilience. Si vous n'avez accès qu'à un seul Direct Connect emplacement ou si vous avez besoin d'une résilience allant au-delà d'une simple connexion, vous pouvez créer une appliance VPN sur Amazon EC2 Direct Connect et, comme illustré et expliqué dans AWS le [billet de blog Activer la connectivité hautement disponible sur site vers](https://aws.amazon.com/blogs/compute/enabling-highly-available-connectivity-from-on-premises-to-aws-local-zones/). Zones locales AWS

### Réseau de résilience pour les Outposts
<a name="resiliency-networking-outposts"></a>

Contrairement aux Zones Locales, les Outposts disposent d'une connectivité redondante pour accéder aux charges de travail déployées dans les Outposts depuis votre réseau local. Cette redondance est obtenue grâce à deux périphériques réseau Outposts (). ONDs Chaque OND nécessite au moins deux connexions par fibre optique à 1 Gbit/s, 10 Gbit/s, 40 Gbit/s ou 100 Gbit/s vers votre réseau local. Ces connexions doivent être configurées en tant que groupe d'agrégation de liens (LAG) pour permettre l'ajout évolutif de liens supplémentaires.


| Vitesse de la liaison montante | Nombre de liaisons montantes | 
| --- | --- | 
| 1 Gbit/s | 1, 2, 4, 6 ou 8 | 
| 10 Gbit/s | 1, 2, 4, 8, 12 ou 16 | 
| 40 ou 100 Gbit/s | 1, 2 ou 4 | 

![\[Réseau de résilience pour les Outposts\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/outpost-resiliency-networking.png)


Pour plus d'informations sur cette connectivité, consultez la section [Connectivité réseau locale pour les Outposts Racks](https://docs.aws.amazon.com/outposts/latest/userguide/local-rack.html) dans la documentation. AWS Outposts 

Pour une expérience et une résilience optimales, il est AWS recommandé d'utiliser une connectivité redondante d'au moins 500 Mbits/s (1 Gbit/s est préférable) pour la connexion par liaison de service au. Région AWS Vous pouvez utiliser Direct Connect une connexion Internet pour le lien de service. Ce minimum vous permet de lancer des instances EC2, d'attacher des volumes EBS et d'y accéder Services AWS, comme Amazon EKS, Amazon EMR et des métriques. CloudWatch 

Le schéma suivant illustre cette architecture pour une connexion privée à haute disponibilité.

![\[Architecture de résilience pour une connexion privée à haute disponibilité.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/ha-private-connection.png)


Le schéma suivant illustre cette architecture pour une connexion publique à haute disponibilité.

![\[Architecture de résilience pour une connexion publique hautement disponible.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/ha-public-connection.png)


### Expansion des déploiements en rack d'Outposts avec des racks ACE
<a name="ace-racks"></a>

Le rack Aggregation, Core, Edge (ACE) constitue un point d'agrégation essentiel pour les déploiements AWS Outposts multirack et est principalement recommandé pour les installations comportant plus de trois racks ou pour la planification d'une future extension. Chaque rack ACE comprend quatre routeurs qui prennent en charge les connexions 10 Gbit/s, 40 Gbit/s et 100 Gbit/s (100 Gbit/s est optimal). Chaque rack peut se connecter à un maximum de quatre appareils clients en amont pour une redondance maximale. Les racks ACE consomment jusqu'à 10 kVA d'énergie et pèsent jusqu'à 705 livres. Les principaux avantages incluent la réduction des exigences en matière de réseau physique, la réduction des liaisons montantes de câblage en fibre optique et la diminution des interfaces virtuelles VLAN. AWS surveille ces racks par le biais de données de télémétrie via des tunnels VPN et travaille en étroite collaboration avec les clients lors de l'installation pour garantir une disponibilité de l'alimentation, une configuration réseau et un placement optimal. L'architecture en rack ACE apporte une valeur croissante à mesure que les déploiements évoluent et simplifie efficacement la connectivité tout en réduisant la complexité et les exigences en matière de ports physiques dans les grandes installations.  Pour plus d'informations, consultez le billet de AWS blog [Scaling AWS Outposts rack deployments with ACE Rack](https://aws.amazon.com/blogs/compute/scaling-aws-outposts-rack-deployments-with-ace-racks/).

## Répartition des instances entre les Outposts et les Zones Locales
<a name="distributing-instances"></a>

Les Outposts et les Zones Locales disposent d'un nombre limité de serveurs informatiques. Si votre application déploie plusieurs instances associées, ces instances peuvent être déployées sur le même serveur ou sur des serveurs du même rack, sauf si elles sont configurées différemment. Outre les options par défaut, vous pouvez répartir les instances sur les serveurs afin de limiter le risque lié à l'exécution d'instances associées sur la même infrastructure. Vous pouvez également répartir les instances sur plusieurs racks en utilisant des groupes de placement de partitions. C'est ce qu'on appelle le modèle de distribution par *rayonnage*. Utilisez la distribution automatique pour répartir les instances sur les partitions du groupe ou déployez des instances sur des partitions cibles sélectionnées. En déployant des instances sur des partitions cibles, vous pouvez déployer des ressources sélectionnées sur le même rack tout en répartissant les autres ressources entre les racks. Outposts propose également une autre option appelée *spread host* qui vous permet de répartir votre charge de travail au niveau de l'hôte. Le schéma suivant montre les options de distribution du rack de diffusion et de l'hôte de diffusion.

![\[Options de distribution en rack et en mode hôte pour les Outposts et les Zones Locales.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/spread-rack-host-distribution.png)


## Amazon RDS Multi-AZ dans AWS Outposts
<a name="rds-multi-az"></a>

Lorsque vous utilisez des déploiements d'instances multi-AZ sur des Outposts, Amazon RDS crée deux instances de base de données sur deux Outposts. Chaque avant-poste fonctionne sur sa propre infrastructure physique et se connecte aux différentes zones de disponibilité d'une région pour une haute disponibilité. Lorsque deux Outposts sont connectés via une connexion locale gérée par le client, Amazon RDS gère la réplication synchrone entre les instances de base de données principale et de secours. En cas de défaillance du logiciel ou de l'infrastructure, Amazon RDS place automatiquement l'instance de secours au rôle principal et met à jour l'enregistrement DNS pour qu'il pointe vers la nouvelle instance principale. Pour les déploiements Multi-AZ, Amazon RDS crée une instance de base de données principale sur un Outpost et réplique de manière synchrone les données vers une instance de base de données en veille sur un Outpost différent. Les déploiements multi-AZ sur les Outposts fonctionnent comme les déploiements multi-AZ dans Régions AWS les Outposts, avec les différences suivantes :
+ Ils nécessitent une connexion locale entre deux Outposts ou plus.
+ Ils ont besoin de pools d'adresses IP (CoIP) appartenant au client. Pour plus d'informations, consultez la section [Adresses IP appartenant au client pour Amazon RDS dans AWS Outposts la documentation](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/rds-on-outposts.coip.html) Amazon RDS.
+ La réplication fonctionne sur votre réseau local.

Les déploiements multi-AZ sont disponibles pour toutes les versions prises en charge de MySQL et PostgreSQL sur Amazon RDS on Outposts. Les sauvegardes locales ne sont pas prises en charge pour les déploiements multi-AZ.

Le schéma suivant montre l'architecture des configurations multi-AZ d'Amazon RDS on Outposts.

![\[Configurations multi-AZ pour Amazon RDS sur Outposts.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/rds-outposts-multi-az.png)


## Mécanismes de basculement
<a name="failover-mechanisms"></a>

### Équilibrage de charge et dimensionnement automatique
<a name="load-balancing-scaling"></a>

Elastic Load Balancing (ELB) répartit automatiquement le trafic applicatif entrant sur toutes les instances EC2 que vous exécutez. ELB aide à gérer les demandes entrantes en acheminant le trafic de manière optimale afin qu'aucune instance ne soit débordée. Pour utiliser ELB avec votre groupe Amazon EC2 Auto Scaling, associez l'équilibreur de charge à votre groupe Auto Scaling. Cela enregistre le groupe auprès de l'équilibreur de charge, qui agit comme un point de contact unique pour tout le trafic Web entrant dans votre groupe. Lorsque vous utilisez ELB avec votre groupe Auto Scaling, il n'est pas nécessaire d'enregistrer des instances EC2 individuelles auprès de l'équilibreur de charge. Les instances qui sont lancées par votre groupe Auto Scaling sont automatiquement enregistrées auprès de l'équilibreur de charge. De même, les instances mises hors service par votre groupe Auto Scaling sont automatiquement désenregistrées de l'équilibreur de charge. Après avoir attaché un équilibreur de charge à votre groupe Auto Scaling, vous pouvez configurer votre groupe pour utiliser les métriques ELB (telles que le nombre de demandes d'Application Load Balancer par cible) afin d'adapter le nombre d'instances du groupe en fonction des fluctuations de la demande. Vous pouvez éventuellement ajouter des tests de santé ELB à votre groupe Auto Scaling afin qu'Amazon EC2 Auto Scaling puisse identifier et remplacer les instances défectueuses sur la base de ces tests de santé. Vous pouvez également créer une CloudWatch alarme Amazon qui vous avertit si le nombre d'hôtes sains du groupe cible est inférieur au nombre autorisé.

Le schéma suivant illustre comment un Application Load Balancer gère les charges de travail sur Amazon EC2 dans. AWS Outposts

![\[Équilibrage de charge pour les charges de travail Amazon EC2 dans Outposts.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/alb-in-outposts.png)


Le schéma suivant illustre une architecture similaire pour Amazon EC2 dans les Zones Locales.

![\[Équilibrage de charge pour les charges de travail Amazon EC2 dans les Zones Locales.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/alb-in-local-zones.png)


**Note**  
Les équilibreurs de charge d'application sont disponibles à la fois dans les Zones Locales AWS Outposts et dans les Zones Locales. Toutefois, pour utiliser un Application Load Balancer AWS Outposts, vous devez dimensionner la capacité Amazon EC2 afin de fournir l'évolutivité requise par l'équilibreur de charge. Pour plus d'informations sur le dimensionnement d'un équilibreur de charge AWS Outposts, consultez le billet de AWS blog [Configuring an Application Load](https://aws.amazon.com/blogs/networking-and-content-delivery/configuring-an-application-load-balancer-on-aws-outposts/) Balancer on. AWS Outposts

### Amazon Route 53 pour le basculement du DNS
<a name="r53-failover"></a>

Lorsque plusieurs ressources exécutent la même fonction, par exemple plusieurs serveurs HTTP ou de messagerie, vous pouvez configurer [Amazon Route](https://aws.amazon.com/route53/) 53 pour vérifier l'état de vos ressources et répondre aux requêtes DNS en utilisant uniquement les ressources saines. Supposons par exemple que votre site Web `example.com` soit hébergé sur deux serveurs. Un serveur se trouve dans une zone locale et l'autre dans un avant-poste. Vous pouvez configurer Route 53 pour vérifier l'état de ces serveurs et pour répondre aux requêtes DNS en `example.com` utilisant uniquement les serveurs actuellement sains. Si vous utilisez des enregistrements d'alias pour acheminer le trafic vers AWS des ressources sélectionnées, telles que les équilibreurs de charge ELB, vous pouvez configurer Route 53 pour évaluer l'état de la ressource et acheminer le trafic uniquement vers les ressources saines. Lorsque vous configurez un enregistrement d'alias pour évaluer l'état d'une ressource, il n'est pas nécessaire de créer un bilan de santé pour cette ressource.

Le schéma suivant illustre les mécanismes de basculement de Route 53.

![\[Mécanismes de basculement de la Route 53 pour les Outposts et les Zones Locales.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/hybrid-cloud-best-practices/images/route-53-failover.png)


**Remarques**  
Si vous créez des enregistrements de basculement dans une zone hébergée privée, vous pouvez créer une CloudWatch métrique, associer une alarme à la métrique, puis créer un bilan de santé basé sur le flux de données de l'alarme.
Pour rendre une application accessible au public à AWS Outposts l'aide d'un Application Load Balancer, configurez des configurations réseau qui permettent la traduction des adresses réseau de destination (DNAT) du nom de domaine public IPs vers le nom de domaine complet (FQDN) de l'équilibreur de charge, et créez une règle de basculement Route 53 avec des contrôles de santé pointant vers l'adresse IP publique exposée. Cette combinaison garantit un accès public fiable à votre application hébergée par Outposts.

### Amazon Route 53 Resolver sur AWS Outposts
<a name="r53-resolver-outposts"></a>

[Amazon Route 53 Resolver](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/resolver.html)est disponible sur les supports Outposts. Il fournit à vos services et applications sur site une résolution DNS locale directement depuis Outposts. Les points de terminaison Local Route 53 Resolver permettent également la résolution DNS entre les Outposts et votre serveur DNS local. Route 53 Resolver on Outposts permet d'améliorer la disponibilité et les performances de vos applications sur site.

L'un des cas d'utilisation typiques des Outposts consiste à déployer des applications qui nécessitent un accès à faible latence aux systèmes sur site, tels que les équipements d'usine, les applications de trading à haute fréquence et les systèmes de diagnostic médical.

Lorsque vous choisissez d'utiliser les résolveurs Route 53 locaux sur les Outposts, les applications et les services continueront de bénéficier de la résolution DNS locale pour découvrir d'autres services, même en cas de perte de connectivité avec un Région AWS parent. Les résolveurs locaux aident également à réduire le temps de latence pour les résolutions DNS, car les résultats des requêtes sont mis en cache et diffusés localement depuis les Outposts, ce qui élimine les allers-retours inutiles vers le parent. Région AWS Toutes les résolutions DNS pour les applications des Outposts VPCs qui utilisent un [DNS privé](https://docs.aws.amazon.com/managedservices/latest/userguide/set-dns.html) sont servies localement.

Outre l'activation des résolveurs locaux, ce lancement active également les points de terminaison des résolveurs locaux. Les points de terminaison sortants Route 53 Resolver permettent aux résolveurs Route 53 de transférer les requêtes DNS aux résolveurs DNS que vous gérez, par exemple sur votre réseau local. En revanche, les points de terminaison entrants Route 53 Resolver transmettent les requêtes DNS qu'ils reçoivent de l'extérieur du VPC au résolveur qui s'exécute sur Outposts. Il vous permet d'envoyer des requêtes DNS pour des services déployés sur un VPC Outposts privé depuis l'extérieur de ce VPC. Pour plus d'informations sur les points de terminaison entrants et sortants, consultez la section [Résolution des requêtes DNS entre VPCs et votre réseau](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/resolver-overview-DSN-queries-to-vpc.html) dans la documentation Route 53.

# Planification des capacités à la périphérie
<a name="capacity-planning"></a>

La phase de planification des capacités consiste à collecter les besoins en matière de vCPU, de mémoire et de stockage pour déployer votre architecture. Dans le pilier d'optimisation des coûts du [AWS Well-Architected](https://docs.aws.amazon.com/wellarchitected/latest/cost-optimization-pillar/welcome.html) Framework, le dimensionnement correct est un processus continu qui commence par la planification. Vous pouvez utiliser AWS des outils pour définir des optimisations basées sur la consommation de ressources internes. AWS

La planification de la capacité périphérique dans les Zones Locales est la même que dans Régions AWS. Vous devez vérifier que vos instances sont disponibles dans chaque zone locale, car certains types d'instances peuvent différer des types présents dans Régions AWS. Pour les Outposts, vous devez planifier la capacité en fonction de vos exigences en matière de charge de travail. Les Outposts sont dotés d'un nombre fixe d'instances par hôte et peuvent être relocalisés selon les besoins. Si vos charges de travail nécessitent une capacité de réserve, prenez-en compte lorsque vous planifiez vos besoins en capacité.

## Planification des capacités sur les Outposts
<a name="capacity-outposts"></a>

AWS Outposts la planification des capacités nécessite des informations spécifiques pour un dimensionnement régional approprié, ainsi que des facteurs spécifiques à la périphérie qui affectent la disponibilité, les performances et la croissance des applications. Pour obtenir des conseils détaillés, consultez la section [Planification des capacités](https://docs.aws.amazon.com/whitepapers/latest/aws-outposts-high-availability-design/capacity-planning.html) dans le AWS livre blanc Considérations relatives à *la conception et à l'architecture de AWS Outposts haute disponibilité*.

## Planification des capacités pour les Zones Locales
<a name="capacity-planning-local-zones"></a>

Une zone locale est une extension d'une Région AWS zone géographiquement proche de vos utilisateurs. Les ressources créées dans une zone locale peuvent desservir les utilisateurs locaux avec des communications à très faible latence. Pour activer une zone locale dans votre Compte AWS, consultez [Getting started with Zones locales AWS](https://docs.aws.amazon.com/local-zones/latest/ug/getting-started.html) dans la AWS documentation. Chaque zone locale dispose de différents emplacements disponibles pour les familles d' EC2 instances. Validez les [instances disponibles dans chaque zone locale](https://aws.amazon.com/about-aws/global-infrastructure/localzones/locations/) avant de les utiliser. Pour confirmer les EC2 instances disponibles, exécutez la AWS CLI commande suivante :

```
aws ec2 describe-instance-type-offerings \ 
--location-type "availability-zone" \ 
--filters Name=location,Values=<local-zone-name>
```

Sortie attendue :

```
{
  "InstanceTypeOfferings": [
      {
          "InstanceType": "m5.2xlarge",
          "LocationType": "availability-zone",
          "Location": "<local-zone-name>"
      },
      {
          "InstanceType": "t3.micro",
          "LocationType": "availability-zone",
          "Location": "local.zone-name"
      },
      ...
  ]
}
```

# Gestion de l'infrastructure de pointe
<a name="infrastructure-mgmt"></a>

AWS fournit des services entièrement gérés qui étendent AWS l'infrastructure, les services et les outils au plus près de vos utilisateurs finaux et de vos centres de données. APIs Les services disponibles dans les Outposts et les Zones Locales sont les mêmes que ceux disponibles dans Régions AWS. Vous pouvez donc gérer ces services à l'aide de la même AWS console AWS CLI, ou. AWS APIs Pour les services pris en charge, consultez le AWS Outposts tableau [comparatif](https://aws.amazon.com/outposts/) des [Zones locales AWS fonctionnalités et les fonctionnalités](https://aws.amazon.com/about-aws/global-infrastructure/localzones/features/).

## Déploiement de services à la périphérie
<a name="deploying-services"></a>

Vous pouvez configurer les services disponibles dans les Zones Locales et les Outposts de la même manière que vous les configurez Régions AWS : en utilisant la AWS console AWS CLI, ou. AWS APIs La principale différence entre les déploiements régionaux et périphériques réside dans les sous-réseaux dans lesquels les ressources seront provisionnées. La section [Mise en réseau à la périphérie](networking.md) décrit comment les sous-réseaux sont déployés dans les Outposts et les Zones Locales. Après avoir identifié les sous-réseaux Edge, vous utilisez l'ID du sous-réseau Edge comme paramètre pour déployer le service dans les Outposts ou les Zones Locales. Les sections suivantes fournissent des exemples de déploiement de services de périphérie.

### Amazon EC2 à la pointe
<a name="ec2-edge"></a>

L'`run-instances`exemple suivant lance une instance unique de type `m5.2xlarge` dans le sous-réseau Edge de la région actuelle. La paire de clés est facultative si vous ne prévoyez pas de vous connecter à votre instance en utilisant SSH sous Linux ou le protocole RDP (Remote Desktop Protocol) sous Windows.

```
aws ec2 run-instances \
    --image-id ami-id \
    --instance-type m5.2xlarge \
    --subnet-id <subnet-edge-id> \
    --key-name MyKeyPair
```

### Équilibreurs de charge des applications à la périphérie
<a name="alb-edge"></a>

L'`create-load-balancer`exemple suivant crée un Application Load Balancer interne et active les zones Locales ou les Outposts pour les sous-réseaux spécifiés.

```
aws elbv2 create-load-balancer \
    --name my-internal-load-balancer \
    --scheme internal \
    --subnets <subnet-edge-id>
```

Pour déployer un Application Load Balancer connecté à Internet sur un sous-réseau d'un Outpost, vous devez définir `internet-facing` l'indicateur dans l'option et fournir [un ID `--scheme` de pool CoIP](https://docs.aws.amazon.com/outposts/latest/userguide/local-rack.html#local-gateway-subnet), comme indiqué dans cet exemple :

```
aws elbv2 create-load-balancer \
    --name my-internal-load-balancer \
    --scheme internet-facing \
    --customer-owned-ipv4-pool <coip-pool-id>
    --subnets <subnet-edge-id>
```

Pour plus d'informations sur le déploiement d'autres services en périphérie, suivez ces liens :


| **Service** | **AWS Outposts** | **Zones locales AWS** | 
| --- | --- | --- | 
| Amazon EKS | [Déployez Amazon EKS sur site avec AWS Outposts](https://docs.aws.amazon.com/eks/latest/userguide/eks-outposts.html) | [Lancez des clusters EKS à faible latence avec Zones locales AWS](https://docs.aws.amazon.com/eks/latest/userguide/local-zones.html) | 
| Amazon ECS | [Amazon ECS sur AWS Outposts](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs-on-outposts.html) | [Applications Amazon ECS dans des sous-réseaux partagés, des zones Locales et des zones de longueur d'onde](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cluster-regions-zones.html) | 
| Amazon RDS | [Amazon RDS sur AWS Outposts](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/rds-on-outposts.html) | Sélectionnez le sous-réseau de la zone locale | 
| Amazon S3 | [Commencer à utiliser Amazon S3 sur Outposts](https://docs.aws.amazon.com/AmazonS3/latest/s3-outposts/S3OutpostsGS.html) | Non disponible | 
| Amazon ElastiCache | [Utiliser Outposts avec ElastiCache](https://docs.aws.amazon.com/AmazonElastiCache/latest/mem-ug/ElastiCache-Outposts.html) | [Utilisation de Zones Locales avec ElastiCache](https://docs.aws.amazon.com/AmazonElastiCache/latest/mem-ug/Local_zones.html) | 
| Amazon EMR | [Clusters EMR sur AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html) | [Clusters EMR sur Zones locales AWS](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-localzones.html) | 
| Amazon FSx | Non disponible | Sélectionnez le sous-réseau de la zone locale | 
| AWS Elastic Disaster Recovery | [Travailler avec AWS Elastic Disaster Recovery et AWS Outposts](https://docs.aws.amazon.com/drs/latest/userguide/outposts.html) | Non disponible | 
| AWS Application Migration Service | Non disponible | Sélectionnez le sous-réseau de zone locale comme sous-réseau intermédiaire | 

## CLI et SDK spécifiques à Outposts
<a name="cli-sdk"></a>

AWS Outposts comporte deux groupes de commandes et permet APIs de créer un ordre de service ou de manipuler les tables de routage entre la passerelle locale et votre réseau local.

### Processus de commande d'Outposts
<a name="outposts-ordering-process"></a>

Vous pouvez utiliser le [AWS CLI](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/outposts/index.html)ou les [Outposts APIs](https://docs.aws.amazon.com/outposts/latest/APIReference/API_Operations.html) pour créer un site Outposts, pour créer un Outpost et pour créer une commande Outposts. Nous vous recommandons de travailler avec un spécialiste du cloud hybride lors de votre processus de AWS Outposts commande afin de garantir une sélection appropriée des ressources IDs et une configuration optimale pour vos besoins de mise en œuvre. Pour une liste complète des identifiants de ressources, consultez la page de [tarification AWS Outposts des racks](https://aws.amazon.com/outposts/rack/pricing/).

### Gestion des passerelles locales
<a name="lgw-management"></a>

La gestion et le fonctionnement de la passerelle locale (LGW) dans Outposts nécessitent la connaissance des commandes et AWS CLI du SDK disponibles pour cette tâche. Vous pouvez utiliser le AWS CLI et AWS SDKs pour créer et modifier des itinéraires LGW, entre autres tâches. Pour plus d'informations sur la gestion du LGW, consultez les ressources suivantes :
+ [AWS CLI pour Amazon EC2](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/ec2/index.html)
+ EC2.Client dans le [AWS SDK pour Python (Boto)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/ec2.html)
+ Ec2Client dans le [AWS SDK pour Java](https://sdk.amazonaws.com/java/api/latest/software/amazon/awssdk/services/ec2/Ec2Client.html)

### CloudWatch métriques et journaux
<a name="cloudwatch-metrics"></a>

Pour Services AWS qu'ils soient disponibles à la fois dans les Outposts et les Zones Locales, les métriques et les journaux sont gérés de la même manière que dans les Régions. Amazon CloudWatch fournit des statistiques dédiées à la surveillance des Outposts dans les dimensions suivantes :


| **Dimension** | **Description** | 
| --- | --- | 
| `Account` | Le compte ou le service utilisant la capacité | 
| `InstanceFamily` | La famille d'instances | 
| `InstanceType` | Le type d'instance | 
| `OutpostId` | L'identifiant de l'avant-poste | 
| `VolumeType` | Type de volume EBS | 
| `VirtualInterfaceId` | L'ID de la passerelle locale ou de l'interface virtuelle de liaison de service (VIF) | 
| `VirtualInterfaceGroupId` | L'ID du groupe VIF pour la passerelle locale (VIF) | 

Pour plus d'informations, consultez [CloudWatch les statistiques relatives aux racks Outposts dans la documentation](https://docs.aws.amazon.com/outposts/latest/userguide/outposts-cloudwatch-metrics.html) Outposts.