

# SUS03-BP05 Utiliser des modèles logiciels et des architectures qui soutiennent au mieux l’accès aux données et les modèles de stockage.
<a name="sus_sus_software_a6"></a>

Comprenez comment les données sont utilisées au sein de votre charge de travail, comment elles sont consommées par vos utilisateurs, transférées et stockées. Utilisez des modèles et des architectures logicielles qui prennent le mieux en charge l’accès et le stockage des données afin de minimiser les ressources de calcul, de mise en réseau et de stockage nécessaires pour supporter la charge de travail.

 **Anti-modèles courants :** 
+  Vous partez du principe que toutes les charges de travail ont des modèles de stockage de données et d’accès similaires. 
+  Vous n’utilisez qu’un seul niveau de stockage, partant du principe que toutes les charges de travail s’intègrent dans ce niveau. 
+  Vous partez du principe que les modèles d’accès aux données n’évolueront pas dans le temps. 
+  Votre architecture prend en charge un potentiel pic important d’accès aux données, ce qui fait que les ressources restent inactives la plupart du temps. 

 **Avantages liés au respect de cette bonne pratique :** la sélection et l’optimisation de votre architecture en fonction des modèles d’accès et de stockage des données permettront de réduire la complexité du développement et d’augmenter l’utilisation globale. Savoir quand utiliser les tables globales, le partitionnement des données et la mise en cache vous aidera à réduire les frais généraux opérationnels et à évoluer en fonction des besoins de votre charge de travail. 

 **Niveau de risque exposé si cette bonne pratique n’est pas établie:** moyen 

## Directives d’implémentation
<a name="implementation-guidance"></a>

 Utilisez les modèles de logiciels et d’architecture qui correspondent le mieux aux caractéristiques de vos données et à vos modèles d’accès. Par exemple, utilisez [une architecture de données moderne sur AWS](https://aws.amazon.com/big-data/datalakes-and-analytics/modern-data-architecture/) qui vous permet d’utiliser des services spécialisés optimisés pour vos cas d’utilisation analytiques uniques. Ces modèles d’architecture permettent un traitement efficace des données et réduisent l’utilisation des ressources. 

### Étapes d’implémentation
<a name="implementation-steps"></a>
+  Analysez les caractéristiques de vos données et les modèles d’accès afin d’identifier la bonne configuration pour vos ressources cloud. Les caractéristiques clés à prendre en considération sont les suivantes : 
  +  **Type de données :** structuré, semi-structuré, non structuré 
  +  **Croissance des données :** limitée, illimitée 
  +  **Durabilité des données :** persistantes, éphémères, temporaires 
  +  **Modèles d’accès** en lecture ou écriture, fréquence de mise à jour, irrégularité, constance 
+  Utilisez les modèles d’architecture qui prennent le mieux en charge les modèles d’accès et de stockage des données. 
  + [ Modèles permettant d’activer la persistance des données ](https://docs.aws.amazon.com/prescriptive-guidance/latest/modernization-data-persistence/enabling-patterns.html)
  + [ Let’s Architect\$1 Architectures de données modernes ](https://aws.amazon.com/blogs/architecture/lets-architect-modern-data-architectures/)
  + [ Bases de données sur AWS : le bon outil pour la bonne tâche ](https://www.youtube.com/watch?v=-pb-DkD6cWg)
+  Utilisez des technologies qui peuvent fonctionner en natif avec les données compressées. 
  + [ Formats de fichiers prenant en charge la compression Athena ](https://docs.aws.amazon.com/athena/latest/ug/compression-formats.html)
  + [ Options de format pour les entrées et les sorties ETL dans AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-format.html)
  + [ Chargement de fichiers de données compressés depuis Amazon S3 vers Amazon Redshift ](https://docs.aws.amazon.com/redshift/latest/dg/t_loading-gzip-compressed-data-files-from-S3.html)
+  Utilisez des [services d’analytique spécialisés](https://aws.amazon.com/big-data/datalakes-and-analytics/?nc2=h_ql_prod_an_a) pour le traitement des données dans votre architecture. Pour plus de détails sur les services d’analyse AWS sur mesure, consultez [AWS re:Invent 2022 - Building modern data architectures on AWS](https://www.youtube.com/watch?v=Uk2CqEt5f0o). 
+  Utilisez le moteur de base de données qui prend le mieux en charge votre modèle de requête dominant. Gérez vos index de base de données afin de garantir l’efficacité des requêtes. Pour plus de détails, consultez [Bases de données AWS](https://aws.amazon.com/products/databases/) et [AWS re:Invent 2022 - Modernize apps with purpose-built databases](https://www.youtube.com/watch?v=V-DiplATdi0). 
+  Sélectionnez des protocoles réseaux qui réduisent la quantité de capacité réseau consommée dans votre architecture. 

## Ressources
<a name="resources"></a>

 **Documents connexes :** 
+  [COPIE de formats de données en colonnes avec Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/copy-usage_notes-copy-from-columnar.html) 
+  [Conversion de votre format de registre d’entrée dans Firehose](https://docs.aws.amazon.com/firehose/latest/dev/record-format-conversion.html) 
+  [Améliorer la performance des requêtes sur Amazon Athena grâce à une conversion en formats de colonnes](https://docs.aws.amazon.com/athena/latest/ug/convert-to-columnar.html) 
+  [Surveillance de la charge de base de données avec Performance Insights sur Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Surveillance de la charge de base de données avec Performance Insights sur Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+ [Classe de stockage Amazon S3 Intelligent-Tiering](https://aws.amazon.com/s3/storage-classes/intelligent-tiering/)
+ [ Build a CQRS event store with Amazon DynamoDB ](https://aws.amazon.com/blogs/database/build-a-cqrs-event-store-with-amazon-dynamodb/)

 **Vidéos connexes :** 
+ [AWS re:Invent 2022 - Building data mesh architectures on AWS](https://www.youtube.com/watch?v=nGRvlobeM_U)
+ [AWS re:Invent 2023 - Deep dive into Amazon Aurora and its innovations ](https://www.youtube.com/watch?v=je6GCOZ22lI)
+ [AWS re:Invent 2023 - Improve Amazon EBS efficiency and be more cost-efficient ](https://www.youtube.com/watch?v=7-CB02rqiuw)
+ [AWS re:Invent 2023 - Optimizing storage price and performance with Amazon S3 ](https://www.youtube.com/watch?v=RxgYNrXPOLw)
+ [AWS re:Invent 2023 - Building and optimizing a data lake on Amazon S3 ](https://www.youtube.com/watch?v=mpQa_Zm1xW8)
+ [AWS re:Invent 2023 : Advanced event-driven patterns with Amazon EventBridge ](https://www.youtube.com/watch?v=6X4lSPkn4ps)

 **Exemples connexes :** 
+ [AWS Purpose Built Databases Workshop ](https://catalog.us-east-1.prod.workshops.aws/workshops/93f64257-52be-4c12-a95b-c0a1ff3b7e2b/en-US)
+ [AWS Modern Data Architecture Immersion Day ](https://catalog.us-east-1.prod.workshops.aws/workshops/32f3e732-d67d-4c63-b967-c8c5eabd9ebf/en-US)
+ [ Build a Data Mesh on AWS](https://catalog.us-east-1.prod.workshops.aws/workshops/23e6326b-58ee-4ab0-9bc7-3c8d730eb851/en-US)