

# SUS 2 ¿Cómo alinea los recursos en la nube a su demanda?
<a name="sus-02"></a>

La forma en que los usuarios y las aplicaciones consumen sus cargas de trabajo y otros recursos puede ayudarle a identificar las mejoras necesarias para alcanzar sus objetivos de sostenibilidad. Escale la infraestructura para adaptarla continuamente a la demanda y compruebe que solo utiliza los recursos mínimos necesarios para prestar asistencia a sus usuarios. Alinee los niveles de servicio con las necesidades de los clientes. Posicione los recursos de forma que se limite el uso de red necesario para que los usuarios puedan consumirlos. Elimine los activos sin usar. Proporcione a los miembros de su equipo dispositivos que satisfagan sus necesidades con un impacto mínimo en la sostenibilidad.

**Topics**
+ [SUS02-BP01 Escalar la infraestructura de la carga de trabajo dinámicamente](sus_sus_user_a2.md)
+ [SUS02-BP02: Alineación de los SLA con los objetivos de sostenibilidad](sus_sus_user_a3.md)
+ [SUS02-BP03: Detener la creación y el mantenimiento de los recursos no utilizados](sus_sus_user_a4.md)
+ [SUS02-BP04 Optimizar la ubicación geográfica de las cargas de trabajo en función de sus requisitos de red](sus_sus_user_a5.md)
+ [SUS02-BP05: Optimización de los recursos de los miembros del equipo para las actividades realizadas](sus_sus_user_a6.md)
+ [SUS02-BP06 Implementar el almacenamiento en búfer o la limitación para aplanar la curva de demanda](sus_sus_user_a7.md)

# SUS02-BP01 Escalar la infraestructura de la carga de trabajo dinámicamente
<a name="sus_sus_user_a2"></a>

Utilice la elasticidad de la nube y escale su infraestructura de forma dinámica para adaptar la oferta de recursos en la nube a la demanda y evitar un exceso de capacidad en su carga de trabajo.

**Patrones comunes de uso no recomendados:**
+ No se escala la infraestructura con la carga de usuarios.
+ La infraestructura se escala manualmente todo el tiempo.
+ Deja la capacidad aumentada después de un evento de ajuste de escala en lugar de volver a desescalar verticalmente.

 **Ventajas de establecer esta práctica recomendada:** la configuración y las pruebas de la elasticidad de la carga de trabajo contribuyen a ajustar de forma eficaz la oferta de recursos en la nube a la demanda y a evitar el exceso de capacidad aprovisionada. Puede aprovechar la elasticidad de la nube para escalar automáticamente la capacidad durante y después de los picos de demanda para asegurarse de que solo utiliza el número correcto de recursos necesarios para satisfacer los requisitos empresariales.

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** medio 

## Guía para la implementación
<a name="implementation-guidance"></a>

 La nube ofrece la flexibilidad de ampliar o reducir sus recursos de forma dinámica a través de diversos mecanismos para satisfacer los cambios en la demanda. La correspondencia óptima entre la oferta y la demanda ofrece el menor impacto medioambiental para una carga de trabajo. 

 La demanda puede ser fija o variable, lo que requiere métricas y automatización para garantizar que la administración no resulte difícil. Las aplicaciones pueden escalarse o desescalarse verticalmente mediante la modificación del tamaño de la instancia, escalarse o desescalarse horizontalmente mediante la modificación del número de instancias, o una combinación de ambas. 

 Puede usar distintos enfoques para hacer que el suministro de recursos coincida con la demanda. 
+  **Enfoque de seguimiento de objetivos:** supervise su métrica de escalamiento y aumente o reduzca de forma automática la capacidad a medida que la necesite. 
+  **Escalamiento predictivo:** desescale horizontalmente para prever las tendencias diarias y semanales. 
+  **Enfoque basado en la programación:** configure su propia programación según los cambios de carga predecibles. 
+  **Escalamiento de servicios:** elija servicios (como los que son sin servidor) que se escalan de forma nativa por diseño o proporcione el escalamiento automático como una característica. 

 Identifique los períodos de uso reducido o inexistente y escale los recursos en consonancia para eliminar el exceso de capacidad y mejorar la eficiencia. 

## Pasos para la aplicación
<a name="implementation-steps"></a>
+ La elasticidad hace coincidir la oferta de los recursos que tiene con la demanda de esos recursos. Las instancias, los contenedores y las funciones proporcionan mecanismos de elasticidad, ya sea en combinación con el escalamiento automático o como características del servicio. AWS proporciona una serie de mecanismos de escalamiento automático para garantizar que las cargas de trabajo puedan desescalarse verticalmente de forma rápida y sencilla durante los periodos con poca carga de usuarios. A continuación, se presentan algunos ejemplos de mecanismos de escalamiento automático:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/wellarchitected/2024-06-27/framework/sus_sus_user_a2.html)
+  A menudo se habla de escalamiento en relación con servicios de computación como instancias de Amazon EC2 o funciones AWS Lambda. Considere la configuración de servicios no computacionales como unidades de capacidad de lectura y escritura de [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) o particiones de [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) para ajustarse a la demanda. 
+  Verifique que las métricas para escalar o desescalar verticalmente se validan con respecto al tipo de carga de trabajo que se está desplegando. Si está desplegando una aplicación de transcodificación de vídeo, se espera una utilización del 100 % de la CPU y no debería ser su métrica principal. Puede usar una [métrica personalizada](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (como la utilización de la memoria) para su política de escalamiento si es necesario. Para elegir las métricas adecuadas, tenga en cuenta las siguientes directrices para Amazon EC2: 
  +  La métrica debe ser una métrica de utilización válida y describir el grado de ocupación de una instancia. 
  +  El valor de la métrica debe aumentar o disminuir proporcionalmente al número de instancias del grupo de Auto Scaling. 
+  Utilice el [escalamiento dinámico](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) en lugar del [manual](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) para su grupo de Auto Scaling. También le recomendamos que use las [políticas de escalamiento de seguimiento de destino](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) en el escalamiento dinámico. 
+  Verifique que los despliegues de la carga de trabajo puedan manejar los eventos de escalamiento y desescalamiento horizontales. Cree escenarios de prueba para los eventos de escalamiento con el fin de verificar que la carga de trabajo se comporta del modo previsto y no afecta a la experiencia del usuario (como la pérdida de sesiones persistentes). Puede utilizar el [historial de actividades](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) para verificar una actividad de escalamiento correspondiente a un grupo de Auto Scaling. 
+  Evalúe los patrones predecibles de su carga de trabajo y escale de forma proactiva al anticiparse a los cambios previstos y planeados en la demanda. Con el escalamiento predictivo, puede eliminar la necesidad de aprovisionar capacidad en exceso. Para obtener más detalles, consulte [Escalamiento predictivo con Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Getting Started with Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) (Introducción a Amazon EC2 Auto Scaling) 
+  [Predictive Scaling for EC2, Powered by Machine Learning (Escalamiento predictivo para EC2, impulsado por el aprendizaje automático)](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyze user behavior using Amazon OpenSearch Service, Amazon Data Firehose and Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) (Análisis del comportamiento del usuario con Amazon OpenSearch Service, Amazon Data Firehose y Kibana) 
+  [¿Qué es Amazon CloudWatch?](https://docs.aws.amazon.com/Amazon/latest/monitoring/WhatIs.html) 
+  [Supervisión de la carga de bases de datos con Información sobre rendimiento en Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Introducing Native Support for Predictive Scaling with Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) (Introducción a la compatibilidad nativa para escalamiento predictivo con Amazon EC2 Auto Scaling) 
+  [Introducing Karpenter - An Open-Source, High-Performance Kubernetes Cluster Autoscaler (Presentación de Karpenter: Cluster Autoscaler de Kubernetes de código abierto y alto rendimiento)](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Deep Dive on Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) (Profundización en Auto Scaling de clúster de Amazon ECS) 

 **Vídeos relacionados: ** 
+ [AWS re:Invent 2023 - Scaling on AWS for the first 10 million users](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 - Scaling containers from one user to millions](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023 - Scaling FM inference to hundreds of models with Amazon SageMaker AI](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 - Harness the power of Karpenter to scale, optimize & upgrade Kubernetes](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Ejemplos relacionados:** 
+ [Escalado automático](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02: Alineación de los SLA con los objetivos de sostenibilidad
<a name="sus_sus_user_a3"></a>

 Revise y optimice los acuerdos de nivel de servicio (SLA) de la carga de trabajo en función de sus objetivos de sostenibilidad a fin de minimizar los recursos necesarios para admitir la carga de trabajo sin dejar de satisfacer las necesidades empresariales. 

 **Antipatrones usuales:** 
+  Los SLA de carga de trabajo se desconocen o son ambiguos. 
+  Define su SLA solo para la disponibilidad y el rendimiento. 
+  Utiliza el mismo patrón de diseño (como la arquitectura multi-AZ) para todas sus cargas de trabajo. 

 **Beneficios de establecer esta práctica recomendada:** la alineación de los SLA con los objetivos de sostenibilidad conlleva un uso óptimo de los recursos, al tiempo que se satisfacen las necesidades empresariales. 

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** bajo 

## Guía para la implementación
<a name="implementation-guidance"></a>

 Los SLA definen el nivel de servicio que se espera de una carga de trabajo en la nube, como el tiempo de respuesta, la disponibilidad y la retención de datos. Influyen en la arquitectura, el uso de recursos y el impacto medioambiental de una carga de trabajo en la nube. Con una cadencia regular, revise los SLA y realice concesiones para reducir significativamente el uso de recursos a cambio de disminuciones aceptables en los niveles de servicio. 

### Pasos para la implementación
<a name="implementation-steps"></a>
+  **Comprender los objetivos de sostenibilidad:** identifique los objetivos de sostenibilidad de su organización, como la reducción de carbono o la mejora del uso de los recursos. 
+  **Revisar los SLA:** evalúe los SLA para determinar si cumplen con los requisitos de su negocio. Si está superando los SLA, realice una revisión adicional. 
+  **Comprender cuáles son las compensaciones:** comprenda cuáles son las compensaciones (como el alto volumen de usuarios simultáneos), el rendimiento (como la latencia) y el impacto en la sostenibilidad (como los recursos necesarios) de su carga de trabajo. Por lo general, priorizar dos de los factores se produce a expensas del tercero. 
+  **Ajustar los SLA:** ajuste los SLA para hacer que las compensaciones disminuyan de forma considerable las repercusiones en la sostenibilidad a cambio de reducciones aceptables en los niveles de servicio. 
  +  **Sostenibilidad y fiabilidad:** las cargas de trabajo de alta disponibilidad tienden a consumir más recursos. 
  +  **Sostenibilidad y rendimiento:** el uso de más recursos para aumentar el rendimiento podría tener mayor impacto medioambiental. 
  +  **Sostenibilidad y seguridad:** las cargas de trabajo demasiado seguras podrían tener mayor impacto medioambiental. 
+  **Definir los SLA de sostenibilidad si es posible:** incluya los SLA de sostenibilidad para la carga de trabajo. Por ejemplo, defina un nivel de utilización mínimo como un SLA de sostenibilidad para sus instancias de computación. 
+  **Utilizar patrones de diseño eficaces:** utilice patrones de diseño, como microservicios en AWS, que den prioridad a las funciones fundamentales y permitan unos niveles de servicio más bajos (como objetivos de tiempo de respuesta o de tiempo de recuperación) para las funciones que no sean esenciales. 
+  **Comunicarse y establecer responsabilidades:** comparta los SLA con todas las partes interesadas pertinentes, incluidos el equipo de desarrollo y los clientes. Utilice los informes para realizar un seguimiento de los SLA y supervisarlos. Asigne responsabilidades para cumplir con los objetivos de sostenibilidad de los SLA. 
+  **Utilizar incentivos y recompensas:** utilice incentivos y recompensas para lograr o superar los SLA que están en consonancia con los objetivos de sostenibilidad. 
+  **Revisar e iterar:** revise y ajuste periódicamente los SLA para asegurarse de que estén en consonancia con los objetivos de sostenibilidad y rendimiento en constante cambio. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+ [Understand resiliency patterns and trade-offs to architect efficiently in the cloud](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Importance of Service Level Agreement for SaaS Providers](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) (Importancia de los acuerdos de nivel de servicio para los proveedores de SaaS) 

 **Vídeos relacionados: ** 
+ [AWS re:Invent 2023 - Capacity, availability, cost efficiency: Pick three](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 - Advanced integration patterns & trade-offs for loosely coupled systems](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 - Delivering sustainable, high-performing architectures](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03: Detener la creación y el mantenimiento de los recursos no utilizados
<a name="sus_sus_user_a4"></a>

Retire los activos no utilizados de su carga de trabajo para reducir el número de recursos en la nube necesarios para atender su demanda y minimizar los residuos.

 **Patrones comunes de uso no recomendados:** 
+  No analiza su aplicación en busca de activos redundantes o que ya no son necesarios. 
+  No elimina los activos que son redundantes o que ya no son necesarios. 

 **Beneficios de establecer esta práctica recomendada:** la eliminación de los activos no utilizados libera recursos y mejora la eficacia general de la carga de trabajo. 

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** bajo 

## Guía para la implementación
<a name="implementation-guidance"></a>

 Los activos no utilizados consumen recursos de la nube, como espacio de almacenamiento y potencia de computación. Con la identificación y eliminación de estos activos, podrá liberar estos recursos, lo que dará lugar a una arquitectura en la nube más eficiente. Realice análisis periódicos en los activos de aplicaciones (como los informes precompilados, los conjuntos de datos y las imágenes estáticas) y los patrones de acceso a los activos para identificar cualquier tipo de redundancia, infrautilización y los posibles objetivos de retirada. Elimine esos activos redundantes para reducir el despilfarro de recursos en su carga de trabajo. 

### Pasos para la implementación
<a name="implementation-steps"></a>
+  **Realizar un inventario:** lleve a cabo un inventario exhaustivo para identificar todos los activos de su carga de trabajo. 
+  **Analizar el uso:** utilice la supervisión continua para identificar los activos estáticos que ya no sean necesarios. 
+  **Eliminar los activos no utilizados:** desarrolle un plan para eliminar los activos que ya no sean necesarios. 
  +  Antes de eliminar un activo, evalúe el impacto de su eliminación en la arquitectura. 
  +  Consolide los recursos generados superpuestos para eliminar el procesamiento redundante. 
  +  Actualice las aplicaciones para que dejen de producir y almacenar activos que no sean necesarios. 
+  **Comunicarse con terceros:** indique a terceros que dejen de producir y almacenar activos administrados en su nombre que ya no sean necesarios. Solicite la consolidación de los activos redundantes. 
+  **Utilizar políticas de ciclo de vida:** utilice políticas de ciclo de vida para eliminar automáticamente los activos no utilizados. 
  +  Puede usar Amazon S3 Lifecycle para administrar los objetos a lo largo de su ciclo de vida. 
  +  Puede utilizar Amazon Data Lifecycle Manager para automatizar la creación, retención y eliminación de instantáneas de Amazon EBS y AMI respaldadas por Amazon EBS. 
+  **Revisar y optimizar:** revise periódicamente su carga de trabajo para identificar y eliminar los activos no utilizados. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Optimización de la infraestructura de AWS para la sostenibilidad, parte II: almacenamiento](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [¿Cómo puedo terminar los recursos activos que ya no necesito en mi Cuenta de AWS?](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Vídeos relacionados: ** 
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2022 - Preserving and maximizing the value of digital media assets using Amazon S3](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023 - Optimize costs in your multi-account environments](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Optimizar la ubicación geográfica de las cargas de trabajo en función de sus requisitos de red
<a name="sus_sus_user_a5"></a>

Seleccione para su carga de trabajo una ubicación y unos servicios en la nube que acorten la distancia que debe recorrer el tráfico de red y reduzcan el total de recursos de red necesarios para admitir su carga de trabajo.

 **Patrones comunes de uso no recomendados:** 
+  Se selecciona la región de la carga de trabajo en función de la propia ubicación. 
+  Consolida todos los recursos de la carga de trabajo en una ubicación geográfica. 
+  Todo el tráfico fluye a través de sus centros de datos existentes. 

 **Beneficios de establecer esta práctica recomendada:** colocar una carga de trabajo cerca de sus usuarios proporciona la menor latencia, al tiempo que disminuye el movimiento de datos a través de la red y reduce el impacto medioambiental. 

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** medio 

## Guía para la implementación
<a name="implementation-guidance"></a>

 La infraestructura de Nube de AWS se crea en torno a opciones de ubicación como regiones, zonas de disponibilidad, grupos de ubicaciones y ubicaciones periféricas como [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html) y [zonas locales de AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Estas opciones de ubicación son las responsables de mantener la conectividad entre los componentes de las aplicaciones, los servicios en la nube, las redes periféricas y los centros de datos locales. 

 Analice los patrones de acceso a la red en su carga de trabajo para identificar cómo utilizar estas opciones de ubicación en la nube y reducir la distancia que debe recorrer el tráfico de red. 

## Pasos para la implementación
<a name="implementation-steps"></a>
+  Analice los patrones de acceso de la red en su carga de trabajo para identificar cómo utilizan los usuarios su aplicación. 
  +  Utilice herramientas de supervisión, como [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) y [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), para recopilar datos sobre las actividades de red. 
  +  Analice los datos para identificar el patrón de acceso de la red. 
+  Seleccione las regiones para el despliegue de la carga de trabajo en función de los siguientes elementos clave: 
  +  **Su objetivo de sostenibilidad:** tal como se explica en [Selección de regiones](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Dónde se encuentran sus datos:** en el caso de las aplicaciones con gran cantidad de datos (como big data y machine learning), el código de la aplicación debe ejecutarse lo más cerca posible de los datos. 
  +  **Dónde se encuentran sus usuarios:** en el caso de las aplicaciones orientadas al usuario, elija una región (o varias regiones) cerca de los usuarios de su carga de trabajo.
  + **Otras restricciones:** tenga en cuenta restricciones como el coste y el cumplimiento, tal y como se explica en [Qué tener en cuenta al seleccionar una región para las cargas de trabajo](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Utilice almacenamiento en caché local o [soluciones de almacenamiento en caché de AWS](https://aws.amazon.com/caching/aws-caching/) para los recursos de uso frecuente con el fin de mejorar el rendimiento, reducir el movimiento de datos y disminuir el impacto medioambiental.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Utilice servicios que puedan ayudarle a ejecutar el código más cerca de los usuarios de su carga de trabajo:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Use la agrupación de conexiones para permitir reutilizar las conexiones y reducir la cantidad de recursos necesarios. 
+  Use los almacenes de datos distribuidos que no se basen en conexiones persistentes y en actualizaciones sincrónicas por coherencia para atender a las poblaciones regionales. 
+  Reemplace la capacidad de red estática preaprovisionada por capacidad dinámica compartida y comparta el impacto en la sostenibilidad de la capacidad de red con otros suscriptores. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Optimización de la infraestructura de AWS para la sostenibilidad, parte III: redes](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Documentación de Amazon ElastiCache](https://docs.aws.amazon.com/elasticache/index.html) 
+  [¿Qué es Amazon CloudFront?](https://docs.aws.amazon.com/Amazon/latest/DeveloperGuide/Introduction.html) 
+  [Características clave de Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 
+ [Infraestructura global de AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones and AWS Outposts, choosing the right technology for your edge workload](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/) (AWS Local Zones y AWS Outposts: elegir la tecnología adecuada para su carga de trabajo de periferia)
+ [Grupos de ubicación](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [Zonas locales de AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Vídeos relacionados: ** 
+  [Demystifying data transfer on AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) (Desmitificar la transferencia de datos en AWS) 
+ [Scaling network performance on next-gen Amazon EC2 instances](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [AWS Local Zones Explainer Video](https://www.youtube.com/watch?v=JHt-D4_zh7w) (Vídeo explicativo de AWS Local Zones)
+ [AWS Outposts: Overview and How it Works](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 - A migration strategy for edge and on-premises workloads](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021 - AWS Outposts: Bringing the AWS experience on premises](https://www.youtube.com/watch?v=FxVF6A22498) (AWS re:Invent 2021: Llevar la experiencia de AWS al entorno local)
+ [AWS re:Invent 2020 - AWS Wavelength: Run apps with ultra-low latency at 5G edge](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - AWS Local Zones: Building applications for a distributed edge](https://www.youtube.com/watch?v=bDnh_d-slhw) (AWS re:Invent 2022: AWS Local Zones: creación de aplicaciones para una periferia distribuida)
+ [AWS re:Invent 2021 - Building low-latency websites with Amazon CloudFront](https://www.youtube.com/watch?v=9npcOZ1PP_c) (AWS re:Invent 2021: Creación de sitios web de baja latencia con Amazon CloudFront)
+ [AWS re:Invent 2022 - Improve performance and availability with AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg) (AWS re:Invent 2022: Mejorar el rendimiento y la disponibilidad con AWS Global Accelerator)
+ [AWS re:Invent 2022 - Build your global wide area network using AWS](https://www.youtube.com/watch?v=flBieylTwvI) (AWS re:Invent 2022: Construya su red mundial de área extensa con AWS)
+ [AWS re:Invent 2020: Global traffic management with Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I) (AWS re:Invent 2020: Administración de tráfico global con Amazon Route 53)

 **Ejemplos relacionados:** 
+  [AWS Networking Workshops](https://catalog.workshops.aws/networking/en-US) (Talleres de red de AWS) 
+ [Architecting for sustainability - Minimize data movement across networks (Diseño de una arquitectura para la sostenibilidad: minimice el movimiento de datos entre las redes)](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05: Optimización de los recursos de los miembros del equipo para las actividades realizadas
<a name="sus_sus_user_a6"></a>

Optimice los recursos proporcionados a los miembros del equipo para minimizar el impacto en la sostenibilidad medioambiental a la vez que se cubren sus necesidades. 

 **Patrones comunes de uso no recomendados:** 
+  Ignora el impacto de los dispositivos utilizados por los miembros de su equipo en la eficacia global de su aplicación en la nube. 
+  Administra y actualiza manualmente los recursos que utilizan los miembros del equipo. 

 **Beneficios de establecer esta práctica recomendada:** la optimización de los recursos de los miembros del equipo mejora la eficacia general de las aplicaciones basadas en la nube. 

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** bajo 

## Guía para la implementación
<a name="implementation-guidance"></a>

 Analice los dispositivos que usan los miembros de su equipo para consumir sus servicios, el ciclo de vida que se espera que tengan y el impacto económico y en la sostenibilidad. Implemente estrategias para optimizar estos recursos. Por ejemplo, realice las operaciones complejas (como la representación y la compilación) en escritorios en una infraestructura escalable con un uso intensivo, en lugar de hacerlo en sistemas de usuarios únicos de gran potencia infrautilizados. 

### Pasos para la implementación
<a name="implementation-steps"></a>
+  **Utilizar estaciones de trabajo de bajo consumo energético:** proporcione a los miembros del equipo estaciones de trabajo y periféricos de bajo consumo energético. Utilice características de administración de energía eficiente (como el modo de bajo consumo) en estos dispositivos para reducir el consumo de energía. 
+  **Utilizar la virtualización:** utilice escritorios virtuales y streaming de aplicaciones para limitar los requisitos de dispositivos y actualizaciones. 
+  **Fomentar la colaboración remota:** anime a los miembros del equipo a utilizar herramientas de colaboración remota, como, por ejemplo, [Amazon Chime](https://aws.amazon.com/chime/) o [AWS Wickr](https://aws.amazon.com/wickr/) para reducir la necesidad de viajar y, en consecuencia, las emisiones de carbono asociadas. 
+  **Utilizar software de bajo consumo energético:** proporcione a los miembros del equipo un software de bajo consumo energético mediante la eliminación y la desactivación de características y procesos innecesarios. 
+  **Administrar los ciclos de vida:** evalúe el impacto de los procesos y los sistemas en el ciclo de vida de los dispositivos y seleccione aquellas soluciones que reducen al mínimo los requisitos para la sustitución de dispositivos a la vez que satisfacen los requisitos empresariales. Mantenga y actualice periódicamente las estaciones de trabajo o el software para mantener y mejorar la eficiencia. 
+  **Administración remota de dispositivos:** implemente la administración remota de los dispositivos para reducir la necesidad de realizar viajes de negocios. 
  +  Administrador de flotas de AWS Systems Manager es una experiencia de interfaz de usuario (IU) unificada que le ayuda a administrar de forma remota los nodos que se ejecutan en AWS o en un entorno local. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [¿Qué es Amazon WorkSpaces?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [ Optimizador de costes para Amazon WorkSpaces ](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Documentación de Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Vídeos relacionados: ** 
+  [Managing cost for Amazon WorkSpaces on AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) (Administración de costes para Amazon WorkSpaces en AWS) 

# SUS02-BP06 Implementar el almacenamiento en búfer o la limitación para aplanar la curva de demanda
<a name="sus_sus_user_a7"></a>

El almacenamiento en búfer y la limitación aplanan la curva de demanda y reducen la capacidad aprovisionada necesaria para su carga de trabajo. 

 **Patrones comunes de uso no recomendados:** 
+ Procesa las solicitudes de los clientes inmediatamente mientras no es necesario.
+ No analiza los requisitos de las solicitudes de los clientes.

 **Beneficios de establecer esta práctica recomendada:** el aplanamiento de la curva de demanda reduce la capacidad aprovisionada necesaria para la carga de trabajo. La reducción de la capacidad aprovisionada implica un menor consumo de energía y un menor impacto medioambiental. 

 **Nivel de riesgo expuesto si no se establece esta práctica recomendada:** bajo 

## Guía para la implementación
<a name="implementation-guidance"></a>

 El aplanamiento de la curva de demanda de la carga de trabajo puede ayudarle a reducir la capacidad aprovisionada para una carga de trabajo y a reducir su impacto medioambiental. Supongamos una carga de trabajo con la curva de demanda que se muestra en la siguiente figura. Esta carga de trabajo tiene dos picos y, para gestionarlos, se aprovisiona la capacidad de recursos que muestra la línea naranja. Los recursos y la energía utilizados para esta carga de trabajo no están indicados por el área situada debajo de la curva de demanda, sino por el área situada debajo de la línea de capacidad aprovisionada, ya que esta capacidad se necesita para gestionar esos dos picos. 

![\[Provisioned capacity waveform with two distinct peaks that require high provisioned capacity.\]](http://docs.aws.amazon.com/es_es/wellarchitected/2024-06-27/framework/images/provisioned-capacity-1.png)


 

 Puede utilizar el almacenamiento en búfer o la limitación para modificar la curva de demanda y suavizar los picos, lo que significa menos capacidad aprovisionada y menos energía consumida. Implemente limitaciones cuando sus clientes puedan realizar reintentos. Implemente el almacenamiento en búfer para almacenar la solicitud y aplazar el procesamiento para más adelante. 

![\[Waveform diagram displaying a workload with smoothed-out peaks created using buffering or throttling.\]](http://docs.aws.amazon.com/es_es/wellarchitected/2024-06-27/framework/images/provisioned-capacity-2.png)


 

 **Pasos para la implementación** 
+  Analice las solicitudes de los clientes para determinar cómo responder a ellas. Entre las preguntas a tener en cuenta se incluyen las siguientes: 
  +  ¿Esta solicitud puede procesarse de forma asíncrona? 
  +  ¿El cliente tiene capacidad de reintentos? 
+  Si el cliente tiene capacidad de reintentos, puede implementar la limitación, que le indica al origen que si no puede atender la solicitud en el momento actual debe intentarlo más tarde. 
  +  Puede usar [Amazon API Gateway](https://aws.amazon.com/api-gateway/) para implementar la limitación. 
+  En el caso de los clientes que no pueden realizar reintentos, es necesario implementar un búfer para aplanar la curva de demanda. Un búfer aplaza el procesamiento de las solicitudes, por lo que permite a las aplicaciones que se ejecutan a diferentes ritmos comunicarse de forma efectiva. El enfoque basado en búfer utiliza una cola o una secuencia para aceptar mensajes de los productores. De este modo, los consumidores pueden leer y procesar los mensajes, lo que permite que dichos mensajes se ejecuten a la velocidad que cumpla con los requisitos empresariales de los consumidores. 
  +  [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) es un servicio administrado que proporciona colas que permiten que un solo consumidor lea mensajes individuales. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) ofrece una secuencia que permite que muchos consumidores lean los mismos mensajes. 
+  Analice la demanda general, la tasa de cambio y el tiempo de respuesta requerido para dimensionar correctamente la limitación o el búfer requeridos. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+ [ Getting started with Amazon SQS ](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)(Introducción a Amazon SQS)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)(Integración de aplicaciones mediante colas y mensajes)
+ [ Managing and monitoring API throttling in your workloads ](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)(Administrar y supervisar la limitación de las API en sus cargas de trabajo)
+ [ «Throttling a tiered, multi-tenant REST API at scale using API Gateway» ](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)(Integración de aplicaciones mediante colas y mensajes)

 **Vídeos relacionados: ** 
+ [AWS re:Invent 2022 - Application integration patterns for microservices](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 - Smart savings: Amazon EC2 cost-optimization strategies](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 - Advanced integration patterns & trade-offs for loosely coupled systems](https://www.youtube.com/watch?v=FGKGdUiZKto)