

# Alinhamento com a demanda
<a name="a-alignment-to-demand"></a>

**Topics**
+ [SUS 2 Como alinhar recursos de nuvem à sua demanda?](sus-02.md)

# SUS 2 Como alinhar recursos de nuvem à sua demanda?
<a name="sus-02"></a>

A maneira como os usuários e as aplicações consomem suas workloads e outros recursos pode ajudar você a identificar melhorias para atingir metas de sustentabilidade. Escale a infraestrutura de forma que ela corresponda à demanda e use apenas os recursos mínimos necessários para oferecer suporte aos usuários. Alinhe os níveis de serviço às necessidades do cliente. Posicione os recursos a fim de limitar a rede necessária para que usuários e aplicações os consumam. Elimine ativos não utilizados. Forneça aos membros da sua equipe dispositivos compatíveis com suas necessidades e minimize o impacto na sustentabilidade.

**Topics**
+ [SUS02-BP01 Escalar a infraestrutura da workload dinamicamente](sus_sus_user_a2.md)
+ [SUS02-BP02 Alinhar os SLAs às metas de sustentabilidade](sus_sus_user_a3.md)
+ [SUS02-BP03 Interromper a criação e a manutenção de ativos não utilizados](sus_sus_user_a4.md)
+ [SUS02-BP04 Otimizar o posicionamento geográfico das workloads com base nos respectivos requisitos de rede](sus_sus_user_a5.md)
+ [SUS02-BP05 Otimizar os recursos dos membros da equipe para as atividades realizadas](sus_sus_user_a6.md)
+ [SUS02-BP06 Implementar armazenamento em buffer ou controle de utilização para nivelar a curva da demanda](sus_sus_user_a7.md)

# SUS02-BP01 Escalar a infraestrutura da workload dinamicamente
<a name="sus_sus_user_a2"></a>

Use a elasticidade da nuvem e escale sua infraestrutura de forma dinâmica para corresponder a oferta de recursos de nuvem à demanda e evitar capacidade superprovisionada em sua workload.

**Práticas comuns que devem ser evitadas:**
+ Você não escala sua infraestrutura de acordo com a carga de usuários.
+ Você escala sua infraestrutura manualmente o tempo todo.
+ Manter a capacidade aumentada após um evento de ajuste de escala, em vez de reduzi-la novamente.

 **Benefícios de implementar esta prática recomendada:** configurar e testar a elasticidade da workload ajuda a adequar eficientemente a oferta de recursos de nuvem à demanda e evitar o excesso de capacidade provisionada. É possível aproveitar a elasticidade na nuvem para escalar automaticamente a capacidade durante e depois de picos de demanda para garantir que esteja usando apenas o número exato de recursos necessários para atender aos requisitos do seu negócio.

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Médio 

## Orientação para implementação
<a name="implementation-guidance"></a>

 A nuvem fornece a flexibilidade necessária para expandir ou reduzir seus recursos dinamicamente por meio de diversos mecanismos para atender a mudanças na demanda. O equilíbrio ideal entre a oferta e a demanda oferece o menor impacto ambiental para uma workload. 

 A demanda pode ser fixa ou variável, exigindo métricas e automação para garantir que o gerenciamento não se torne um gasto excessivo. As aplicações podem aumentar ou diminuir a escala verticalmente ao modificar o tamanho da instância e horizontalmente ao modificar o número de instâncias, ou ainda uma combinação de ambos. 

 Você pode usar diversas abordagens diferentes para corresponder a oferta de recursos com a demanda. 
+  **Abordagem de rastreamento de métricas:** monitore a métrica de ajuste de escala e aumente ou diminua automaticamente a capacidade conforme necessário. 
+  **Ajuste de escala preditivo:** aumente ou reduza a escala em antecipação às tendências diárias e semanais. 
+  **Abordagem baseada em cronograma:** defina seu próprio cronograma de ajuste de escala de acordo com as mudanças de carga previsíveis. 
+  **Dimensionamento de serviços:** escolha serviços (como sem servidor) cuja escala seja modificada de forma nativa por design ou forneçam o ajuste de escala automático como um recurso. 

 Identifique períodos de utilização baixa ou sem utilização e escale os recursos para eliminar a capacidade em excesso e melhorar a eficiência. 

## Etapas de implementação
<a name="implementation-steps"></a>
+ A elasticidade corresponde à oferta de recursos que você tem face à demanda por estes recursos. Instâncias, contêineres e funções fornecem mecanismos para elasticidade, seja em combinação com o ajuste de escala automático ou como um recurso do serviço. A AWS fornece uma variedade de mecanismos de ajuste de escala automático para garantir que as workloads possam reduzir a escala verticalmente de forma rápida e fácil durante períodos de baixa carga de usuários. Veja alguns exemplos de mecanismos de ajuste de escala automático:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/wellarchitected/2024-06-27/framework/sus_sus_user_a2.html)
+  O ajuste de escala geralmente é discutido em relação a serviços de computação, como instâncias do Amazon EC2 ou funções do AWS Lambda. Considere a configuração de serviços não computacionais, como unidades de capacidade de leitura e gravação do [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) ou fragmentos do [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) para atender à demanda. 
+  Verifique se as métricas para aumentar ou reduzir a escala verticalmente são validadas em relação ao tipo da workload que está sendo implantada. Se você estiver implantando uma aplicação de transcodificação de vídeo, espera-se que a utilização da CPU seja de 100%, e essa não deve ser sua métrica principal. É possível usar uma [métrica personalizada](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (como utilização de memória) para sua política de ajuste de escala, se necessário. Para escolher as métricas certas, considere a seguinte orientação para o Amazon EC2: 
  +  A métrica deve ser uma métrica de utilização válida e descrever o quanto uma instância está ocupada. 
  +  O valor da métrica deve aumentar e diminuir em proporção ao número das instâncias no grupo do Auto Scaling. 
+  Use o [ajuste de escala dinâmico](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) em vez do [ajuste de escala manual](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) para seu grupo do Auto Scaling. Também recomendamos usar [políticas de ajuste de escala de rastreamento de metas](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) em seu ajuste de escala dinâmico. 
+  Verifique se as implantações da workload podem lidar com eventos de aumento e redução horizontal da escala. Crie cenários de teste para eventos de redução horizontal da escala para verificar se a workload se comporta conforme o esperado e não afeta a experiência do usuário (como perda da sessão persistente). É possível usar o [Histórico de atividades](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) para verificar uma atividade de ajuste de escala para um grupo do Auto Scaling. 
+  Avalie sua workload em relação a padrões previsíveis e, ao antecipar alterações previstas e planejadas na demanda, ajuste a escala proativamente. Com o ajuste de escala preditivo, é possível eliminar a necessidade de superprovisionar a capacidade. Para obter mais informações, consulte [Ajuste de escala preditivo com o Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Conceitos básicos do Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Ajuste de escala preditivo para o EC2 com Machine Learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analisar o comportamento do usuário usando o Amazon OpenSearch Service, o Amazon Kinesis Data Firehose e o Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [O que é o Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Monitorar a workload de banco de dados com o Performance Insights no Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Introdução de suporte nativo para ajuste de escala preditivo com o Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Introdução ao Karpenter: um dimensionador automático de escala de clusters do Kubernetes de código aberto e alta performance](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Mergulho profundo no ajuste de escala automático de clusters do Amazon ECS](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Vídeos relacionados:** 
+ [AWS re:Invent 2023: Escalar na AWS para seus primeiros 10 milhões de usuários](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023: Arquitetura sustentável: passado, presente e futuro](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022: Criar um ambiente de computação eficiente em termos de custo, energia e recursos](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022: Escalar contêineres de um para milhões de usuários](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023: Escalar a inferência de FM para centenas de modelos com o Amazon SageMaker AI](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023: Aproveitar o poder do Karpenter para escalar, otimizar e atualizar o Kubernetes](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Exemplos relacionados:** 
+ [Ajuste de escala automático](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 Alinhar os SLAs às metas de sustentabilidade
<a name="sus_sus_user_a3"></a>

 Analise e otimize os acordos de serviço (SLA) com base em suas metas de sustentabilidade para minimizar os recursos necessários a fim de oferecer compatibilidade com sua workload enquanto continua a atender às necessidades empresariais. 

 **Práticas comuns que devem ser evitadas:** 
+  SLAs de workload são desconhecidos ou ambíguos. 
+  Você define seu SLA apenas para disponibilidade e performance. 
+  Você usa o mesmo padrão de design (como arquitetura multi-AZ) para todas as suas workloads. 

 **Benefícios de implementar esta prática recomendada:** alinhar os SLAs às metas de sustentabilidade leva ao uso ideal dos recursos e, ao mesmo tempo, atende às necessidades de negócios. 

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Baixo 

## Orientação para implementação
<a name="implementation-guidance"></a>

 Os SLAs definem o nível de serviço esperado de uma workload de nuvem, como tempo de resposta, disponibilidade e retenção de dados. Eles influenciam a arquitetura, o uso de recursos e o impacto ambiental de uma workload na nuvem. Em uma cadência regular, analise os SLAs e faça compensações que reduzam significativamente o uso de recursos em troca de reduções aceitáveis em níveis de serviço. 

### Etapas de implementação
<a name="implementation-steps"></a>
+  **Entenda as metas de sustentabilidade:** identifique metas de sustentabilidade em sua organização, como redução de carbono ou melhoria na utilização de recursos. 
+  **Analise os SLAs:** avalie seus SLAs para avaliar se eles atendem aos requisitos da sua empresa. Se estiver superando os SLAs, faça uma análise adicional. 
+  **Entenda as vantagens e desvantagens:** entenda as vantagens e desvantagens da complexidade da sua workload (como alto volume de usuários simultâneos), performance (como latência) e impacto na sustentabilidade (como os recursos necessários). Normalmente, priorizar dois dos fatores inviabiliza o terceiro. 
+  **Ajuste os SLAs:** ajuste os SLAs fazendo compensações que reduzam significativamente os impactos na sustentabilidade em troca de reduções aceitáveis em níveis de serviço. 
  +  **Sustentabilidade e confiabilidade:** workloads altamente disponíveis tendem a consumir mais recursos. 
  +  **Sustentabilidade e performance:** usar mais recursos para aumentar a performance pode ter um impacto ambiental maior. 
  +  **Sustentabilidade e segurança:** workloads excessivamente seguras podem ter um impacto ambiental maior. 
+  **Defina SLAs de sustentabilidade, se possível:** inclua SLAs de sustentabilidade para sua workload. Por exemplo, defina um nível mínimo de utilização como um SLA de sustentabilidade para as instâncias de computação. 
+  **Use padrões de design eficientes:** use padrões de design, como microsserviços na AWS, que priorizem funções essenciais aos negócios e permita níveis de serviço mais baixos (como objetivos de tempo de resposta ou de tempo de recuperação) para funções não essenciais. 
+  **Estabeleça comunicação e responsabilidade:** compartilhe os SLAs com todas as partes interessadas relevantes, incluindo sua equipe de desenvolvimento e seus clientes. Use relatórios para rastrear e monitorar os SLAs. Atribua responsabilidades para alcançar as metas de sustentabilidade dos SLAs. 
+  **Use incentivos e recompensas:** use incentivos e recompensas para alcançar ou superar os SLAs alinhados às metas de sustentabilidade. 
+  **Revise e repita:** revise e ajuste regularmente seus SLAs para garantir que estejam alinhados às metas de sustentabilidade e performance em evolução. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+ [Entender padrões de resiliência e compromissos para arquitetar de forma eficiente na nuvem](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Importância do acordo de nível de serviço para provedores de SaaS](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Vídeos relacionados:** 
+ [AWS re:Invent 2023: Capacidade, disponibilidade, eficiência de custos: escolha três](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:Invent 2023: Arquitetura sustentável: passado, presente e futuro](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023: padrões de integração avançados e compromissos para sistemas com acoplamento fraco](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022: Como entregar arquiteturas sustentáveis e de alta performance](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022: Criar um ambiente de computação eficiente em termos de custo, energia e recursos](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Interromper a criação e a manutenção de ativos não utilizados
<a name="sus_sus_user_a4"></a>

Desative ativos em sua workload para reduzir o número de recursos necessários para atender à sua demanda e minimizar o desperdício.

 **Práticas comuns que devem ser evitadas:** 
+  Você não analisa sua aplicação com relação a ativos redundantes ou não mais necessários. 
+  Você não remove ativos redundantes ou que não mais necessários. 

 **Benefícios de implementar esta prática recomendada:** a remoção de ativos não utilizados libera recursos e melhora a eficiência geral da workload. 

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Baixo 

## Orientação para implementação
<a name="implementation-guidance"></a>

 Os ativos ociosos consomem recursos de nuvem como espaço de armazenamento e potência computacional. Com a identificação e eliminação desses ativos, você pode liberar esses recursos e aumentar a eficiência da arquitetura de nuvem. Analise regularmente os ativos de aplicações (como relatórios pré-compilados, conjuntos de dados e imagens estáticas) e os padrões de acesso aos ativos para identificar redundâncias, subutilização e possíveis alvos de desativação. Remova esses ativos redundantes para diminuir o desperdício de recursos em sua workload. 

### Etapas de implementação
<a name="implementation-steps"></a>
+  **Faça um inventário:** faça um inventário abrangente para identificar todos os ativos em sua workload. 
+  **Analise o uso:** use ferramentas de monitoramento para identificar ativos estáticos que não são mais necessários. 
+  **Remova ativos não utilizados:** desenvolva um plano para remover ativos que não são mais necessários. 
  +  Antes de remover qualquer ativo, avalie o impacto da remoção sobre a arquitetura. 
  +  Consolide ativos gerados sobrepostos para remover o processamento redundante. 
  +  Atualize suas aplicações para que não produzam nem armazenem mais ativos que não são necessários. 
+  **Comunique-se com terceiros:** instrua terceiros a interromper a produção e o armazenamento de ativos gerenciados em seu nome que não sejam mais necessários. Peça que consolidem ativos redundantes. 
+  **Use políticas de ciclo de vida:** use políticas de ciclo de vida para excluir automaticamente ativos não utilizados. 
  +  Você pode usar o [Amazon S3 Lifecycle](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) para gerenciar seus objetos durante todo o ciclo de vida de cada um. 
  +  É possível usar o [Amazon Data Lifecycle Manager](https://docs.aws.amazon.com/ebs/latest/userguide/snapshot-lifecycle.html) para automatizar a criação, a retenção e a exclusão de snapshots do Amazon EBS e de AMIs apoiadas pelo Amazon EBS. 
+  **Revise e otimize:** revise regularmente sua workload para identificar e remover ativos ociosos. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Otimizar a sua infraestrutura da AWS para sustentabilidade, Parte II: Armazenamento](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [Como faço para encerrar recursos ativos dos quais não preciso mais em minha Conta da AWS?](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Vídeos relacionados:** 
+ [AWS re:Invent 2023: Arquitetura sustentável: passado, presente e futuro](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2022: Preservar e maximizar o valor de ativos de mídia digital usando o Amazon S3](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023: Otimizar custos em seus ambientes com várias contas](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Otimizar o posicionamento geográfico das workloads com base nos respectivos requisitos de rede
<a name="sus_sus_user_a5"></a>

Selecione locais e serviços de nuvem para sua workload que reduzam a distância que o tráfego de rede deve percorrer e diminua o total de recursos de rede necessários para comportar a workload.

 **Práticas comuns que devem ser evitadas:** 
+  Selecione a região da workload com base em sua localização. 
+  Consolidar todos os recursos da workload em uma única localização geográfica. 
+  Todo o tráfego flui por meio dos data centers existentes. 

 **Benefícios de implementar esta prática recomendada:** implantar uma workload perto dos clientes proporciona a latência mais baixa enquanto reduz a movimentação de dados pela rede e reduz o impacto ambiental. 

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Médio 

## Orientação para implementação
<a name="implementation-guidance"></a>

 A infraestrutura da Nuvem AWS é construída em torno de opções de local, como regiões, zonas de disponibilidade, grupos de posicionamento e locais da borda, como [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html) e [zonas locais da AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Essas opções de local são responsáveis por manter a conectividade entre componentes da aplicação, serviços de nuvem, redes da borda e data centers on-premises. 

 Analise os padrões de acesso à rede em sua workload para identificar como usar essas opções de local de nuvem e reduzir a distância que o tráfego de rede precisa percorrer. 

## Etapas de implementação
<a name="implementation-steps"></a>
+  Analise os padrões de acesso à rede em sua workload para identificar como os usuários utilizam sua aplicação. 
  +  Use ferramentas de monitoramento, como o [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) e o [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), para coletar dados sobre atividades de rede. 
  +  Analise os dados para identificar o padrão de acesso à rede. 
+  Selecione as regiões para implantação da workload com base nos seguintes elementos fundamentais: 
  +  **Sua meta de sustentabilidade:** conforme explicado em [Seleção de regiões](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Onde seus dados estão localizados:** para aplicações com uso intenso de dados (como big data e machine learning), o código da aplicação deve ser executado o mais perto possível dos dados. 
  +  **Onde seus usuários estão localizados**: para aplicações voltadas ao usuário, escolha uma ou mais regiões perto dos clientes da workload.
  + **Outras restrições:** considere restrições como custo e conformidade, conforme explicado em [O que considerar ao selecionar uma região para suas workloads](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Use o armazenamento em cache local ou [soluções de armazenamento em cache da AWS](https://aws.amazon.com/caching/aws-caching/) para dados usados com frequência a fim de aumentar a performance, reduzir a movimentação de dados e diminuir o impacto ambiental.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Use serviços que podem ajudar você a executar código mais perto dos usuários da workload:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Use o agrupamento de conexões para permitir a reutilização de conexões e reduzir os recursos necessários. 
+  Use datastores distribuídos que não dependem de conexões persistentes e atualizações síncronas para fins de consistência com o objetivo de atender a populações regionais. 
+  Substitua a capacidade de rede estática pré-provisionada por capacidade dinâmica compartilhada e divida o impacto sobre a sustentabilidade da capacidade de rede com outros assinantes. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [Otimizar a sua infraestrutura da AWS para sustentabilidade, Parte III: Redes](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Documentação do Amazon ElastiCache](https://docs.aws.amazon.com/elasticache/index.html) 
+  [O que é o Amazon CloudFront?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [Principais recursos do Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 
+ [Infraestrutura global da AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [Zonas locais da AWS e AWS Outposts: como escolher a tecnologia certa para sua workload de borda)](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [Grupos de posicionamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [Zonas locais da AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Vídeos relacionados:** 
+  [Desmistificar a transferência de dados na AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [Escalar a performance da rede em instâncias do Amazon EC2 de última geração](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [Vídeo explicativo de zonas locais da AWS](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [Visão geral do AWS Outposts e como ele funciona](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023: Uma estratégia de migração para workloads periféricas e on-premises](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021: AWS Outposts: como trazer a experiência da AWS para ambientes on-premises](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020: AWS Wavelength:executar aplicações com latência ultrabaixa na borda 5G](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022: Zonas locais da AWS: como criar aplicações para uma borda distribuída](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021: Criar sites de baixa latência com o Amazon CloudFront](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022: Aprimorar a performance e a disponibilidade com o AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022: Criar sua rede de longa distância usando a AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Gerenciamento de tráfego global com o Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Exemplos relacionados:** 
+  [Workshops de redes da AWS](https://catalog.workshops.aws/networking/en-US) 
+ [Arquitetura para a sustentabilidade: reduza a movimentação de dados entre redes](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Otimizar os recursos dos membros da equipe para as atividades realizadas
<a name="sus_sus_user_a6"></a>

Otimize os recursos fornecidos aos membros da equipe para minimizar o impacto sobre a sustentabilidade ambiental e, ao mesmo tempo, atender às suas necessidades. 

 **Práticas comuns que devem ser evitadas:** 
+  Você ignora o impacto dos dispositivos usados pelos membros da equipe sobre a eficiência geral de sua aplicação de nuvem. 
+  Você gerencia e atualiza manualmente os recursos usados pelos membros da equipe. 

 **Benefícios de implementar esta prática recomendada:** a otimização dos recursos dos membros da equipe melhora a eficiência geral das aplicações habilitadas para a nuvem. 

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Baixo 

## Orientação para implementação
<a name="implementation-guidance"></a>

 Conheça os recursos que os membros da equipe usam para consumir seus serviços, o ciclo de vida esperado e o impacto financeiro e na sustentabilidade. Implemente estratégias para otimizar esses recursos. Por exemplo, realize operações complexas, como renderização e compilação, em infraestrutura escalável com alta utilização em vez de em sistemas de usuário único subutilizados com alto consumo de energia. 

### Etapas de implementação
<a name="implementation-steps"></a>
+  **Use estações de trabalho energeticamente eficientes:** forneça aos membros da equipe estações de trabalho e periféricos com baixo consumo de energia. Use recursos eficientes para gerenciamento de energia (como o modo de baixo consumo de energia) nesses dispositivos para reduzir o uso de energia 
+  **Use virtualização:** use áreas de trabalho virtuais e a transmissão de aplicações para limitar os requisitos de upgrade e dispositivos. 
+  **Incentive a colaboração remota:** incentive os membros da equipe a usar ferramentas de colaboração remota como o [Amazon Chime](https://aws.amazon.com/chime/) ou o [AWS Wickr](https://aws.amazon.com/wickr/) para reduzir a necessidade de viagens e as emissões de carbono associadas. 
+  **Use software energeticamente eficiente:** forneça aos membros da equipe software de baixo consumo de energia removendo ou desativando recursos e processos desnecessários. 
+  **Gerencie os ciclos de vida:** avalie o impacto de processos e sistemas no ciclo de vida de seus dispositivos e escolha soluções que minimizem o requisito de substituição de dispositivos e, ao mesmo tempo, atendam aos requisitos comerciais. Mantenha e atualize regularmente estações de trabalho e o software para manter e melhorar a eficiência. 
+  **Gerenciamento remoto de dispositivos:** implemente o gerenciamento remoto de dispositivos para reduzir as viagens de negócios. 
  +  O [AWS Systems Manager Fleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) é uma experiência de interface do usuário (IU) unificada que ajuda você a gerenciar remotamente os nós em execução no AWS ou on-premises. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+  [O que é o Amazon WorkSpaces?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [Otimizador de custos para Amazon WorkSpaces](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Documentação do Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Vídeos relacionados:** 
+  [Gerenciar os custos do Amazon WorkSpaces na AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) 

# SUS02-BP06 Implementar armazenamento em buffer ou controle de utilização para nivelar a curva da demanda
<a name="sus_sus_user_a7"></a>

O armazenamento em buffer e o controle de utilização nivelam a curva da demanda e reduzem a capacidade provisionada necessária para sua workload. 

 **Práticas comuns que devem ser evitadas:** 
+ Você processa imediatamente as solicitações de cliente embora isso não seja necessário.
+ Você não analisa os requisitos das solicitações de cliente.

 **Benefícios de implementar esta prática recomendada:** nivelar a curva de demanda reduz a capacidade provisionada necessária para a workload. Reduzir a capacidade provisionada significa diminuir o consumo de energia e o impacto ambiental. 

 **Nível de risco exposto se esta prática recomendada não for estabelecida:** Baixo 

## Orientação para implementação
<a name="implementation-guidance"></a>

 Nivelar a curva da demanda pode ajudar você a reduzir a capacidade provisionada para uma workload e a diminuir o respectivo impacto ambiental. Considere a workload com a curva de demanda mostrada na figura a seguir. Essa workload tem dois picos e, para lidar com eles, é provisionada a capacidade de recurso mostrada pela linha laranja. Os recursos e energia usados para essa workload não são indicados pela área abaixo da curva da demanda, mas pela área abaixo da linha da capacidade provisionada, visto que é preciso ter capacidade provisionada para lidar com esses dois picos. 

![\[Forma de onda de capacidade provisionada com dois picos distintos que exigem alta capacidade provisionada.\]](http://docs.aws.amazon.com/pt_br/wellarchitected/2024-06-27/framework/images/provisioned-capacity-1.png)


 

 Você pode usar o armazenamento em buffer ou o controle de utilização para modificar a curva da demanda e atenuar os picos, o que significa menor capacidade provisionada e menor consumo de energia. Implemente o controle de utilização quando seus clientes puderem realizar novas tentativas. Implemente o armazenamento em buffer para armazenar a solicitação e adiar o processamento até um momento posterior. 

![\[Diagrama de forma de onda exibindo uma workload com picos suavizados criados usando buffer ou limitação.\]](http://docs.aws.amazon.com/pt_br/wellarchitected/2024-06-27/framework/images/provisioned-capacity-2.png)


 

 **Etapas de implementação** 
+  Analise as solicitações dos clientes para determinar como responder a elas. As perguntas a serem consideradas incluem: 
  +  Essa solicitação pode ser processada assincronamente? 
  +  O cliente tem capacidade de repetição? 
+  Se o cliente tiver capacidade de repetição, você poderá implementar o controle de utilização, que informa à origem que, se ela não puder atender à solicitação naquele momento, deverá tentar novamente mais tarde. 
  +  Você pode usar o [Amazon API Gateway](https://aws.amazon.com/api-gateway/) para implementar o controle de utilização. 
+  Para clientes que não podem realizar novas tentativas, é necessário implementar um buffer para nivelar a curva da demanda. O buffer adia o processamento de solicitações, permitindo que as aplicações executadas em diferentes taxas se comuniquem com eficácia. Uma abordagem baseada em buffer usa uma fila ou um fluxo para aceitar mensagens de produtores. As mensagens são lidas pelos consumidores e processadas, permitindo que as mensagens sejam executadas na taxa que atenda aos requisitos de negócios dos consumidores. 
  +  O [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) é um serviço gerenciado que fornece filas que permitem que um único consumidor leia mensagens individuais. 
  +  O [Amazon Kinesis](https://aws.amazon.com/kinesis/) oferece um fluxo que permite que muitos consumidores leiam as mesmas mensagens. 
+  Analise a demanda geral, a taxa de alteração e o tempo de resposta necessário para dimensionar adequadamente o controle ou buffer necessário. 

## Recursos
<a name="resources"></a>

 **Documentos relacionados:** 
+ [Conceitos básicos do Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)
+ [Integrar aplicações usando filas e mensagens](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)
+ [Gerenciar e monitorar o controle de utilização de APIs em suas workloads](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [Controlar a utilização de uma API REST em camadas e multilocatário em grande escala usando o API Gateway](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [Integrar aplicações usando filas e mensagens](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

 **Vídeos relacionados:** 
+ [AWS re:Invent 2022: padrões de integração de aplicações para microsserviços](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023: economias inteligentes: estratégias de otimização de custos no Amazon EC2](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023: padrões de integração avançados e compromissos para sistemas com acoplamento fraco](https://www.youtube.com/watch?v=FGKGdUiZKto)