

# SUS 2. Come si allineano le risorse cloud alla domanda?
<a name="sus-02"></a>

Il modo in cui gli utenti e le applicazioni utilizzano i tuoi carichi di lavoro e altre risorse può aiutarti a identificare i miglioramenti da implementare per raggiungere gli obiettivi di sostenibilità. Puoi scalare l'infrastruttura in modo che sia costantemente adatta alla domanda e verifica di usare solo le risorse minime necessarie per supportare gli utenti. Allinea i livelli di servizio alle esigenze dei clienti. Colloca le risorse in modo da limitare la rete necessaria per il loro consumo da parte di utenti e applicazioni. Rimuovi gli asset inutilizzati. Offri ai membri del team dispositivi in grado di soddisfarne le esigenze con un impatto minimo in termini di sostenibilità.

**Topics**
+ [SUS02-BP01 Scalare dinamicamente l’infrastruttura dei carichi di lavoro](sus_sus_user_a2.md)
+ [SUS02-BP02 Allinearsi agli obiettivi di sostenibilità SLAs](sus_sus_user_a3.md)
+ [SUS02-BP03 Interruzione della creazione e della manutenzione di risorse inutilizzate](sus_sus_user_a4.md)
+ [SUS02-BP04 Ottimizza il posizionamento geografico dei carichi di lavoro in base ai requisiti di rete](sus_sus_user_a5.md)
+ [SUS02-BP05 Ottimizzazione delle risorse dei membri del team in base alle attività eseguite](sus_sus_user_a6.md)
+ [SUS02-BP06 Implementare il buffering o il throttling per appiattire la curva di domanda](sus_sus_user_a7.md)

# SUS02-BP01 Scalare dinamicamente l’infrastruttura dei carichi di lavoro
<a name="sus_sus_user_a2"></a>

Usa l’elasticità del cloud e dimensiona la tua infrastruttura in modo dinamico per rispondere alla richiesta di fornitura di risorse cloud ed evitare il provisioning eccessivo nel tuo carico di lavoro.

**Anti-pattern comuni:**
+ Mancato dimensionamento dell’infrastruttura in base al carico degli utenti.
+ Costante dimensionamento manuale dell’infrastruttura.
+ Dopo un evento di dimensionamento, lasci una capacità aumentata anziché ridurre il dimensionamento.

 **Vantaggi dell’adozione di questa best practice:** configurazione e test dell’elasticità del carico di lavoro consentono di abbinare in modo ottimale l’offerta di risorse cloud alla domanda ed evitare capacità con un provisioning eccessivo. Puoi sfruttare i vantaggi dell’elasticità nel cloud per scalare automaticamente la capacità durante e dopo i picchi di richiesta ed essere sicuro di utilizzare solo il numero esatto di risorse necessario per soddisfare le esigenze aziendali.

 **Livello di rischio associato se questa best practice non fosse adottata:** medio 

## Guida all’implementazione
<a name="implementation-guidance"></a>

 Il cloud offre la flessibilità necessaria per espandere o ridurre le risorse in modo dinamico attraverso una serie di meccanismi per soddisfare i cambiamenti della domanda. La corrispondenza ottimale tra offerta e domanda consente l’impatto ambientale più basso per un carico di lavoro. 

 La domanda può essere fissa o variabile e richiede parametri e automazione, allo scopo di garantire che la gestione non diventi particolarmente onerosa. Le applicazioni possono essere scalate verticalmente (verso l’alto o verso il basso) modificando la dimensione dell’istanza, orizzontalmente (aumentando o diminuendo) modificando il numero di istanze o tramite una combinazione delle due opzioni. 

 Puoi adottare varie strategie di approccio per associare l’offerta di risorse alla domanda. 
+  **Approccio al tracciamento degli obiettivi:** monitora il parametro di dimensionamento e aumenta o diminuisci automaticamente la capacità in base alle esigenze. 
+  **Dimensionamento predittivo**: procedi a ridurre orizzontalmente in previsione delle tendenze giornaliere e settimanali. 
+  **Approccio basato sulla pianificazione:** imposta il tuo programma di dimensionamento in base alle variazioni di carico prevedibili. 
+  **Scalabilità dei servizi:** scegli servizi (come il serverless) dotati dimensionamento nativo per progettazione o con dimensionamento automatico come funzionalità. 

 Identifica i periodi di utilizzo assente o ridotto e dimensiona le risorse per evitare capacità in eccesso e migliorare il livello di efficienza. 

## Passaggi dell’implementazione
<a name="implementation-steps"></a>
+ L’elasticità corrisponde all’offerta di risorse disponibili rispetto alla relativa domanda. Istanze, container e funzioni offrono meccanismi di elasticità, sia insieme al dimensionamento automatico sia come funzionalità del servizio. AWS offre una gamma di meccanismi di dimensionamento automatico per avere la certezza che sia possibile procedere a ridurre verticalmente i carichi di lavoro in modo facile e veloce nei periodi di basso carico di utenti. Ecco alcuni esempi di meccanismi di dimensionamento automatico:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/wellarchitected/2024-06-27/framework/sus_sus_user_a2.html)
+  Si parla spesso di dimensionamento con servizi di calcolo come le istanze Amazon EC2 o le funzioni AWS Lambda. Prendi in considerazione la configurazione di servizi non di calcolo, come le unità di capacità di lettura e scrittura di [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) o le partizioni del [flusso di dati Amazon Kinesis](https://aws.amazon.com/kinesis/data-streams/) per soddisfare la domanda. 
+  Verifica che le metriche per l’aumento verticale o orizzontale siano convalidate in base al tipo di carico di lavoro implementato. Se implementi un’applicazione di transcodifica video, è previsto il 100% di utilizzo della CPU e non deve essere il parametro principale. Se necessario, puoi servirti di una [metrica personalizzata](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (ad esempio, l’utilizzo della memoria) per la policy di dimensionamento. Per scegliere la metrica corretta, consulta le linee guida seguenti per Amazon EC2: 
  +  La metrica deve essere una metrica di utilizzo valida e descrivere il livello di impiego di un'istanza. 
  +  Il valore del parametro deve aumentare e diminuire in proporzione al numero di istanze nel gruppo con scalabilità automatica. 
+  Usa il [dimensionamento dinamico](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) anziché il [dimensionamento manuale](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html) per il tuo gruppo Auto Scaling. È consigliabile utilizzare le [policy di dimensionamento del monitoraggio degli obiettivi](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) nel dimensionamento dinamico 
+  Verifica che le implementazioni dei carichi di lavoro siano in grado di aumentare orizzontalmente e ridurre orizzontalmente. Crea scenari di test per eventi in cui si procede a ridurre orizzontalmente per verificare che il carico di lavoro si comporti secondo le aspettative e che non incida sull'esperienza utente (come nel caso della perdita di sessioni persistenti). Ad esempio, puoi usare la [cronologia delle attività](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) per verificare le attività di dimensionamento per un gruppo Auto Scaling. 
+  Analizza il tuo carico di lavoro per individuare modelli prevedibili e dimensionare le tue risorse in modo proattivo, anticipando variazioni nella domanda previste e pianificate. Con il dimensionamento predittivo puoi eliminare la necessità di offrire capacità in eccedenza. Per ulteriori informazioni, consulta [Dimensionamento predittivo con Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Getting Started with Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Predictive Scaling for EC2, Powered by Machine Learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyze user behavior using Amazon OpenSearch Service, Amazon Data Firehose and Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [What is Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Monitoring DB load with Performance Insights on Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Introducing Native Support for Predictive Scaling with Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Introducing Karpenter - An Open-Source, High-Performance Kubernetes Cluster Autoscaler](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Deep Dive on Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Video correlati:** 
+ [AWS re:Invent 2023 - Scaling on AWS for the first 10 million users ](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 - Build a cost-, energy-, and resource-efficient compute environment](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 - Scaling containers from one user to millions ](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023 - Scaling FM inference to hundreds of models with Amazon SageMaker AI ](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 - Harness the power of Karpenter to scale, optimize & upgrade Kubernetes ](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Esempi correlati:** 
+ [ Autoscaling ](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 Allinearsi agli obiettivi di sostenibilità SLAs
<a name="sus_sus_user_a3"></a>

 Rivedi e ottimizza gli accordi sui livelli di servizio del carico di lavoro (SLA) in base agli obiettivi di sostenibilità per ridurre al minimo le risorse necessarie per supportare il carico di lavoro continuando a soddisfare le esigenze aziendali. 

 **Anti-pattern comuni:** 
+  I carichi di lavoro SLAs sono sconosciuti o ambigui. 
+  Sei tu a definire i tuoi SLA obiettivi in termini di disponibilità e prestazioni. 
+  Usi lo stello modello di progettazione (come l'architettura multi-AZ) per tutti i carichi di lavoro. 

 **Vantaggi derivanti dall'adozione di questa best practice:** l'allineamento SLAs agli obiettivi di sostenibilità porta a un utilizzo ottimale delle risorse soddisfacendo al contempo le esigenze aziendali. 

 **Livello di rischio associato se questa best practice non fosse adottata:** basso 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 SLAsdefinisci il livello di servizio previsto da un carico di lavoro cloud, ad esempio tempi di risposta, disponibilità e conservazione dei dati. Questi influenzano l'architettura, l'utilizzo delle risorse e l'impatto ambientale di un carico di lavoro nel cloud. A cadenza regolare, rivedi SLAs e fai dei compromessi che riducano in modo significativo l'utilizzo delle risorse in cambio di riduzioni accettabili dei livelli di servizio. 

### Passaggi dell'implementazione
<a name="implementation-steps"></a>
+  **Analizza gli obiettivi di sostenibilità:** individua gli obiettivi di sostenibilità della tua organizzazione, come la riduzione delle emissioni di carbonio o l'ottimizzazione dell'utilizzo delle risorse. 
+  **RevisioneSLAs:** valuta le tue SLAs per valutare se soddisfano i tuoi requisiti aziendali. Se stai superando i limitiSLAs, esegui un'ulteriore revisione. 
+  **Analizza i compromessi:** esamina i compromessi in termini di complessità del carico di lavoro (come un elevato volume di utenti simultanei), prestazioni (come la latenza) e impatto sulla sostenibilità (come le risorse richieste). In genere, dare la priorità a due fattori va a scapito del terzo. 
+  Adeguamento **SLAs: aggiusta** la SLAs situazione adottando compromessi che riducano in modo significativo gli impatti sulla sostenibilità in cambio di riduzioni accettabili dei livelli di servizio. 
  +  **Sostenibilità e affidabilità:** i carichi di lavoro a elevata disponibilità presentano la tendenza a un maggiore consumo di risorse. 
  +  **Sostenibilità e prestazioni:** l'utilizzo di più risorse per aumentare le prestazioni potrebbe tradursi in un maggiore impatto ambientale. 
  +  **Sostenibilità e sicurezza:** carichi di lavoro eccessivamente sicuri potrebbero avere un impatto ambientale maggiore. 
+  **Definisci la sostenibilità, SLAs se possibile:** includi la sostenibilità nel tuo carico di SLAs lavoro. Ad esempio, definisci un livello minimo di utilizzo come sostenibilità SLA per le tue istanze di calcolo. 
+  **Utilizza modelli di progettazione efficienti: utilizza modelli** di progettazione come i microservizi per dare priorità alle AWS funzioni aziendali critiche e consentire livelli di servizio inferiori (come obiettivi in termini di tempi di risposta o tempi di ripristino) per funzioni non critiche. 
+  **Comunica e stabilisci la responsabilità:** condividi le informazioni SLAs con tutte le parti interessate, inclusi il team di sviluppo e i clienti. Utilizza i report per tracciare e monitorare ilSLAs. Assegna la responsabilità per raggiungere i tuoi obiettivi di sostenibilità. SLAs 
+  **Utilizza incentivi e premi: utilizza incentivi e premi** per raggiungere o superare SLAs gli obiettivi di sostenibilità in linea con gli obiettivi di sostenibilità. 
+  **Revisione e iterazione:** rivedi e modifica regolarmente i tuoi obiettivi SLAs per assicurarti che siano in linea con l'evoluzione degli obiettivi di sostenibilità e prestazioni. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+ [ Understand resiliency patterns and trade-offs to architect efficiently in the cloud ](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Importance of Service Level Agreement for SaaS Providers](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Video correlati:** 
+ [AWS re:Invent 2023 - Capacità, disponibilità, efficienza dei costi: scegline tre](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:Invent 2023 - Architettura sostenibile: passato, presente e futuro](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 - Modelli di integrazione avanzati e compromessi per sistemi liberamente accoppiati](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 - Fornire architetture sostenibili e ad alte prestazioni](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 - Crea un ambiente di elaborazione efficiente in termini di costi, energia e risorse](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Interruzione della creazione e della manutenzione di risorse inutilizzate
<a name="sus_sus_user_a4"></a>

Disattiva le risorse non utilizzate nel tuo carico di lavoro per ridurre il numero di risorse cloud richieste per supportare la domanda e per ridurre gli sprechi.

 **Anti-pattern comuni:** 
+  Non analizzi la tua applicazione per individuare le risorse ridondanti o non più necessarie. 
+  Non rimuovi le risorse ridondanti o non più necessarie. 

 **Vantaggi dell'adozione di questa best practice:** la rimozione delle risorse non utilizzati libera risorse e migliora l'efficienza complessiva del carico di lavoro cloud. 

 **Livello di rischio associato se questa best practice non fosse adottata:** basso 

## Guida all’implementazione
<a name="implementation-guidance"></a>

 Le risorse inutilizzate consumano risorse cloud come spazio di archiviazione e potenza di elaborazione. Individuando ed eliminando queste risorse, puoi liberare capacità e ottenere un'architettura cloud più efficiente. Analizza le risorse delle applicazioni con regolarità (come report precompilati, set di dati, immagini statiche e modelli di accesso alle risorse) per identificare ridondanze, sottoutilizzi e obiettivi potenziali di disattivazione. Elimina le risorse ridondanti per ridurre gli sprechi nel tuo carico di lavoro. 

### Passaggi dell'implementazione
<a name="implementation-steps"></a>
+  **Predisponi un inventario:** redigi un inventario completo al fine di individuare tutte le risorse all'interno del tuo carico di lavoro. 
+  **Analizza l'utilizzo:** usa strumenti di monitoraggio per identificare risorse statiche non più necessarie. 
+  **Rimuovi le risorse inutilizzate:** predisponi un piano per la rimozione delle risorse non più necessarie. 
  +  Prima di rimuovere qualsiasi risorsa, valuta l'impatto della rimozione sull'architettura. 
  +  Analizza le risorse generate in sovrapposizione per rimuovere le elaborazioni ridondanti. 
  +  Aggiorna le tue applicazioni per smettere di produrre e archiviare risorse che non sono più necessarie. 
+  **Comunica con le terze parti:** indica alle terze parti di smettere di produrre e di archiviare per tuo conto risorse gestite non più necessarie. Chiedi di consolidare le risorse ridondanti. 
+  **Usa le policy del ciclo di vita:** serviti delle policy del ciclo di vita per l'eliminazione in automatico le risorse inutilizzate. 
  +  Puoi utilizzare il [ciclo di vita Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) per gestire gli oggetti durante il loro ciclo di vita. 
  +  È possibile utilizzare [Amazon Data Lifecycle Manager](https://docs.aws.amazon.com/ebs/latest/userguide/snapshot-lifecycle.html) per automatizzare la creazione, la conservazione e l'eliminazione degli snapshot Amazon EBS e delle AMI supportate da Amazon EBS. 
+  **Rivedi e ottimizza:** esamina con regolarità il tuo carico di lavoro per individuare e rimuovere risorse non utilizzate. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Optimizing your AWS Infrastructure for Sustainability, Part II: Storage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [ How do I terminate active resources that I no longer need on my Account AWS? ](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Video correlati:** 
+ [AWS re:Invent 2023 - Sustainable architecture: Past, present, and future ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2022 - Preserving and maximizing the value of digital media assets using Amazon S3 ](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023 - Optimize costs in your multi-account environments ](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Ottimizza il posizionamento geografico dei carichi di lavoro in base ai requisiti di rete
<a name="sus_sus_user_a5"></a>

Seleziona le sedi cloud e i servizi per il carico di lavoro per ridurre la distanza che il traffico di rete deve percorrere e diminuire così le risorse totali di rete richieste per supportare il carico di lavoro.

 ** Anti-pattern comuni: ** 
+  Selezione della regione del carico di lavoro in base alla propria collocazione. 
+  Consolidamento di tutte le risorse del carico di lavoro in un'unica posizione geografica. 
+  Tutto il traffico passa attraverso i data center esistenti. 

 **Vantaggi dell'adozione di questa best practice:** il posizionamento di un carico di lavoro in prossimità dei relativi utenti garantisce la latenza più bassa possibile e la contemporanea riduzione del trasferimento dei dati nella rete e dell'impatto ambientale. 

 **Livello di rischio associato se questa best practice non fosse adottata:** medio 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 L' Cloud AWS infrastruttura è costruita attorno a opzioni di localizzazione come Regioni, Zone di disponibilità, gruppi di collocamento e edge location come [AWS OutpostsAWS](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html)[Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Queste opzioni relative alle sedi sono responsabili della gestione della connettività tra i componenti delle applicazioni, i servizi cloud, le reti edge e i data center on-premises. 

 Analizza i modelli di accesso alla rete nel tuo carico di lavoro per stabilire come usare queste opzioni relative alle sedi cloud e ridurre la distanza che il traffico di rete deve percorrere. 

## Passaggi dell'implementazione
<a name="implementation-steps"></a>
+  Analizza i modelli di accesso alla rete nel tuo carico di lavoro per capire come gli utenti usano la tua applicazione. 
  +  Utilizza strumenti di monitoraggio, come [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) e [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), per raccogliere dati sulle attività di rete. 
  +  Analizza i dati per identificare il modello di accesso alla rete. 
+  Seleziona le regioni appropriate per l'implementazione del carico di lavoro in base ai seguenti elementi chiave: 
  +  **Il tuo obiettivo di sostenibilità:** come illustrato nella sezione [Selezione della regione](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html). 
  +  **Ubicazione dei dati** per le applicazioni a uso intensivo di dati, ad esempio applicazioni di big data e machine learning, il codice dell'applicazione dovrebbe essere eseguito il più vicino possibile ai dati. 
  +  **Ubicazione degli utenti:** per le applicazioni rivolte agli utenti, scegli una regione o più regioni vicine agli utenti del carico di lavoro.
  + **Altri vincoli:** prendi in considerazione vincoli, come costi e conformità, come illustrato in [What to Consider when Selecting a Region for your Workloads](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/).
+  Usa la cache locale o le [soluzioni di caching AWS](https://aws.amazon.com/caching/aws-caching/) per i dati di frequente utilizzo per migliorare le performance, ridurre lo spostamento dei dati e minimizzare l'impatto ambientale.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Utilizza servizi in grado di supportarti nell'esecuzione del codice in posizioni più vicine agli utenti del carico di lavoro:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Utilizza il pooling delle connessioni per consentire il loro riutilizzo e ridurre le risorse richieste. 
+  Utilizza archivi di dati distribuiti che non si affidano a connessioni persistenti e aggiornamenti sincroni per garantire coerenza e servire le popolazioni regionali. 
+  Sostituisci la capacità di rete statica preallocata con una capacità dinamica condivisa e condividi l'impatto in termini di sostenibilità della capacità di rete con altri abbonati. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Ottimizzazione dell' AWS infrastruttura per la sostenibilità, parte: rete III](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [ ElastiCache Documentazione Amazon](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Che cos'è Amazon CloudFront?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [Caratteristiche CloudFront principali di Amazon](https://aws.amazon.com/cloudfront/features/) 
+ [AWS Infrastruttura globale](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones e AWS Outposts scelta della tecnologia giusta per il tuo carico di lavoro edge](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [ Placement groups ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Video correlati:** 
+  [Demistificazione del trasferimento di dati su AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [Scalabilità delle prestazioni di rete sulle istanze Amazon di nuova generazione EC2](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [AWS Video esplicativo su Local Zones](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How it Works ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 - Una strategia di migrazione per carichi di lavoro edge e locali](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021 -: Portare l'esperienza in sede AWS OutpostsAWS](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 - AWS Wavelength: Esegui app con latenza ultra bassa sull'edge 5G](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 - AWS Local Zones: creazione di applicazioni per un edge distribuito](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 - Creazione di siti Web a bassa latenza con Amazon CloudFront](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 - Migliora le prestazioni e la disponibilità con AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 - Costruisci la tua rete WAN utilizzando AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: gestione globale del traffico con Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Esempi correlati:** 
+  [AWS Workshop di networking](https://catalog.workshops.aws/networking/en-US) 
+ [ Architecting for sustainability - Minimize data movement across networks ](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Ottimizzazione delle risorse dei membri del team in base alle attività eseguite
<a name="sus_sus_user_a6"></a>

Ottimizza le risorse fornite ai membri del team per ridurre al minimo l'impatto sulla sostenibilità ambientale e supportare al tempo stesso le loro esigenze. 

 **Anti-pattern comuni:** 
+  Ignori l'impatto dei dispositivi utilizzati dai membri del tuo team sull'efficienza complessiva della tua applicazione cloud. 
+  Gestisci e aggiorni manualmente le risorse utilizzate dai membri del tuo team. 

 **Vantaggi dell'adozione di questa best practice:** migliore efficienza complessiva delle applicazioni abilitate per il cloud grazie all'ottimizzazione delle risorse dei membri del team. 

 **Livello di rischio associato se questa best practice non fosse adottata:** basso 

## Guida all’implementazione
<a name="implementation-guidance"></a>

 Identifica le risorse che i membri del tuo team usano per accedere ai tuoi servizi, il loro ciclo di vita atteso e l'impatto finanziario e di sostenibilità. Implementa strategie per ottimizzare queste risorse. Esegui ad esempio operazioni complesse, come rendering e compilazione, su infrastrutture scalabili altamente utilizzate, invece che su sistemi per utenti singoli, sottoutilizzati e con un alto dispendio energetico. 

### Passaggi dell'implementazione
<a name="implementation-steps"></a>
+  **Utilizza workstation efficienti dal punto di vista energetico:** fornisci ai membri del team workstation e periferiche efficienti dal punto di vista energetico. Utilizza in questi dispositivi funzionalità di gestione dell'alimentazione efficienti, come la modalità di risparmio energetico, per ridurne il consumo di energia. 
+  **Usa la virtualizzazione:** usa desktop virtuali e lo streaming di applicazioni per limitare gli aggiornamenti e i requisiti dei dispositivi. 
+  **Favorisci la collaborazione remota:** incoraggia i membri del team a servirsi di strumenti di collaborazione remota come [Amazon Chime](https://aws.amazon.com/chime/) o [AWS Wickr](https://aws.amazon.com/wickr/) al fine di ridurre la necessità di spostamenti e le emissioni di carbonio associate. 
+  **Usa software a basso consumo energetico:** fornisci ai membri del team software a basso consumo energetico, procedendo a rimuovere o disattivare funzionalità e processi non necessari. 
+  **Gestisci i cicli di vita:** valuta l'impatto di processi e sistemi sul ciclo di vita dei tuoi dispositivi e seleziona soluzioni che riducono al minimo i requisiti per la sostituzione dei dispositivi, pur continuando a soddisfare i requisiti di business. Effettua regolarmente la manutenzione e l'aggiornamento delle workstation o del software per conservare e migliorare l'efficienza. 
+  **Gestione remota dei dispositivi:** implementa la gestione remota dei dispositivi per ridurre gli spostamenti aziendali. 
  +  [AWS Systems Manager Fleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) è un'esperienza di interfaccia utente unificata che ti aiuta a gestire da remoto i nodi in esecuzione su AWS oppure on-premises. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [What is Amazon WorkSpaces?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [ Cost Optimizer for Amazon WorkSpaces ](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Documentazione di Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Video correlati:** 
+  [Managing cost for Amazon WorkSpaces on AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) 

# SUS02-BP06 Implementare il buffering o il throttling per appiattire la curva di domanda
<a name="sus_sus_user_a7"></a>

Il buffering e la limitazione (della larghezza di banda della rete) riducono la curva delle richieste e la capacità allocata per il tuo carico di lavoro. 

 **Anti-pattern comuni:** 
+ Elabori immediatamente le richieste del client, anche se non è necessario.
+ Non analizzi i requisiti relativi alle richieste dei clienti.

 **Vantaggi dell'adozione di questa best practice:** riduzione della curva della domanda in modo da diminuire la capacità allocata richiesta per il carico di lavoro Ridurre la capacità allocata significa ridurre il consumo di energia e contenere l'impatto ambientale. 

 **Livello di rischio associato se questa best practice non fosse adottata:** basso 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 Diminuire la curva della domanda del carico di lavoro può aiutarti a ridurre la capacità allocata di un carico di lavoro, oltre al suo impatto sull'ambiente. Supponiamo che un carico di lavoro abbia la curva della domanda mostrata nella figura qui sotto. Questo carico di lavoro presenta due picchi e per gestire tali picchi viene eseguito il provisioning della capacità di risorse mostrata dalla linea arancione. Le risorse e l'energia utilizzate per questo carico di lavoro non sono indicate nell'area sotto la curva della domanda, ma nell'area sotto la linea della capacità fornita, poiché per gestire questi due picchi è necessario eseguire il provisioning di tale capacità. 

![\[Onda della capacità allocata con due picchi distinti che richiedono un'elevata capacità allocata.\]](http://docs.aws.amazon.com/it_it/wellarchitected/2024-06-27/framework/images/provisioned-capacity-1.png)


 

 Puoi usare il buffering o la limitazione (della larghezza di banda della rete) per modificare la curva della domanda e appianare i picchi, con conseguente diminuzione della capacità allocata e consumo inferiore di energia. Implementa la limitazione (della larghezza di banda della rete) quando i client eseguono nuovi tentativi. Implementa il buffering per archiviare la richiesta e rinviare l'elaborazione a un secondo momento. 

![\[Diagramma a onda che mostra un carico di lavoro con picchi attenuati grazie al buffering o alla limitazione (della larghezza di banda della rete)\]](http://docs.aws.amazon.com/it_it/wellarchitected/2024-06-27/framework/images/provisioned-capacity-2.png)


 

 **Passaggi dell'implementazione** 
+  Analizza le richieste del client per stabilire come rispondere. Le domande da considerare includono: 
  +  Questa richiesta può essere elaborata in modo asincrono? 
  +  Il client ha la possibilità di ripetere i tentativi? 
+  Se il client ha la possibilità di ripetere i tentativi puoi implementare la limitazione (della larghezza di banda della rete), che indica alla sorgente che, se non è in grado di soddisfare la richiesta all'ora corrente, dovrebbe riprovare più tardi. 
  +  Puoi utilizzare [Amazon API Gateway](https://aws.amazon.com/api-gateway/) per implementare il throttling. 
+  Per i client che non possono eseguire altri tentativi, è necessario implementare un buffer per ridurre i picchi della curva della domanda. Il buffering rinvia l'elaborazione delle richieste, consentendo alle applicazioni eseguite a velocità diverse di comunicare in modo efficace. Un approccio basato sul buffering impiega una coda o un flusso per l'accettazione dei messaggi dai produttori. I messaggi vengono letti ed elaborati dai consumatori e ciò consente ai messaggi di essere eseguiti alla velocità che soddisfa i requisiti aziendali del consumatore stesso. 
  +  [Amazon Simple Queue Service (AmazonSQS)](https://aws.amazon.com/sqs/) è un servizio gestito che fornisce code che consentono a un singolo consumatore di leggere singoli messaggi. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) offre un flusso che consente a più consumatori di leggere gli stessi messaggi. 
+  Analizza la domanda complessiva, la velocità di modifica e il tempo di risposta richiesto per determinare le dimensioni della limitazione (della larghezza di banda della rete) o del buffer richiesto. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+ [Guida introduttiva ad Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)
+ [Gestione e monitoraggio della API limitazione dei carichi di lavoro](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [Limitazione su larga scala di un sistema multi-tenant su più livelli utilizzando Gateway REST API API](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [ Application integration Using Queues and Messages ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

 **Video correlati:** 
+ [AWS re:Invent 2022 - Modelli di integrazione delle applicazioni per microservizi](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 - Risparmio intelligente: strategie di ottimizzazione dei costi di Amazon EC2](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 - Modelli di integrazione avanzati e compromessi per sistemi scarsamente accoppiati](https://www.youtube.com/watch?v=FGKGdUiZKto)