

# Ausrichtung am Bedarf
<a name="a-alignment-to-demand"></a>

**Topics**
+ [

# SUS 2 Wie richten Sie Cloud-Ressourcen am Bedarf aus?
](sus-02.md)

# SUS 2 Wie richten Sie Cloud-Ressourcen am Bedarf aus?
<a name="sus-02"></a>

Wenn Sie berücksichtigen, wie Benutzer und Anwendungen Ihre Workloads und andere Ressourcen nutzen, können Sie auf diese Weise Verbesserungsmöglichkeiten ermitteln, um Nachhaltigkeitsziele zu erreichen. Skalieren Sie Ihre Infrastruktur so, dass Sie den Bedarf kontinuierlich anpassen können. Sorgen Sie zudem dafür, dass zur Unterstützung Ihrer Benutzer nicht mehr Ressourcen verwendet werden als unbedingt nötig. Richten Sie Service-Levels an den Kundenanforderungen aus. Positionieren Sie Ressourcen so, dass die Netzwerkkapazitäten, die für Benutzer und Anwendungen erforderlich sind, begrenzt werden. Entfernen Sie ungenutzte Komponenten. Stellen Sie Teammitgliedern Geräte zur Verfügung, die ihre Anforderungen bei geringstmöglichen Auswirkungen auf die Nachhaltigkeit erfüllen.

**Topics**
+ [

# SUS02-BP01 Dynamisches Skalieren der Workload-Infrastruktur
](sus_sus_user_a2.md)
+ [

# SUS02-BP02 An den Nachhaltigkeitszielen SLAs ausrichten
](sus_sus_user_a3.md)
+ [

# SUS02-BP03 Beenden der Erstellung und Wartung nicht verwendeter Komponenten
](sus_sus_user_a4.md)
+ [

# SUS02-BP04 Optimieren Sie die geografische Verteilung von Workloads auf der Grundlage ihrer Netzwerkanforderungen
](sus_sus_user_a5.md)
+ [

# SUS02-BP05 Optimieren von Ressourcen für Teammitglieder im Hinblick auf die ausgeführten Aktivitäten
](sus_sus_user_a6.md)
+ [

# SUS02-BP06 Implementieren Sie Pufferung oder Drosselung, um die Nachfragekurve abzuflachen
](sus_sus_user_a7.md)

# SUS02-BP01 Dynamisches Skalieren der Workload-Infrastruktur
<a name="sus_sus_user_a2"></a>

Nutzen Sie die Elastizität der Cloud und skalieren Sie Ihre Infrastruktur dynamisch, um das Angebot an Cloud-Ressourcen an den Bedarf anzupassen und eine Überbereitstellung von Kapazitäten in Ihrer Workload zu vermeiden.

**Typische Anti-Muster:**
+ Sie skalieren Ihre Infrastruktur nicht mit der Benutzerlast.
+ Sie skalieren Ihre Infrastruktur immer manuell.
+ Sie behalten die erhöhte Kapazität nach dem Hochskalieren bei, anstatt sie wieder herunterzuskalieren.

 **Vorteile der Nutzung dieser bewährten Methode:** Das Konfigurieren und Testen der Workload-Elastizität trägt dazu bei, das Angebot an Cloud-Ressourcen effizient an den Bedarf anzupassen und eine Überbereitstellung von Kapazitäten zu vermeiden. Sie können die Vorteile der Elastizität in der Cloud nutzen, um die Kapazität während und nach Bedarfsspitzen automatisch zu skalieren und so sicherzustellen, dass Sie nur die Menge an Ressourcen nutzen, die für die Erfüllung Ihrer Geschäftsanforderungen erforderlich ist.

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Cloud bietet Ihnen die Flexibilität, Ressourcen dynamisch durch verschiedene Mechanismen zu erweitern oder zu reduzieren, um einem veränderten Bedarf gerecht zu werden. Eine optimale Abstimmung von Angebot und Bedarf führt zu den geringsten Auswirkungen auf die Umgebung für eine Workload. 

 Der Bedarf kann fest oder variabel sein und erfordert Metriken und Automatisierung, um sicherzustellen, dass die Verwaltung nicht zur Last wird. Anwendungen können vertikal (hoch oder herunter) und/oder horizontal (ab oder auf) skaliert werden. Bei der vertikalen Skalierung wird die Instance-Größe geändert, bei der horizontalen Skalierung die Anzahl von Instances. 

 Sie können verschiedene Ansätze nutzen, um das Angebot an Ressourcen auf den Bedarf abzustimmen. 
+  **Zielverfolgungsansatz:** Überwachen Sie Ihre Skalierungsmetriken und erhöhen oder verringern Sie die Kapazität automatisch nach Bedarf. 
+  **Prädiktives Skalieren:** Skalieren Sie auf der Grundlage erwarteter täglicher und wöchentlicher Trends. 
+  **Zeitplanbasierter Ansatz:** Legen Sie einen eigenen Skalierungszeitplan auf der Grundlage vorhersehbarer Laständerungen fest. 
+  **Service-Skalierung:** Wählen Sie Services (beispielsweise Serverless) aus, die nativ von Natur aus skalierbar sind oder Auto Scaling als Feature bieten. 

 Identifizieren Sie Zeiträume mit geringer oder gar keiner Nutzung und skalieren Sie Ressourcen, um überschüssige Kapazitäten zu entfernen und die Effizienz zu verbessern. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+ Elastizität ermöglicht die Anpassung der verfügbaren Ressourcen an den Bedarf. Instances, Container und Funktionen bieten Mechanismen für Elastizität, entweder in Kombination mit Auto Scaling oder als Feature des Service. AWS bietet eine Reihe von Mechanismen für Auto Scaling, um sicherzustellen, dass Workloads in Zeiten geringer Benutzerlast schnell und einfach herunterskaliert werden können. Hier sind einige Beispiele für Auto-Scaling-Mechanismen:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/sus_sus_user_a2.html)
+  Skalieren wird häufig im Zusammenhang mit Datenverarbeitungs-Services wie Amazon-EC2-Instances oder AWS Lambda-Funktionen behandelt. Ziehen Sie die Konfiguration von nicht Daten verarbeitenden Services wie Lese- und Schreibkapazitätseinheiten von [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) oder Shards von [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/) in Betracht, um den Bedarf zu decken. 
+  Vergewissern Sie sich, dass die Metriken zum Hoch- oder Herunterskalieren für die jeweilige Art der bereitgestellten Workload überprüft werden. Wenn Sie eine Anwendung zur Video-Transkodierung bereitstellen, wird eine CPU-Auslastung von 100 % erwartet, weshalb dies nicht die Hauptmetrik sein sollte. Sie können bei Bedarf eine [benutzerdefinierte Metrik](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (etwa die Speicherauslastung) für Ihre Skalierungsrichtlinie verwenden. Beachten Sie bei der Wahl geeigneter Metriken die folgenden Hinweise für Amazon EC2: 
  +  Es muss sich um eine gültige Nutzungsmetrik handeln, die beschreibt, wie stark eine Instance genutzt wird. 
  +  Der Wert der Metrik muss sich proportional zur Anzahl der Instances in der Auto-Scaling-Gruppe erhöhen oder verringern. 
+  Verwenden Sie für Ihre Auto-Scaling-Gruppe eine [dynamische Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) anstelle einer [manuellen Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html). Außerdem empfiehlt es sich, bei der dynamischen Skalierung [Skalierungsrichtlinien zur Zielverfolgung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) zu verwenden. 
+  Vergewissern Sie sich, dass Workload-Bereitstellungen sowohl Hoch- als auch Herunterskalierungsereignisse behandeln können. Erstellen Sie Testszenarien für Herunterskalierungsereignisse, um sich zu vergewissern, dass sich die Workload wie erwartet verhält und die Benutzererfahrung nicht beeinträchtigt wird (etwa durch den Verlust von Sticky Sessions). Sie können den [Aktivitätsverlauf](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) verwenden, um eine Skalierungsaktivität für eine Auto-Scaling-Gruppe zu überprüfen. 
+  Überprüfen Sie Ihre Workload auf vorhersagbare Muster und skalieren Sie proaktiv, wenn Sie vorhergesagte und geplante Bedarfsänderungen erwarten. Mit der prädiktiven Skalierung können Sie die Notwendigkeit einer Überbereitstellung von Kapazitäten vermeiden. Weitere Einzelheiten finden Sie unter [Prädiktive Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Erste Schritte mit Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Prädiktive Skalierung für EC2, unterstützt von Machine Learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analysieren des Benutzerverhaltens mit Amazon OpenSearch Service, Amazon Data Firehose und Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Was ist Amazon CloudWatch?](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) 
+  [Überwachen der DB-Last mit Performance Insights in Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Vorstellung von nativer Unterstützung für die prädiktive Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Vorstellung von Karpenter – Open-Source-Kubernetes-Cluster-Autoscaler mit hoher Leistung](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Detaillierte Einblicke in Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Zugehörige Videos:** 
+ [AWS re:Invent 2023 – Skalierung in AWS für die ersten 10 Millionen Benutzer ](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 – Nachhaltige Architektur: Vergangenheit, Gegenwart und Zukunft ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 – Entwickeln einer kosten-, energie- und ressourceneffizienten Computing-Umgebung](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 – Container-Skalierung von einem einzelnen Benutzer auf mehrere Millionen ](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023 – Skalierung der FM-Inferenz auf Hunderte von Modellen mit Amazon SageMaker AI ](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 – Nutzung der Leistungsfähigkeit von Karpenter für die Skalierung, Optimierung und Aktualisierung von Kubernetes ](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Zugehörige Beispiele:** 
+ [ Auto Scaling ](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 An den Nachhaltigkeitszielen SLAs ausrichten
<a name="sus_sus_user_a3"></a>

 Überprüfen und optimieren Sie die Service-Level-Vereinbarungen (SLA) für die Arbeitslast auf der Grundlage Ihrer Nachhaltigkeitsziele, um den Ressourcenaufwand für Ihre Arbeitslast zu minimieren und gleichzeitig die Geschäftsanforderungen zu erfüllen. 

 **Typische Anti-Muster:** 
+  SLAsDie Arbeitslast ist unbekannt oder mehrdeutig. 
+  Sie definieren Ihren SLA nur aus Gründen der Verfügbarkeit und Leistung. 
+  Sie verwenden für alle Ihre Workloads die gleichen Designmuster (wie etwa Multi-AZ-Architektur). 

 **Vorteile der Einführung dieser bewährten Methode:** Die Ausrichtung an SLAs Nachhaltigkeitszielen führt zu einer optimalen Ressourcennutzung bei gleichzeitiger Erfüllung der Geschäftsanforderungen. 

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 SLAsdefinieren Sie das Serviceniveau, das von einem Cloud-Workload erwartet wird, z. B. Reaktionszeit, Verfügbarkeit und Datenspeicherung. Sie beeinflussen die Architektur, die Ressourcennutzung und die Umweltauswirkungen einer Cloud-Workload. Prüfen Sie in regelmäßigen Abständen SLAs und gehen Sie Kompromisse ein, die den Ressourcenverbrauch deutlich reduzieren und im Gegenzug akzeptable Verringerungen der Serviceniveaus ermöglichen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Nachhaltigkeitsziele verstehen:** Identifizieren Sie Nachhaltigkeitsziele in Ihrer Organisation – etwa eine Reduzierung des CO2-Ausstoßes oder eine bessere Ressourcennutzung. 
+  **ÜberprüfungSLAs:** Evaluieren Sie Ihre ProdukteSLAs, um zu beurteilen, ob sie Ihren Geschäftsanforderungen entsprechen. Wenn Sie diese Werte überschreitenSLAs, führen Sie eine weitere Überprüfung durch. 
+  **Kompromisse verstehen:** Machen Sie sich ein Bild von den Kompromissen zwischen der Komplexität (zum Beispiel hohe Anzahl gleichzeitiger Benutzer), der Leistung (zum Beispiel Latenz) und den Auswirkungen auf die Nachhaltigkeit Ihrer Workloads (zum Beispiel Ressourcenbedarf). In der Regel geht die Priorisierung von zwei der Faktoren auf Kosten des dritten. 
+  **AnpassungSLAs: Passen** Sie Ihre Situation an, SLAs indem Sie Kompromisse eingehen, die die Auswirkungen auf die Nachhaltigkeit deutlich reduzieren, und im Gegenzug akzeptable Verringerungen des Serviceniveaus vornehmen. 
  +  **Nachhaltigkeit und Zuverlässigkeit:** Workloads mit hoher Verfügbarkeit verbrauchen in der Regel mehr Ressourcen. 
  +  **Nachhaltigkeit und Leistung:** Die Nutzung von mehr Ressourcen, um die Leistung zu steigern, führt unter Umständen zu einer höheren Umweltbelastung. 
  +  **Nachhaltigkeit und Sicherheit:** Übermäßig sichere Workloads haben möglicherweise eine höhere Umweltbelastung zur Folge. 
+  **Definieren Sie Nachhaltigkeit, SLAs wenn möglich: Beziehen Sie** Nachhaltigkeit in Ihren Workload mit SLAs ein. Definieren Sie beispielsweise ein Mindestauslastungsniveau als Nachhaltigkeit SLA für Ihre Recheninstanzen. 
+  **Verwenden Sie effiziente Entwurfsmuster:** Verwenden Sie Entwurfsmuster wie Microservices AWS , die geschäftskritischen Funktionen Priorität einräumen und niedrigere Service-Levels (wie Reaktionszeit- oder Wiederherstellungszeitziele) für unkritische Funktionen ermöglichen. 
+  **Kommunizieren Sie und legen Sie Rechenschaftspflichten fest:** Teilen Sie diese Informationen SLAs mit allen relevanten Stakeholdern, einschließlich Ihrem Entwicklungsteam und Ihren Kunden. Verwenden Sie die Berichterstattung, um die zu verfolgen und zu überwachen. SLAs Weisen Sie Rechenschaftspflicht zu, um die Nachhaltigkeitsziele für Sie SLAs zu erreichen. 
+  **Nutzen Sie Anreize und Prämien:** Nutzen Sie Anreize und Prämien, um Nachhaltigkeitsziele zu erreichen oder zu übertreffenSLAs. 
+  **Überprüfen und wiederholen:** Überprüfen Sie Ihre Ziele regelmäßig und passen Sie sie anSLAs, um sicherzustellen, dass sie mit den sich entwickelnden Nachhaltigkeits- und Leistungszielen in Einklang stehen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [ Grundlegendes zu Resilienzmustern und Kompromissen, um eine effiziente Architektur in der Cloud zu entwickeln ](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Bedeutung von Service Level Agreements für SaaS-Anbieter](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Zugehörige Videos:** 
+ [AWS re:Invent 2023 — Kapazität, Verfügbarkeit, Kosteneffizienz: Wählen Sie drei](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:INVENT 2023 — Nachhaltige Architektur: Vergangenheit, Gegenwart und future](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 — Fortschrittliche Integrationsmuster und Kompromisse für lose gekoppelte Systeme](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 — Bereitstellung nachhaltiger, leistungsstarker Architekturen](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 — Schaffen Sie eine kosten-, energie- und ressourceneffiziente Computerumgebung](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Beenden der Erstellung und Wartung nicht verwendeter Komponenten
<a name="sus_sus_user_a4"></a>

Nehmen Sie nicht verwendete Ressourcen in Ihrer Workload außer Betrieb, um die Anzahl der Cloud-Ressourcen zu verringern, die zur Unterstützung Ihres Bedarfs und zur Minimierung von Verschwendung erforderlich sind.

 **Typische Anti-Muster:** 
+  Sie analysieren Ihre Anwendung nicht auf Ressourcen, die redundant sind oder nicht mehr benötigt werden. 
+  Sie entfernen keine redundanten oder nicht mehr benötigten Ressourcen. 

 **Vorteile der Nutzung dieser bewährten Methode:** Das Entfernen nicht genutzter Ressourcen setzt Kapazitäten frei und verbessert die allgemeine Effizienz der Workload. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Nicht verwendete Ressourcen verbrauchen Cloud-Kapazitäten wie Speicherplatz oder Rechenleistung. Wenn Sie solche Ressourcen identifizieren und eliminieren, können Sie diese Kapazitäten freisetzen, was zu einer effizienteren Cloud-Architektur führt. Analysieren Sie Anwendungsressourcen (wie vorab kompilierte Berichte, Datensätze, statische Bilder) sowie Zugriffsmuster für Komponenten, um Redundanzen, eine zu geringe Auslastung und mögliche Kandidaten für die Außerbetriebnahme zu identifizieren. Entfernen Sie diese redundanten Ressourcen, um die Ressourcenverschwendung in Ihrer Workload zu reduzieren. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Bestandsaufnahme durchführen:** Führen Sie eine umfassende Bestandsaufnahme durch, um alle Komponenten innerhalb Ihrer Workload zu identifizieren. 
+  **Nutzung analysieren:** Verwenden Sie die kontinuierliche Überwachung, um statische Komponenten zu identifizieren, die nicht mehr benötigt werden. 
+  **Ungenutzte Komponenten entfernen:** Entwickeln Sie einen Plan, um Komponenten zu entfernen, die nicht mehr benötigt werden. 
  +  Prüfen Sie vor dem Entfernen einer Ressource die Auswirkungen dieser Maßnahme auf die Architektur. 
  +  Konsolidieren Sie sich überschneidende generierte Komponenten, um eine redundante Verarbeitung zu entfernen. 
  +  Aktualisieren Sie Ihre Anwendungen, damit diese nicht mehr benötigte Ressourcen nicht weiter produzieren und speichern. 
+  **Mit Dritten kommunizieren:** Weisen Sie Dritte an, die Erstellung und Speicherung von Komponenten einzustellen, die in Ihrem Auftrag verwaltet und nicht mehr benötigt werden. Bitten Sie darum, dass redundante Komponenten konsolidiert werden. 
+  **Lebenszyklusrichtlinien verwenden:** Verwenden Sie Lebenszyklusrichtlinien, damit ungenutzte Komponenten automatisch gelöscht werden. 
  +  Mit [Amazon-S3-Lebenszyklen](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) können Sie Ihre Objekte während ihres gesamten Lebenszyklus verwalten. 
  +  Mit [Amazon Data Lifecycle Manager](https://docs.aws.amazon.com/ebs/latest/userguide/snapshot-lifecycle.html) lassen sich das Erstellen, Aufbewahren und Löschen von Amazon-EBS-Snapshots und Amazon-EBS-gestützten AMIs automatisieren. 
+  **Überprüfen und optimieren:** Überprüfen Sie regelmäßig Ihre Workload, um ungenutzte Komponenten zu identifizieren und zu entfernen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Optimizing your AWS Infrastructure for Sustainability, Part II: Storage](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [How do I terminate active resources that I no longer need on my AWS-Konto?](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Zugehörige Videos:** 
+ [AWS re:Invent 2.023 - Sustainable architecture: Past, present, and future](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2.022 - Preserving and maximizing the value of digital media assets using Amazon S3](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2.023 - Optimize costs in your multi-account environments](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Optimieren Sie die geografische Verteilung von Workloads auf der Grundlage ihrer Netzwerkanforderungen
<a name="sus_sus_user_a5"></a>

Wählen Sie Cloud-Standorte und -Services für Ihre Workload, die die Entfernungen reduzieren, über die Netzwerkdatenverkehr übertragen werden muss, um die Zahl der Netzwerkressourcen zu verringern, die zur Unterstützung Ihre Workload erforderlich sind.

 **Typische Anti-Muster:** 
+  Sie wählen die Region der Workload auf der Grundlage Ihres eigenen Standorts aus. 
+  Sie konsolidieren alle Workload-Ressourcen an einem geografischen Standort. 
+  Der gesamte Datenverkehr fließt durch Ihre bestehenden Rechenzentren. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Platzierung von Workloads in der Nähe der Benutzer bietet die geringstmögliche Latenz und verringert gleichzeitig die Bewegung der Daten durch das Netzwerk und damit die Umweltauswirkungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die AWS Cloud Infrastruktur basiert auf Standortoptionen wie Regionen, Availability Zones, Platzierungsgruppen und Edge-Standorten wie [AWS OutpostsAWS](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html)[Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Diese Standortoptionen stellen die Konnektivität zwischen Anwendungskomponenten, Cloud-Services, Edge-Netzwerken und On-Premises-Rechenzentren sicher. 

 Analysieren Sie die Netzwerkzugriffsmuster in Ihrer Workload, um festzustellen, wie diese verwendet werden können, um die Entfernungen für den Netzwerkdatenverkehr zu reduzieren. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+  Analysieren Sie die Netzwerkzugriffsmuster in Ihrer Workload, um zu ermitteln, wie die Benutzer Ihre Anwendung verwenden. 
  +  Verwenden Sie Überwachungstools wie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) und [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), um Daten zu Netzwerkaktivitäten zu sammeln. 
  +  Analysen Sie die Daten, um das Netzwerkzugriffsmuster zu identifizieren. 
+  Wählen Sie die Regionen für Ihre Workload-Bereitstellung auf der Grundlage der folgenden zentralen Elemente aus: 
  +  **Ihr Nachhaltigkeitsziel:** wie unter [Regionsauswahl](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html) erklärt. 
  +  **Standort Ihrer Daten:** Für datenintensive Anwendungen (wie etwa Big Data oder Machine Learning) sollte der Anwendungscode so nahe wie möglich zu den Daten ausgeführt werden. 
  +  **Standort Ihrer Benutzer:** Wählen Sie für benutzerseitige Anwendungen eine Region (oder Regionen) in der Nähe der Benutzer der Workload.
  + **Weitere Einschränkungen**: Berücksichtigen Sie Einschränkungen wie Kosten und Compliance, wie unter [Relevante Aspekte bei der Wahl einer Region für Ihre Workloads](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/) erläutert.
+  Verwenden Sie lokale Zwischenspeicherung oder [AWS -Zwischenspeicherung](https://aws.amazon.com/caching/aws-caching/) für häufig genutzte Ressourcen zur Verbesserung der Leistung, zur Verringerung von Datenverschiebungen und zur Reduzierung der Umweltauswirkungen.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/sus_sus_user_a5.html)
+  Nutzen Sie Services, die Ihnen dabei helfen können, Code näher an den Benutzern Ihrer Workload auszuführen:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/sus_sus_user_a5.html)
+  Nutzen Sie Verbindungspooling, um die erneute Nutzung von Verbindungen zu ermöglichen und die Zahl der erforderlichen Ressourcen zu reduzieren. 
+  Verwenden Sie verteilte Datenspeicher, die nicht auf persistente Verbindungen und synchrone Updates angewiesen sind, um regionale Benutzergruppen zu unterstützen. 
+  Ersetzen Sie vorab bereitgestellte statische Netzwerkkapazität durch geteilte dynamische Kapazitäten und teilen Sie die Auswirkungen von Netzwerkkapazitäten auf die Nachhaltigkeit mit anderen Abonnenten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Optimierung Ihrer AWS Infrastruktur im Hinblick auf Nachhaltigkeit, Teil: Netzwerke III](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [ ElastiCache Amazon-Dokumentation](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Was ist Amazon CloudFront?](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Introduction.html) 
+  [Die CloudFront wichtigsten Funktionen von Amazon](https://aws.amazon.com/cloudfront/features/) 
+ [AWS Globale Infrastruktur](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones und AWS Outposts Auswahl der richtigen Technologie für Ihren Edge-Workload](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Zugehörige Videos:** 
+  [Entmystifizierung der Datenübertragung am AWS](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [Skalierung der Netzwerkleistung auf EC2 Amazon-Instances der nächsten Generation](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [AWS Erklärvideo zu Local Zones](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Overview and How it Works](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 — Eine Migrationsstrategie für Edge-Workloads und lokale Workloads](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021 — AWS Outposts: Das Erlebnis vor Ort umsetzen AWS](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 — AWS Wavelength: Führen Sie Apps mit extrem niedriger Latenz am 5G-Edge aus](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 — AWS Local Zones: Entwicklung von Anwendungen für eine verteilte Kante](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 — Websites mit niedriger Latenz mit Amazon erstellen CloudFront](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 — Verbessern Sie Leistung und Verfügbarkeit mit AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 — Bauen Sie Ihr globales Wide Area Network auf mit AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Globales Verkehrsmanagement mit Amazon Route 53](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Zugehörige Beispiele:** 
+  [AWS Netzwerk-Workshops](https://catalog.workshops.aws/networking/en-US) 
+ [Architecting for sustainability - Minimize data movement across networks](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Optimieren von Ressourcen für Teammitglieder im Hinblick auf die ausgeführten Aktivitäten
<a name="sus_sus_user_a6"></a>

Optimieren Sie die Ressourcen, die Teammitgliedern zur Verfügung gestellt werden, um negative Auswirkungen auf die Nachhaltigkeit zu minimieren und gleichzeitig ihre Anforderungen zu erfüllen. 

 **Typische Anti-Muster:** 
+  Sie berücksichtigen nicht die Auswirkungen der von Ihren Teammitgliedern verwendeten Geräte auf die Gesamteffizienz Ihrer Cloud-Anwendung. 
+  Sie verwalten und aktualisieren die von Teammitgliedern verwendeten Ressourcen manuell. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Optimierung der Teammitglieder-Ressourcen verbessert die allgemeine Effizienz Cloud-fähiger Anwendungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Verstehen Sie die Ressourcen, mit denen Ihre Teammitglieder Ihre Services nutzen, deren erwartete Lebensdauer sowie die finanziellen und nachhaltigkeitsbezogenen Auswirkungen. Implementieren Sie Strategien zur Optimierung dieser Ressourcen. Beispielsweise können Sie komplexe Vorgänge wie Rendering und Kompilierung auf intensiv genutzter und skalierbarer Infrastruktur anstatt auf weniger ausgelasteten Einzelbenutzersystemen mit hohem Energieverbrauch ausführen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Energieeffiziente Workstations verwenden:** Stellen Sie den Teammitgliedern energieeffiziente Workstations und Peripheriegeräte zur Verfügung. Verwenden Sie effiziente Energiemanagementfeatures (wie den Energiesparmodus) auf diesen Geräten, um ihren Energieverbrauch zu reduzieren. 
+  **Virtualisierung verwenden:** Verwenden Sie virtuelle Desktops und Anwendungs-Streaming, um Upgrade- und Geräteanforderungen zu begrenzen. 
+  **Remote-Zusammenarbeit fördern:** Ermutigen Sie die Teammitglieder, Tools für die Remote-Zusammenarbeit wie [Amazon Chime](https://aws.amazon.com/chime/) oder [AWS Wickr](https://aws.amazon.com/wickr/) zu verwenden, um den Reisebedarf und die damit verbundenen CO₂-Emissionen zu reduzieren. 
+  **Energieeffiziente Software verwenden:** Stellen Sie den Teammitgliedern energieeffiziente Software zur Verfügung, indem Sie nicht benötigte Features und Prozesse entfernen oder deaktivieren. 
+  **Lebenszyklen verwalten:** Evaluieren Sie die Auswirkungen von Prozessen und Systemen auf die Lebenszyklen von Geräten. Wählen Sie Lösungen aus, die den Bedarf für Geräteaustauschvorgänge minimieren und gleichzeitig die geschäftlichen Anforderungen erfüllen. Pflegen und aktualisieren Sie regelmäßig Workstations oder Software, um die Effizienz aufrechtzuerhalten und zu verbessern. 
+  **Remote-Verwaltung für Geräte:** Implementieren Sie die Remote-Verwaltung für Geräte, um die Anzahl der erforderlichen Geschäftsreisen zu reduzieren. 
  +  [AWS Systems Manager Fleet Manager](https://docs.aws.amazon.com/systems-manager/latest/userguide/fleet.html) ist eine vereinheitlichte UI-Umgebung, mit der Sie Ihre in AWS oder On-Premises ausgeführten Knoten aus der Ferne überwachen können. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [What is Amazon WorkSpaces?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [Cost Optimizer für Amazon WorkSpaces](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Dokumentation zu Amazon AppStream 2.0](https://docs.aws.amazon.com/appstream2/) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Zugehörige Videos:** 
+  [Managing cost for Amazon WorkSpaces on AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) 

# SUS02-BP06 Implementieren Sie Pufferung oder Drosselung, um die Nachfragekurve abzuflachen
<a name="sus_sus_user_a7"></a>

Pufferung und Drosselung verflachen die Bedarfskurve und reduzieren die erforderliche bereitgestellte Kapazität für Ihre Workload. 

 **Typische Anti-Muster:** 
+ Sie verarbeiten die Client-Anfragen sofort, obwohl dies nicht erforderlich ist.
+ Sie analysieren die Anforderungen für Client-Anfragen nicht.

 **Vorteile der Nutzung dieser bewährten Methode:** Das Verflachen der Bedarfskurve reduziert die erforderliche bereitgestellte Kapazität für die Workload. Die Reduzierung der bereitgestellten Kapazität bedeutet geringeren Energieverbrauch und geringere Umweltauswirkungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Verflachung der Bedarfskurve kann Ihnen dabei helfen, die bereitgestellte Kapazität für eine Workload zu verringern und dessen Umweltauswirkungen zu reduzieren. Nehmen wir eine Workload mit der nachfolgend gezeigten Bedarfskurve. Diese Workload hat zwei Spitzen und um damit umzugehen, wird die Ressourcenkapazität bereitgestellt, die hier durch die orangefarbene Linie angezeigt wird. Die für diese Workload aufgewendeten Ressourcen und die eingesetzte Energie werden nicht durch die Fläche unter der Bedarfskurve, sondern von der Linie für die bereitgestellte Kapazität angezeigt, da für den Umgang mit den beiden Spitzen bereitgestellte Kapazität erforderlich ist. 

![\[Wellenform der bereitgestellten Kapazität mit zwei deutlichen Spitzen, die eine hohe bereitgestellte Kapazität erfordern\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/provisioned-capacity-1.png)


 

 Sie können Pufferung oder Drosselung verwenden, um die Bedarfskurve zu beeinflussen und die Spitzen abzumildern, was weniger bereitgestellte Kapazität und einen geringeren Energieverbrauch bedeutet. Implementieren Sie Drosselung, wenn Ihre Clients wiederholte Versuche durchführen können. Implementieren Sie die Pufferung, um die Anforderung zu speichern und die Verarbeitung auf einen späteren Zeitpunkt zu verschieben. 

![\[Wellenformdiagramm, das eine Workload mit geglätteten Spitzenwerten anzeigt, die durch Pufferung oder Drosselung erzeugt wurden\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/provisioned-capacity-2.png)


 

 **Implementierungsschritte** 
+  Analysieren Sie die Client-Anfragen, um festzulegen, wie darauf zu reagieren ist. Wichtige Faktoren dabei sind: 
  +  Kann diese Anfrage in asynchroner Weise verarbeitet werden? 
  +  Kann der Client die Anfrage erneut versuchen? 
+  Wenn dies der Fall ist, können Sie Drosselung verwenden, die der Quelle mitteilt, dass wenn sie die Anfrage zum aktuellen Zeitpunkt nicht bedienen kann, es später erneut versucht werden sollte. 
  +  Sie können [Amazon API Gateway](https://aws.amazon.com/api-gateway/) verwenden, um Drosselung zu implementieren. 
+  Für Clients, die Anfragen nicht erneut versuchen können, muss zur Verflachung der Bedarfskurve ein Puffer implementiert werden. Ein Puffer verschiebt die Anforderungsverarbeitung, so dass Anwendungen, die mit unterschiedlichen Raten ausgeführt werden, effektiv kommunizieren können. Bei der Pufferung werden Nachrichten von Produzenten in eine Warteschlange oder einen Stream gestellt. Nachrichten können dadurch von Verbrauchern in der für ihre Geschäftsanforderungen passenden Geschwindigkeit gelesen und verarbeitet werden. 
  +  [Amazon Simple Queue Service (AmazonSQS)](https://aws.amazon.com/sqs/) ist ein verwalteter Service, der Warteschlangen bereitstellt, die es einem einzelnen Verbraucher ermöglichen, einzelne Nachrichten zu lesen. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) stellt einen Stream bereit, mit dem viele Verbraucher dieselben Nachrichten lesen können. 
+  Analysieren Sie den Gesamtbedarf, die Änderungsrate und die erforderliche Reaktionszeit, um die korrekte Größe der erforderlichen Drosselung oder des Puffers zu bestimmen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [Erste Schritte mit Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)
+ [Application integration Using Queues and Messages](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)
+ [Verwaltung und Überwachung der API Drosselung Ihrer Workloads](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [Drosselung einer mehrstufigen Lösung mit mehreren Mandanten im großen Maßstab mithilfe von Gateway REST API API](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [Application integration Using Queues and Messages](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

 **Zugehörige Videos:** 
+ [AWS re:Invent 2022 — Anwendungsintegrationsmuster für Microservices](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 — Intelligentes Sparen: Strategien zur Kostenoptimierung von Amazon EC2](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 — Fortschrittliche Integrationsmuster und Kompromisse für lose gekoppelte Systeme](https://www.youtube.com/watch?v=FGKGdUiZKto)