

# SUS 2 Wie richten Sie Cloud-Ressourcen am Bedarf aus?
<a name="sus-02"></a>

Die Art und Weise, wie Benutzer und Anwendungen Ihre Workloads und andere Ressourcen nutzen, kann Sie bei der Identifizierung von Verbesserungen unterstützen, um Nachhaltigkeitsziele zu erreichen. Skalieren Sie Ihre Infrastruktur so, dass Sie den Bedarf kontinuierlich anpassen können. Sorgen Sie zudem dafür, dass zur Unterstützung Ihrer Benutzer nicht mehr Ressourcen verwendet werden als unbedingt nötig. Richten Sie Service-Levels an den Kundenanforderungen aus. Positionieren Sie Ressourcen so, dass die Netzwerkkapazitäten, die für Benutzer und Anwendungen erforderlich sind, begrenzt werden. Entfernen Sie ungenutzte Komponenten. Stellen Sie Teammitgliedern Geräte zur Verfügung, die ihre Anforderungen bei geringstmöglichen Auswirkungen auf die Nachhaltigkeit erfüllen.

**Topics**
+ [SUS02-BP01 Dynamisches Skalieren der Workload-Infrastruktur](sus_sus_user_a2.md)
+ [SUS02-BP02 Ausrichten von SLAs an Nachhaltigkeitszielen](sus_sus_user_a3.md)
+ [SUS02-BP03 Beenden der Erstellung und Wartung nicht verwendeter Komponenten](sus_sus_user_a4.md)
+ [SUS02-BP04 Optimieren der geografischen Platzierung von Workloads auf der Grundlage ihrer Netzwerkanforderungen](sus_sus_user_a5.md)
+ [SUS02-BP05 Optimieren von Ressourcen für Teammitglieder im Hinblick auf die ausgeführten Aktivitäten](sus_sus_user_a6.md)
+ [SUS02-BP06 Implementierung von Pufferung oder Drosselung, um die Bedarfskurve zu verflachen](sus_sus_user_a7.md)

# SUS02-BP01 Dynamisches Skalieren der Workload-Infrastruktur
<a name="sus_sus_user_a2"></a>

Nutzen Sie die Elastizität der Cloud und skalieren Sie Ihre Infrastruktur dynamisch, um das Angebot an Cloud-Ressourcen an die Nachfrage anzupassen und eine Überbereitstellung bei Ihren Workloads zu vermeiden.

**Typische Anti-Muster:**
+ Sie skalieren Ihre Infrastruktur nicht mit der Benutzerlast.
+ Sie skalieren Ihre Infrastruktur stets manuell.
+ Sie belassen die erhöhte Kapazität nach dem Hochskalieren, anstatt wieder herunterzuskalieren.

 **Vorteile der Einführung dieser bewährten Methode:** Das Konfigurieren und Testen der Workload-Elastizität trägt dazu bei, das Angebot an Cloud-Ressourcen effizient an die Nachfrage anzupassen und eine Überbereitstellung von Kapazitäten zu vermeiden. Sie können die Vorteile der Elastizität in der Cloud nutzen, um die Kapazität während und nach Nachfragespitzen automatisch zu skalieren und so sicherzustellen, dass Sie nur die richtige Anzahl von Ressourcen nutzen, die für die Erfüllung Ihrer Geschäftsanforderungen erforderlich ist.

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Cloud bietet Ihnen die Flexibilität, Ressourcen dynamisch durch verschiedene Mechanismen zu erweitern oder zu reduzieren, um einem veränderten Bedarf gerecht zu werden. Eine optimale Abstimmung von Angebot und Nachfrage führt zu den geringsten Auswirkungen auf die Umgebung für einen bestimmten Workload. 

 Die Nachfrage kann fest oder variabel sein und erfordert Metriken und Automatisierung, um sicherzustellen, dass die Verwaltung nicht zur Last wird. Anwendungen können vertikal (nach oben oder unten) skaliert werden, indem die Instance-Größe geändert wird, horizontal (nach innen oder außen), indem die Anzahl der Instances geändert wird, oder eine Kombination aus beidem. 

 Sie können verschiedene Ansätze nutzen, um das Angebot an Ressourcen auf die Nachfrage abzustimmen. 
+  **Zielverfolgungsansatz:** Überwachen Sie Ihre Skalierungsmetriken und erhöhen oder verringern Sie die Kapazität automatisch Ihrem Bedarf entsprechend. 
+  **Prädiktives Skalieren:** Skalieren Sie entsprechend der erwarteten täglichen und wöchentlichen Entwicklungen. 
+  **Zeitplanbasierter Ansatz:** Legen Sie Ihren eigenen Skalierungsplan entsprechend den vorhersehbaren Auslastungsänderungen fest. 
+  **Service-Skalierung:** Wählen Sie Services (wie Serverless), die nativ planmäßig skalierbar sind oder das Auto-Scaling als Funktion bieten. 

 Identifizieren Sie Zeiträume mit geringer oder gar keiner Nutzung und skalieren Sie Ressourcen, um überschüssige Kapazitäten zu entfernen und die Effizienz zu verbessern. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+ Elastizität ermöglicht das Anpassen der verfügbaren Ressourcen an den Bedarf. Instances, Container und Funktionen bieten Mechanismen für Elastizität, entweder in Kombination mit Auto-Scaling oder als Funktion des Services. AWS bietet eine Reihe von Mechanismen für das Auto-Scaling, um sicherzustellen, dass Workloads in Zeiten geringer Benutzerlast schnell und einfach herunterskaliert werden können. Hier sind einige Beispiele für Auto-Scaling-Mechanismen:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/sus_sus_user_a2.html)
+  Das Skalieren wird häufig im Zusammenhang mit Datenverarbeitungsservices wie Amazon EC2-Instances oder AWS Lambda-Funktionen genannt. Ziehen Sie die Konfiguration von nicht Daten verarbeitenden Services wie [Amazon DynamoDB](https://aws.amazon.com/dynamodb/)-Lese- und Schreibkapazitätseinheiten oder [Amazon Kinesis Data Streams](https://aws.amazon.com/kinesis/data-streams/)-Shards in Betracht, um die Nachfrage zu decken. 
+  Prüfen Sie, ob die Metriken zum Hoch- oder Herunterskalieren für die jeweilige Art des bereitgestellten Workloads überprüft werden. Wenn Sie eine Anwendung zur Video-Transkodierung bereitstellen, wird eine CPU-Auslastung von 100 % erwartet, weshalb dies nicht die Hauptmetrik sein sollte. Sie können bei Bedarf eine [benutzerdefinierte Metrik](https://aws.amazon.com/blogs/mt/create-amazon-ec2-auto-scaling-policy-memory-utilization-metric-linux/) (z. B. die Speichernutzung) für Ihre Skalierungsrichtlinie verwenden. Beachten Sie zur Auswahl der geeigneten Metriken die folgenden Hinweise zu Amazon EC2: 
  +  Es sollte sich um eine gültige Nutzungsmetrik handeln, die beschreibt, wie stark eine Instance genutzt wird. 
  +  Der Metrikwert muss proportional zur Anzahl der Instances in der Auto Scaling-Gruppe steigen oder sinken. 
+  Verwenden Sie für Ihre Auto Scaling-Gruppe eine [dynamische Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scale-based-on-demand.html) anstelle einer [manuellen Skalierung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-manual-scaling.html). Wir empfehlen außerdem, dass Sie bei der dynamischen Skalierung [Richtlinien zur Zielverfolgung](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-target-tracking.html) verwenden. 
+  Stellen Sie sicher, dass Workload-Bereitstellungen sowohl Hoch- als auch Herunterskalierungsereignisse verarbeiten können. Erstellen Sie Testszenarien für Herunterskalierungsereignisse, um zu überprüfen, ob sich der Workload wie erwartet verhält und die Benutzererfahrung nicht beeinträchtigt (z. B. Verlust von Sticky Sessions). Sie können die [Aktivitätshistorie](https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-verify-scaling-activity.html) verwenden, um eine Skalierungsaktivität für eine Auto Scaling-Gruppe zu überprüfen. 
+  Evaluieren Sie Ihren Workload auf vorhersagbare Muster und skalieren Sie proaktiv, wenn Sie vorhergesagte und geplante Änderungen der Nachfrage erwarten. Mit der prädiktiven Skalierung können Sie die Notwendigkeit einer Überbereitstellung von Kapazität vermeiden. Weitere Einzelheiten finden Sie unter [Prädiktive Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/). 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Erste Schritte mit Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Prädiktive Skalierung für EC2, unterstützt von Machine Learning](https://aws.amazon.com/blogs/aws/new-predictive-scaling-for-ec2-powered-by-machine-learning/) 
+  [Analyse des Benutzerverhaltens mit Amazon OpenSearch Service, Amazon Data Firehose und Kibana](https://aws.amazon.com/blogs/database/analyze-user-behavior-using-amazon-elasticsearch-service-amazon-kinesis-data-firehose-and-kibana/) 
+  [Was ist Amazon CloudWatch?](https://docs.aws.amazon.com/Amazon/latest/monitoring/WhatIs.html) 
+  [Überwachen der DB-Last mit Performance Insights auf Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PerfInsights.html) 
+  [Vorstellung von nativer Unterstützung für die prädiktive Skalierung mit Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/) 
+  [Vorstellung von Karpenter – Open-Source-Kubernetes-Cluster-Autoscaler mit hoher Leistung](https://aws.amazon.com/blogs/aws/introducing-karpenter-an-open-source-high-performance-kubernetes-cluster-autoscaler/) 
+  [Detaillierte Einblicke in Amazon ECS Cluster Auto Scaling](https://aws.amazon.com/blogs/containers/deep-dive-on-amazon-ecs-cluster-auto-scaling/) 

 **Zugehörige Videos:** 
+ [AWS re:Invent 2023 – Skalierung in AWS für die ersten 10 Millionen Benutzer:innen ](https://www.youtube.com/watch?v=JzuNJ8OUht0)
+ [AWS re:Invent 2023 – Nachhaltige Architektur: Vergangenheit, Gegenwart und Zukunft ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+  [AWS re:Invent 2022 – Entwickeln einer kosten-, energie- und ressourceneffizienten Computing-Umgebung](https://www.youtube.com/watch?v=8zsC5e1eLCg) 
+ [AWS re:Invent 2022 – Container-Skalierung von einem/einer Benutzer:in auf mehrere Millionen ](https://www.youtube.com/watch?v=hItHqzKoBk0)
+ [AWS re:Invent 2023 – Skalierung der FM-Inferenz auf Hunderte von Modellen mit Amazon SageMaker AI ](https://www.youtube.com/watch?v=6xENDvgnMCs)
+ [AWS re:Invent 2023 – Nutzung der Leistungsfähigkeit von Karpenter für die Skalierung, Optimierung und Aktualisierung von Kubernetes ](https://www.youtube.com/watch?v=lkg_9ETHeks)

 **Zugehörige Beispiele:** 
+ [AutoScaling](https://www.eksworkshop.com/docs/autoscaling/)

# SUS02-BP02 Ausrichten von SLAs an Nachhaltigkeitszielen
<a name="sus_sus_user_a3"></a>

 Überprüfen und optimieren Sie die Service Level Agreements (SLA) für Workloads auf der Grundlage Ihrer Nachhaltigkeitsziele, um die für die Unterstützung Ihres Workloads erforderlichen Ressourcen zu minimieren und gleichzeitig die Geschäftsanforderungen zu erfüllen. 

 **Typische Anti-Muster:** 
+  Workload-SLAs sind unbekannt oder nicht eindeutig. 
+  Sie definieren Ihre SLA nur für Verfügbarkeit und Leistung. 
+  Sie verwenden die gleichen Designmuster (wie Multi-AZ-Architektur) für alle Ihre Workloads. 

 **Vorteile der Einführung dieser bewährten Methode:** Die Abstimmung von SLAs mit Nachhaltigkeitszielen führt zu einer optimalen Ressourcennutzung bei gleichzeitiger Erfüllung der Geschäftsanforderungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 SLAs definieren das von einem Cloud-Workload erwartete Serviceniveau, z. B. Antwortzeit, Verfügbarkeit und Datenaufbewahrung. Sie beeinflussen die Architektur, die Ressourcennutzung und die Umweltauswirkungen eines Cloud-Workloads. Prüfen Sie regelmäßig die SLAs und gehen Sie Kompromisse ein, indem Sie die Ressourcennutzung in akzeptabler Weise verringern, um Auswirkungen auf die Nachhaltigkeit zu reduzieren. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Nachhaltigkeitsziele verstehen:** Identifizieren Sie Nachhaltigkeitsziele in Ihrer Organisation, z. B. Reduzierung des CO2-Ausstoßes oder Verbesserung der Ressourcennutzung. 
+  **SLAs überprüfen:** Bewerten Sie Ihre SLAs, um festzustellen, ob sie Ihre Geschäftsanforderungen erfüllen. Wenn Sie die SLAs überschreiten, führen Sie eine weitere Überprüfung durch. 
+  **Kompromisse verstehen:** Machen Sie sich ein Bild von den Kompromissen in Bezug auf die Komplexität Ihrer Workloads (z. B. hohe Anzahl gleichzeitiger Benutzer:innen), Leistung (z. B. Latenz) und Auswirkungen auf die Nachhaltigkeit (z. B. benötigte Ressourcen). In der Regel geht die Priorisierung von zwei der Faktoren auf Kosten des dritten. 
+  **SLAs anpassen:** Passen Sie Ihre SLAs an, indem Sie Kompromisse eingehen, die die Service Level angemessen verringern und somit die Auswirkungen auf die Nachhaltigkeit reduzieren. 
  +  **Nachhaltigkeit und Zuverlässigkeit:** Workloads mit hoher Verfügbarkeit verbrauchen in der Regel mehr Ressourcen. 
  +  **Nachhaltigkeit und Leistung:** Der Einsatz von mehr Ressourcen zur Leistungssteigerung könnte die Umwelt stärker belasten. 
  +  **Nachhaltigkeit und Sicherheit:** Übermäßig sichere Workloads könnten die Umwelt stärker belasten.. 
+  **Nachhaltigkeits-SLAs definieren, wenn möglich:** Fügen Sie Nachhaltigkeits-SLAs für Ihr Workload hinzu. Definieren Sie beispielsweise ein Mindestnutzungsniveau als Nachhaltigkeits-SLA für Ihre Computing-Instances. 
+  **Effiziente Designmuster verwenden:** Nutzen Sie Designmuster wie Microservices auf AWS, die geschäftskritische Funktionen priorisieren, und lassen Sie für nicht kritische Funktionen niedrigere Service Level zu (z. B. für Reaktions- und Wiederherstellungszeiten). 
+  **Verantwortlichkeiten festlegen und kommunizieren:** Teilen Sie die SLAs mit allen relevanten Stakeholdern, einschließlich Ihres Entwicklungsteams und Ihrer Kunden. Verwenden Sie Berichte, um die SLAs zu verfolgen und zu überwachen. Weisen Sie Verantwortlichkeiten zu, um die Nachhaltigkeitsziele Ihrer SLAs zu erreichen. 
+  **Anreize und Prämien nutzen:** Nutzen Sie Anreize und Prämien, um SLAs zu erreichen oder zu übertreffen, die mit den Nachhaltigkeitszielen übereinstimmen. 
+  **Überprüfen und Wiederholen:** Überprüfen Sie Ihre SLAs und passen Sie sie regelmäßig an, damit sie mit den sich entwickelnden Nachhaltigkeits- und Leistungszielen übereinstimmen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [Resilienzmuster und Kompromisse verstehen, um eine effiziente Architektur in der Cloud zu entwickeln](https://aws.amazon.com/blogs/architecture/understand-resiliency-patterns-and-trade-offs-to-architect-efficiently-in-the-cloud/)
+  [Bedeutung von Dienstleistungsvereinbarungen für SaaS-Anbieter](https://aws.amazon.com/blogs/apn/importance-of-service-level-agreement-for-saas-providers/) 

 **Zugehörige Videos:** 
+ [AWS re:Invent 2023 – Kapazität, Verfügbarkeit, Kosteneffizienz: Wählen Sie drei Optionen aus ](https://www.youtube.com/watch?v=E0dYLPXrX_w)
+ [AWS re:Invent 2023 – Nachhaltige Architektur: Vergangenheit, Gegenwart und Zukunft ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2023 – Fortschrittliche Integrationsmuster und Kompromisse für lose gekoppelte Systeme ](https://www.youtube.com/watch?v=FGKGdUiZKto)
+ [AWS re:Invent 2022 – Bereitstellung nachhaltiger, leistungsstarker Architekturen ](https://www.youtube.com/watch?v=FBc9hXQfat0)
+ [AWS re:Invent 2022 – Entwickeln einer kosten-, energie- und ressourceneffizienten Computing-Umgebung](https://www.youtube.com/watch?v=8zsC5e1eLCg)

# SUS02-BP03 Beenden der Erstellung und Wartung nicht verwendeter Komponenten
<a name="sus_sus_user_a4"></a>

Nehmen Sie nicht verwendete Ressourcen in Ihrem Workload außer Betrieb, um die Anzahl der Cloud-Ressourcen zu verringern, die zur Unterstützung Ihres Bedarfs und zur Minimierung von Verschwendung erforderlich sind.

 **Typische Anti-Muster:** 
+  Sie analysieren Ihre Anwendung nicht auf Ressourcen, die redundant sind oder nicht mehr benötigt werden. 
+  Sie entfernen keine redundanten oder nicht mehr benötigten Ressourcen. 

 **Vorteile der Nutzung dieser bewährten Methode: ** Das Entfernen nicht genutzter Ressourcen setzt Kapazitäten frei und verbessert die allgemeine Effizienz des Workloads. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Nicht verwendete Ressourcen verbrauchen Cloud-Kapazitäten wie Speicherplatz oder Rechenleistung. Wenn Sie solche Ressourcen identifizieren und eliminieren, können Sie diese Kapazitäten freisetzen, was zu einer effizienteren Cloud-Architektur führt. Analysieren Sie Anwendungsressourcen (wie vorab kompilierte Berichte, Datensätze, statische Bilder) sowie Zugriffsmuster für Komponenten, um Redundanzen, eine zu geringe Auslastung und mögliche Kandidaten für die Außerbetriebnahme zu identifizieren. Entfernen Sie diese redundanten Ressourcen, um die Ressourcenverschwendung in Ihrem Workload zu reduzieren. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Bestandsaufnahme durchführen:** Führen Sie eine umfassende Bestandsaufnahme durch, um alle Komponenten innerhalb Ihres Workload zu identifizieren. 
+  **Nutzung analysieren:** Verwenden Sie die kontinuierliche Überwachung, um statische Komponenten zu identifizieren, die nicht mehr benötigt werden. 
+  **Ungenutzte Komponenten entfernen:** Entwickeln Sie einen Plan, um Komponenten zu entfernen, die nicht mehr benötigt werden. 
  +  Prüfen Sie vor dem Entfernen einer Ressource die Auswirkungen dieser Maßnahme auf die Architektur. 
  +  Konsolidieren Sie sich überschneidende generierte Komponenten, um eine redundante Verarbeitung zu entfernen. 
  +  Aktualisieren Sie Ihre Anwendungen, damit diese nicht mehr benötigte Ressourcen nicht weiter produzieren und speichern. 
+  **Mit Dritten kommunizieren:** Weisen Sie Dritte an, die Erstellung und Speicherung von Komponenten einzustellen, die in Ihrem Auftrag verwaltet und nicht mehr benötigt werden. Bitten Sie darum, dass redundante Komponenten konsolidiert werden. 
+  **Lebenszyklusrichtlinien verwenden:** Verwenden Sie Lebenszyklusrichtlinien, damit ungenutzte Komponenten automatisch gelöscht werden. 
  +  Mit Amazon S3-Lebenszyklen können Sie Ihre Objekte während ihres gesamten Lebenszyklus verwalten. 
  +  Mit Amazon Data Lifecycle Manager lassen sich das Erstellen, Aufbewahren und Löschen von Amazon EBS-Snapshots und Amazon EBS-gestützten AMIs automatisieren. 
+  **Überprüfen und optimieren:** Überprüfen Sie regelmäßig Ihren Workload, um ungenutzte Komponenten zu identifizieren und zu entfernen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Optimieren Ihrer AWS-Infrastruktur für Nachhaltigkeit, Teil II: Speicher](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-ii-storage/) 
+ [ Wie beende ich aktive Ressourcen, die ich in meinem AWS-Konto nicht mehr benötige? ](https://aws.amazon.com/premiumsupport/knowledge-center/terminate-resources-account-closure/)

 **Zugehörige Videos:** 
+ [AWS re:Invent 2023 – Nachhaltige Architektur: Vergangenheit, Gegenwart und Zukunft ](https://www.youtube.com/watch?v=2xpUQ-Q4QcM)
+ [AWS re:Invent 2022 – Bewahrung und Wertmaximierung von digitalen Medienkomponenten mithilfe von Amazon S3 ](https://www.youtube.com/watch?v=8OI0Uu-YvD8)
+ [AWS re:Invent 2023 – Optimieren der Kosten in Ihren Umgebungen mit mehreren Konten ](https://www.youtube.com/watch?v=ie_Mqb-eC4A)

# SUS02-BP04 Optimieren der geografischen Platzierung von Workloads auf der Grundlage ihrer Netzwerkanforderungen
<a name="sus_sus_user_a5"></a>

Wählen Sie Cloud-Standorte und -Services für Ihren Workload, die die Entfernungen reduzieren, über die Netzwerkdatenverkehr übertragen werden muss, um die Zahl der Netzwerkressourcen zu verringern, die zur Unterstützung Ihres Workloads erforderlich sind.

 **Typische Anti-Muster:** 
+  Sie wählen die Region des Workloads auf der Grundlage Ihres eigenen Standorts aus. 
+  Sie konsolidieren alle Workload-Ressourcen an einem geografischen Standort. 
+  Der gesamte Datenverkehr fließt durch Ihre bestehenden Rechenzentren. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Platzierung von Workloads in der Nähe ihrer Nutzer bietet die geringstmögliche Latenz und verringert gleichzeitig die Bewegung der Daten durch das Netzwerk und damit die Umweltauswirkungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die AWS Cloud-Infrastruktur basiert auf Standortoptionen wie etwa Regionen, Availability Zones, Platzierungsgruppen und Edge-Standorten wie [AWS Outposts](https://docs.aws.amazon.com/outposts/latest/userguide/what-is-outposts.html) und [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/). Diese Standortoptionen stellen die Konnektivität zwischen Anwendungskomponenten, Cloud-Services, Edge-Netzwerken und On-Premises-Rechenzentren sicher. 

 Analysieren Sie die Netzwerkzugriffsmuster in Ihrem Workload, um festzustellen, wie diese verwendet werden können, um die Entfernungen für den Netzwerkdatenverkehr zu reduzieren. 

## Implementierungsschritte
<a name="implementation-steps"></a>
+  Analysieren Sie die Netzwerkzugriffsmuster in Ihrem Workload, um zu ermitteln, wie die Benutzer Ihre Anwendung verwenden. 
  +  Verwenden Sie Überwachungstools wie [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) und [AWS CloudTrail](https://aws.amazon.com/cloudtrail/), um Daten zu Netzwerkaktivitäten zu erfassen. 
  +  Analysen Sie die Daten, um das Netzwerkzugriffsmuster zu identifizieren. 
+  Wählen Sie die Regionen für Ihre Workload-Bereitstellung auf der Grundlage der folgenden zentralen Elemente aus: 
  +  **Ihrem Nachhaltigkeitsziel:** wie unter [Auswahl von Regionen](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/region-selection.html) erläutert. 
  +  **Dem Speicherort Ihrer Daten:** Für datenintensive Anwendungen (wie Big Data oder Machine Learning) sollte der Anwendungscode so nahe wie möglich zu den Daten ausgeführt werden. 
  +  **Den Standorten Ihrer Benutzer:** Wählen Sie bei nutzerorientierten Anwendungen eine Region (oder Regionen) möglichst nahe an den Benutzern Ihres Workloads. 
  + **Anderen einschränkenden Faktoren:** Denken Sie dabei etwa an Kosten und Compliance, wie in [Überlegungen bei der Auswahl einer Region für Ihren Workload](https://aws.amazon.com/blogs/architecture/what-to-consider-when-selecting-a-region-for-your-workloads/) beschrieben.
+  Verwenden Sie lokale Zwischenspeicherung oder [AWS](https://aws.amazon.com/caching/aws-caching/)-Zwischenspeicherungslösungen für häufig genutzte Ressourcen zur Verbesserung der Leistung, zur Verringerung von Datenverschiebungen und zur Reduzierung der Umweltauswirkungen.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Nutzen Sie Services, die Ihnen dabei helfen können, Code näher an den Nutzern Ihres Workloads auszuführen:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/sus_sus_user_a5.html)
+  Nutzen Sie Verbindungspooling, um die erneute Nutzung von Verbindungen zu ermöglichen und die Zahl der erforderlichen Ressourcen zu reduzieren. 
+  Verwenden Sie verteilte Datenspeicher, die nicht auf persistente Verbindungen und synchrone Updates angewiesen sind, um regionale Benutzergruppen zu unterstützen. 
+  Ersetzen Sie vorab bereitgestellte statische Netzwerkkapazität durch geteilte dynamische Kapazitäten und teilen Sie die Auswirkungen von Netzwerkkapazitäten auf die Nachhaltigkeit mit anderen Abonnenten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Optimieren Ihrer AWS-Infrastruktur für Nachhaltigkeit, Teil III: Netzwerke](https://aws.amazon.com/blogs/architecture/optimizing-your-aws-infrastructure-for-sustainability-part-iii-networking/) 
+  [Amazon ElastiCache-Dokumentation](https://docs.aws.amazon.com/elasticache/index.html) 
+  [Was ist Amazon CloudFront?](https://docs.aws.amazon.com/Amazon/latest/DeveloperGuide/Introduction.html) 
+  [Hauptfunktionen von Amazon CloudFront](https://aws.amazon.com/cloudfront/features/) 
+ [ Globale AWS-Infrastruktur ](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [AWS Local Zones und AWS Outposts: Die Auswahl der richtigen Technologie für Ihren Edge-Workload ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+ [Platzierungsgruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)
+ [AWS Local Zones ](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)
+ [AWS Outposts](https://aws.amazon.com/outposts/)

 **Zugehörige Videos:** 
+  [Das Geheimnis der Datenübertragung in AWS lüften](https://www.youtube.com/watch?v=-MqXgzw1IGA) 
+ [ Skalierung der Netzwerkleistung auf Amazon EC2-Instances der nächsten Generation](https://www.youtube.com/watch?v=jNYpWa7gf1A)
+ [ Erklärungsvideo zu AWS Local Zones ](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: Übersicht und Funktionsweise ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2023 – Eine Migrationsstrategie für Edge- und On-Premises-Workloads ](https://www.youtube.com/watch?v=4wUXzYNLvTw)
+ [AWS re:Invent 2021 – AWS Outposts: Das AWS-Erlebnis on-premises ](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020 – AWS Wavelength: Apps mit ultraniedriger Latenz am 5G-Edge ausführen](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022 – AWS Local Zones: Entwickeln von Anwendungen für einen verteilten Edge ](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021 – Entwicklung von Websites mit niedriger Latenz mit Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022 – Verbessern der Leistung und Verfügbarkeit mit AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022 – Aufbau Ihres globalen Wide Area Networks mit AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Globales Datenverkehrsmanagement mit Amazon Route 53 ](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Zugehörige Beispiele:** 
+  [AWS Networking-Workshops](https://catalog.workshops.aws/networking/en-US) 
+ [Nachhaltige Architektur — Minimierung des Datenverkehrs zwischen Netzwerken](https://catalog.us-east-1.prod.workshops.aws/workshops/7c4f8394-8081-4737-aa1b-6ae811d46e0a/en-US)

# SUS02-BP05 Optimieren von Ressourcen für Teammitglieder im Hinblick auf die ausgeführten Aktivitäten
<a name="sus_sus_user_a6"></a>

Optimieren Sie die Ressourcen, die Teammitgliedern zur Verfügung gestellt werden, um negative Auswirkungen auf die Nachhaltigkeit zu minimieren und gleichzeitig ihre Anforderungen zu erfüllen. 

 **Typische Anti-Muster:** 
+  Sie berücksichtigen nicht die Auswirkungen der von Ihren Teammitgliedern verwendeten Geräte auf die Gesamteffizienz Ihrer Cloud-Anwendung. 
+  Sie verwalten und aktualisieren die von Team-Mitgliedern verwendeten Ressourcen manuell. 

 **Vorteile der Nutzung dieser bewährten Methode:** Die Optimierung der Teammitglieder-Ressourcen verbessert die allgemeine Effizienz Cloud-fähiger Anwendungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Verstehen Sie die Ressourcen, mit denen Ihre Teammitglieder Ihre Services nutzen, deren erwartete Lebensdauer sowie die finanziellen und nachhaltigkeitsbezogenen Auswirkungen. Implementieren Sie Strategien zur Optimierung dieser Ressourcen. Beispielsweise können Sie komplexe Vorgänge wie Rendering und Kompilierung auf intensiv genutzter und skalierbarer Infrastruktur anstatt auf weniger ausgelasteten Einzelbenutzersystemen mit hohem Energieverbrauch ausführen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Energieeffiziente Workstations verwenden:** Stellen Sie den Teammitgliedern energieeffiziente Workstations und Peripheriegeräte zur Verfügung. Verwenden Sie effiziente Energiemanagementfeatures (wie den Energiesparmodus) auf diesen Geräten, um ihren Energieverbrauch zu reduzieren. 
+  **Virtualisierung verwenden:** Verwenden Sie virtuelle Desktops und Anwendungs-Streaming, um Upgrade- und Geräteanforderungen zu begrenzen. 
+  **Remote-Zusammenarbeit fördern:** Ermutigen Sie die Teammitglieder, Tools für die Remote-Zusammenarbeit wie [Amazon Chime](https://aws.amazon.com/chime/) oder [AWS Wickr](https://aws.amazon.com/wickr/) zu verwenden, um den Reisebedarf und die damit verbundenen CO2-Emissionen zu reduzieren. 
+  **Energieeffiziente Software verwenden:** Stellen Sie den Teammitgliedern energieeffiziente Software zur Verfügung, indem Sie nicht benötigte Features und Prozesse entfernen oder deaktivieren. 
+  **Lebenszyklen verwalten:** Evaluieren Sie die Auswirkungen von Prozessen und Systemen auf die Lebenszyklen von Geräten. Wählen Sie Lösungen aus, die den Bedarf für Geräteaussetzungen minimieren und gleichzeitig die geschäftlichen Anforderungen erfüllen. Pflegen und aktualisieren Sie regelmäßig Workstations oder Software, um die Effizienz aufrechtzuerhalten und zu verbessern. 
+  **Remote-Verwaltung für Geräte:** Implementieren Sie die Remote-Verwaltung für Geräte, um die Anzahl der erforderlichen Geschäftsreisen zu reduzieren. 
  +  AWS Systems Manager Fleet Manager ist eine vereinheitlichte UI-Umgebung, mit der Sie Ihre auf AWS oder On-Premises ausgeführten Knoten aus der Ferne überwachen können. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Was ist Amazon WorkSpaces?](https://docs.aws.amazon.com/workspaces/latest/adminguide/amazon-workspaces.html) 
+ [ Kostenoptimierer für Amazon WorkSpaces ](https://docs.aws.amazon.com/solutions/latest/cost-optimizer-for-workspaces/overview.html)
+  [Amazon AppStream 2.0 Documentation](https://docs.aws.amazon.com/appstream2/) (Dokumentation zu Amazon AppStream 2.0) 
+  [NICE DCV](https://docs.aws.amazon.com/dcv/) 

 **Zugehörige Videos:** 
+  [Verwalten der Kosten für Amazon WorkSpaces in AWS](https://www.youtube.com/watch?v=0MoY31hZQuE) 

# SUS02-BP06 Implementierung von Pufferung oder Drosselung, um die Bedarfskurve zu verflachen
<a name="sus_sus_user_a7"></a>

Pufferung und Drosselung verflachen die Bedarfskurve und reduzieren die erforderliche bereitgestellte Kapazität für Ihr Workload. 

 **Typische Anti-Muster:** 
+ Sie verarbeiten die Client-Anfragen sofort, obwohl dies nicht erforderlich ist.
+ Sie analysieren die Anforderungen für Client-Anfragen nicht.

 **Vorteile der Nutzung dieser bewährten Methode: ** Das Verflachen der Bedarfskurve reduziert die erforderliche bereitgestellte Kapazität für den Workload. Die Reduzierung der bereitgestellten Kapazität bedeutet geringeren Energieverbrauch und geringere Umweltauswirkungen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Verflachung der Bedarfskurve kann Ihnen dabei helfen, die bereitgestellte Kapazität für einen Workload zu verringern und dessen Umweltauswirkungen zu reduzieren. Nehmen wir einen Workload mit der nachfolgend gezeigten Bedarfskurve. Dieser Workload hat zwei Spitzen und um damit umzugehen, wird die Ressourcenkapazität bereitgestellt, die hier durch die orangefarbene Linie angezeigt wird. Die für diesen Workload aufgewendeten Ressourcen und die eingesetzte Energie werden nicht durch die Fläche unter der Bedarfskurve, sondern von der Linie für die bereitgestellte Kapazität angezeigt, da für den Umgang mit den beiden Spitzen bereitgestellte Kapazität erforderlich ist. 

![\[Provisioned capacity waveform with two distinct peaks that require high provisioned capacity.\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/images/provisioned-capacity-1.png)


 

 Sie können Pufferung oder Drosselung verwenden, um die Bedarfskurve zu beeinflussen und die Spitzen abzumildern, was weniger bereitgestellte Kapazität und einen geringeren Energieverbrauch bedeutet. Implementieren Sie Drosselung, wenn Ihre Clients wiederholte Versuche durchführen können. Implementieren Sie die Pufferung, um die Anforderung zu speichern und die Verarbeitung auf einen späteren Zeitpunkt zu verschieben. 

![\[Waveform diagram displaying a workload with smoothed-out peaks created using buffering or throttling.\]](http://docs.aws.amazon.com/de_de/wellarchitected/2024-06-27/framework/images/provisioned-capacity-2.png)


 

 **Implementierungsschritte** 
+  Analysieren Sie die Client-Anfragen, um festzulegen, wie darauf zu reagieren ist. Wichtige Faktoren dabei sind: 
  +  Kann diese Anfrage in asynchroner Weise verarbeitet werden? 
  +  Kann der Client die Anfrage erneut versuchen? 
+  Wenn dies der Fall ist, können Sie Drosselung verwenden, die der Quelle mitteilt, dass wenn sie die Anfrage zum aktuellen Zeitpunkt nicht bedienen kann, es später erneut versucht werden sollte. 
  +  Sie können [Amazon API Gateway](https://aws.amazon.com/api-gateway/) verwenden, um Drosselung zu implementieren. 
+  Für Clients, die Anfragen nicht erneut versuchen können, muss zur Verflachung der Bedarfskurve ein Puffer implementiert werden. Ein Puffer verschiebt die Anforderungsverarbeitung, so dass Anwendungen, die mit unterschiedlichen Raten ausgeführt werden, effektiv kommunizieren können. Bei der Pufferung werden Nachrichten von Produzenten in eine Warteschlange oder einen Stream gestellt. Nachrichten können dadurch von Verbrauchern in der für ihre Geschäftsanforderungen passenden Geschwindigkeit gelesen und verarbeitet werden. 
  +  [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) ist ein verwalteter Service, der Warteschlangen bietet, die es einem einzelnen Verbraucher ermöglichen, individuelle Nachrichten zu lesen. 
  +  [Amazon Kinesis](https://aws.amazon.com/kinesis/) stellt einen Stream bereit, der es vielen Verbrauchern ermöglicht, dieselben Nachrichten zu lesen. 
+  Analysieren Sie den Gesamtbedarf, die Änderungsrate und die erforderliche Reaktionszeit, um die korrekte Größe der erforderlichen Drosselung oder des Puffers zu bestimmen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+ [ Erste Schritte mit Amazon SQS ](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html)
+ [ Anwendungsintegration mit Warteschlangen und Nachrichten ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)
+ [ Verwalten und Überwachen der API-Drosselung in Ihren Workloads ](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [ Drosselung einer mehrstufigen, Multi-Mandanten REST-API in großem Umfang mit API Gateway ](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [ Anwendungsintegration mit Warteschlangen und Nachrichten ](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

 **Zugehörige Videos:** 
+ [AWS re:Invent 2022 – Anwendungsintegrationsmuster für Microservices ](https://www.youtube.com/watch?v=GoBOivyE7PY)
+ [AWS re:Invent 2023 – Intelligentes Sparen: Amazon EC2-Strategien zur Kostenoptimierung ](https://www.youtube.com/watch?v=_AHPbxzIGV0)
+ [AWS re:Invent 2023 – Fortschrittliche Integrationsmuster und Kompromisse für lose gekoppelte Systeme ](https://www.youtube.com/watch?v=FGKGdUiZKto)