

# KOSTEN 9. Wie verwalten Sie die Nachfrage und stellen Ressourcen bereit?
<a name="cost-09"></a>

Stellen Sie bei einer Workload mit ausgewogenen Ausgaben und Leistungen sicher, dass alles, wofür Sie bezahlen, genutzt wird, und vermeiden Sie eine erhebliche Unterauslastung der Instances. Eine verschobene Auslastungsmetrik in einer der Richtungen wirkt sich nachteilig auf Ihr Unternehmen aus, entweder im Hinblick auf die Betriebskosten (verschlechterte Leistung aufgrund von Überbelegung) oder auf die verschwendeten AWS-Ausgaben (aufgrund von Überversorgung).

**Topics**
+ [COST09-BP01 Analyse des Workload-Bedarfs](cost_manage_demand_resources_cost_analysis.md)
+ [COST09-BP02 Implementieren eines Puffers oder einer Drosselung zur Bedarfsverwaltung](cost_manage_demand_resources_buffer_throttle.md)
+ [COST09-BP03 Dynamische Bereitstellung von Ressourcen](cost_manage_demand_resources_dynamic.md)

# COST09-BP01 Analyse des Workload-Bedarfs
<a name="cost_manage_demand_resources_cost_analysis"></a>

 Analysieren Sie den Bedarf des Workloads im gesamten Zeitverlauf. Stellen Sie sicher, dass die Analyse saisonale Trends berücksichtigt und die Betriebsbedingungen über die gesamte Lebensdauer des Workloads genau wiedergibt. Der Analyseaufwand sollte in einem angemessenen Verhältnis zum potenziellen Nutzen stehen, z. B. muss der Zeitaufwand den Workload-Kosten entsprechen. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Hoch 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Analyse des Workload-Bedarfs für Cloud-Computing erfordert ein Verständnis der Muster und Eigenschaften von Computing-Aufgaben, die in der Cloud-Umgebung initiiert werden. Diese Analyse hilft Benutzern, die Ressourcenzuweisung zu optimieren, Kosten zu verwalten und sicherzustellen, dass die Leistung den Anforderungen entspricht. 

 Informieren Sie sich über die Anforderungen des Workloads. Die Anforderungen Ihrer Organisation sollten die Workload-Reaktionszeiten für Anforderungen angeben. Anhand der Reaktionszeit kann bestimmt werden, ob der Bedarf gut gesteuert wird oder ob das Ressourcenangebot geändert werden sollte, um der Nachfrage gerecht zu werden. 

 Die Analyse sollte die Vorhersehbarkeit und Wiederholbarkeit der Nachfrage, die Änderungsrate der Nachfrage und die Menge der Nachfrageänderungen umfassen. Die Analyse muss über einen ausreichend langen Zeitraum ausgeführt werden, um saisonale Abweichungen wie Arbeiten am Ende des Monats oder Feiertagsspitzen einzubeziehen. 

 Der Analyseaufwand sollte die potenziellen Vorteile der Implementierung einer Skalierung widerspiegeln. Betrachten Sie die erwarteten Gesamtkosten der Komponente sowie etwaige Erhöhungen oder Verringerungen der Nutzung und der Kosten während der Workload-Lebensdauer. 

 Im Folgenden sind einige wichtige Aspekte aufgeführt, die bei der Durchführung der Workload-Bedarfsanalyse für Cloud-Computing zu berücksichtigen sind: 

1.  **Ressourcennutzung und Metriken:** Analysieren Sie, wie AWS-Ressourcen im Laufe der Zeit genutzt werden. Ermitteln Sie Nutzungsmuster während und außerhalb der Spitzenzeiten, um die Ressourcenzuweisung und Skalierungsstrategien zu optimieren. Überwachen Sie Leistungskennzahlen wie Reaktionszeiten, Latenz, Durchsatz und Fehlerraten. Diese Kennzahlen helfen bei der Bewertung des Gesamtzustands und der Effizienz der Cloud-Infrastruktur. 

1.  **Skalierungsverhalten von Benutzern und Anwendungen:** Verstehen Sie das Benutzerverhalten und wie es sich auf den Workload-Bedarf auswirkt. Das Untersuchen von Mustern beim Benutzerdatenverkehr trägt dazu bei, die Bereitstellung von Inhalten und die Reaktionsfähigkeit von Anwendungen zu verbessern. Analysieren Sie, wie Workloads mit steigender Nachfrage skaliert werden. Bestimmen Sie, ob die Parameter für die automatische Skalierung korrekt und effektiv für den Umgang mit Auslastungsschwankungen konfiguriert sind. 

1.  **Workload-Typen**: Identifizieren Sie die verschiedenen Typen von Workloads, die in der Cloud ausgeführt werden, wie Batch-Verarbeitung, Echtzeitdatenverarbeitung, Webanwendungen, Datenbanken oder Machine Learning. Jeder Workload-Typ kann unterschiedliche Ressourcenanforderungen und Leistungsprofile aufweisen. 

1.  **Service Level Agreements (SLAs)**: Vergleichen Sie die tatsächliche Leistung mit den SLAs, um deren Einhaltung sicherzustellen und Bereiche zu identifizieren, die verbessert werden müssen. 

 Sie können [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) verwenden, um Metriken zu erfassen und nachzuverfolgen, Protokolldateien zu sammeln und zu überwachen, Alarme festzulegen und automatisch auf Änderungen Ihrer AWS-Ressourcen zu reagieren. Amazon CloudWatch bietet Ihnen auch einen systemweiten Einblick in die Auslastung Ihrer Ressourcen, die Anwendungsleistung und die Integrität Ihrer Betriebsabläufe. 

 Mit [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) können Sie Ihre Ressourcen gemäß bewährten Methoden bereitstellen und so die Systemleistung und -zuverlässigkeit verbessern, die Sicherheit erhöhen und nach Einsparungsmöglichkeiten suchen. Darüber hinaus können Sie Nicht-Produktions-Instances deaktivieren und Amazon CloudWatch und Auto Scaling verwenden, um auf Steigerungen oder Reduzierungen des Bedarfs zu reagieren. 

 Schließlich können Sie [AWS Cost Explorer](https://aws.amazon.com/aws-cost-management/aws-cost-explorer/) oder [Quick](https://aws.amazon.com/quicksight/) mit der AWS Cost and Usage Report (CUR)-Datei oder Ihren Anwendungsprotokollen verwenden, um eine erweiterte Analyse des Workload-Bedarfs durchzuführen. 

 Insgesamt ermöglicht eine umfassende Analyse des Workload-Bedarfs Unternehmen fundierte Entscheidungen zur Bereitstellung, Skalierung und Optimierung von Ressourcen, was zu einer höheren Leistung, Kosteneffizienz und Benutzerzufriedenheit führt. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+  **Vorhandene Workload-Daten analysieren:** Analysieren Sie Daten aus der vorhandenen Workload, früheren Versionen der Workload oder vorhergesagten Nutzungsmustern. Verwenden Sie Amazon CloudWatch, Protokolldateien und Überwachungsdaten, um einen Einblick in die Nutzung der Workload zu erhalten. Analysieren Sie einen vollständigen Workload-Zyklus und erfassen Sie Daten für alle saisonalen Änderungen, z. B. Ereignisse am Monatsende oder am Ende des Jahres. Der in der Analyse reflektierte Aufwand sollte die Workload-Merkmale widerspiegeln. Der größte Aufwand sollte für hochwertige Workloads mit den größten Nachfrageänderungen betrieben werden. Der geringste Aufwand sollte für Workloads mit niedrigem Wert und geringfügigen Nachfrageänderungen betrieben werden. 
+  **Vorhersage externer Einflüsse:** Treffen Sie Teammitglieder aus der gesamten Organisation, die die Nachfrage in der Workload beeinflussen oder ändern können. Häufig betroffene Teams sind Vertrieb, Marketing oder Business Development. Arbeiten Sie mit ihnen zusammen, um die Zyklen kennenzulernen, in denen sie arbeiten, und um zu erfahren, ob es Ereignisse gibt, die die Nachfrage des Workloads ändern könnten. Erstellen Sie eine Prognose des Workload-Bedarfs anhand dieser Daten. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) 
+  [AWS Trusted Advisor](https://aws.amazon.com/premiumsupport/technology/trusted-advisor/) 
+  [AWS X-Ray](https://aws.amazon.com/xray/) 
+  [AWS Auto Scaling](https://aws.amazon.com/autoscaling/) 
+  [AWS Instance Scheduler](https://aws.amazon.com/answers/infrastructure-management/instance-scheduler/) 
+  [Erste Schritte mit Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) 
+  [AWS Cost Explorer](https://aws.amazon.com/aws-cost-management/aws-cost-explorer/) 
+  [Schnell](https://aws.amazon.com/quicksight/) 

 **Zugehörige Beispiele:** 
+  [Monitor, Track and Analyze for cost optimization](https://aws.amazon.com/aws-cost-management/aws-cost-optimization/monitor-track-and-analyze/) 
+  [Searching and analyzing logs in CloudWatch](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/cloudwatch-search-analysis.html) 

# COST09-BP02 Implementieren eines Puffers oder einer Drosselung zur Bedarfsverwaltung
<a name="cost_manage_demand_resources_buffer_throttle"></a>

 Pufferung und Drosselung ändern den Bedarf Ihres Workloads und glätten alle Spitzen. Implementieren Sie die Drosselung, wenn Ihre Clients Wiederholungen durchführen. Implementieren Sie die Pufferung, um die Anforderung zu speichern und die Verarbeitung auf einen späteren Zeitpunkt zu verschieben. Stellen Sie sicher, dass Ihre Drosselungen und Puffer so konzipiert sind, dass Clients in der erforderlichen Zeit eine Antwort erhalten. 

 **Risikostufe, wenn diese bewährte Methode nicht eingeführt wird:** Mittel 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Die Implementierung einer Pufferung oder Drosselung ist beim Cloud-Computing von entscheidender Bedeutung, um die Nachfrage zu steuern und die für den Workload benötigte bereitgestellte Kapazität zu reduzieren. Für eine optimale Leistung ist es unerlässlich, die Gesamtnachfrage, einschließlich der Spitzen, sowie die Geschwindigkeit, mit der sich die Anfragen ändern, und die erforderliche Reaktionszeit zu messen. Wenn Clients die Möglichkeit haben, ihre Anfragen erneut zu senden, ist es praktisch, eine Drosselung vorzunehmen. Umgekehrt ist für Clients ohne Wiederholungsfunktionen die Implementierung einer Pufferlösung der ideale Ansatz. Solche Puffer rationalisieren den Eingang von Anfragen und optimieren die Interaktion von Anwendungen mit unterschiedlichen Betriebsgeschwindigkeiten. 

![\[Bedarfskurve mit zwei deutlichen Spitzen, die hohe bereitgestellte Kapazität erfordern\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/provisioned-capacity-1.png)


 Nehmen wir einen Workload mit der nachfolgend gezeigten Bedarfskurve. Dieser Workload hat zwei Spitzen und um damit umzugehen, wird die Ressourcenkapazität bereitgestellt, die hier durch die orangefarbene Linie angezeigt wird. Die für diesen Workload aufgewendeten Ressourcen und die eingesetzte Energie werden nicht durch die Fläche unter der Bedarfskurve, sondern von der Linie für die bereitgestellte Kapazität angezeigt, da die bereitgestellte Kapazität zur Bewältigung dieser beiden Spitzen benötigt wird. Die Verflachung der Bedarfskurve kann Ihnen dabei helfen, die bereitgestellte Kapazität für einen Workload zu verringern und dessen Umweltauswirkungen zu reduzieren. Um die Spitzen abzuflachen, sollten Sie eine Lösung zur Drosselung oder Pufferung in Betracht ziehen. 

 Um dies besser zu verstehen, werden wir uns kurz die Drosselung und Pufferung ansehen. 

 **Drosselung:** Wenn die Quelle der Nachfrage über eine Wiederholungsfunktion verfügt, können Sie die Drosselung implementieren. Die Drosselung teilt der Quelle mit, dass wenn sie die Anfrage zum aktuellen Zeitpunkt nicht bedienen kann, sie es später erneut versuchen sollte. Die Quelle wartet einen bestimmten Zeitraum und wiederholt die Anfrage. Die Implementierung der Drosselung hat den Vorteil, dass die maximale Menge an Ressourcen und Kosten des Workloads begrenzt wird. In AWS können Sie [Amazon API Gateway](https://aws.amazon.com/api-gateway/) verwenden, um Drosselung zu implementieren. 

 **Pufferbasiert:** Ein pufferbasierter Ansatz verwendet *Produzenten* (Komponenten, die Nachrichten an die Warteschlange senden), *Verbraucher* (Komponenten, die Nachrichten aus der Warteschlange empfangen) und eine *Warteschlange* (die Nachrichten enthält), um die Nachrichten zu speichern. Nachrichten können dadurch von Verbrauchern in der für ihre Geschäftsanforderungen passenden Geschwindigkeit gelesen und verarbeitet werden. Durch die Verwendung einer pufferbasierten Methodik werden die Nachrichten von den Produzenten in Warteschlangen oder Streams gespeichert und können von den Verbrauchern in einem Tempo abgerufen werden, das sich an deren betrieblichen Anforderungen orientiert. 

In AWS können Sie zur Implementierung eines pufferbasierten Ansatzes aus mehreren Services wählen. [Amazon Simple Queue Service (Amazon SQS)](https://aws.amazon.com/sqs/) ist ein verwalteter Service, der Warteschlangen bietet, die es einem einzelnen Verbraucher ermöglichen, individuelle Nachrichten zu lesen. [Amazon Kinesis](https://aws.amazon.com/kinesis/) stellt einen Stream bereit, mit dem viele Verbraucher dieselben Nachrichten lesen können.

 Durch Pufferung und Drosselung können Spitzenwerte abgeflacht werden, indem die Anforderungen an Ihren Workload angepasst werden. Verwenden Sie die Drosselung, wenn Clients Aktionen wiederholen, und nutzen Sie die Pufferung, um Anfragen zurückzuhalten und später zu verarbeiten. Stellen Sie bei der Architektur mit einem pufferbasierten Ansatz sicher, dass Sie Ihren Workload so gestalten, dass er die Anfrage in der erforderlichen Zeit erfüllt, und dass Sie doppelte Arbeitsanfragen verarbeiten können. Analysieren Sie den Gesamtbedarf, die Änderungsrate und die erforderliche Reaktionszeit, um die korrekte Größe der erforderlichen Drosselung oder des Puffers zu bestimmen. 

### Implementierungsschritte
<a name="implementation-steps"></a>
+ **Analysieren der Client-Anforderungen:** Analysieren Sie die Client-Anforderungen, um zu bestimmen, ob sie Wiederholungen durchführen können. Für Clients, die keine Wiederholungen durchführen können, müssen Puffer implementiert werden. Analysieren Sie den Gesamtbedarf, die Änderungsrate und die erforderliche Reaktionszeit, um die Größe der erforderlichen Drosselung oder des Puffers zu bestimmen.
+ **Implementieren eines Puffers oder einer Drosselung:** Implementieren Sie einen Puffer oder eine Drosselung in der Workload. Eine Warteschlange wie Amazon Simple Queue Service (Amazon SQS) kann für Ihre Workload-Komponenten einen Puffer bereitstellen. Amazon API Gateway kann eine Drosselung für Ihre Workload-Komponenten bereitstellen. 

## Ressourcen
<a name="resources"></a>

 **Zugehörige bewährte Methoden:** 
+ [SUS02-BP06 Implementierung von Pufferung oder Drosselung, um die Bedarfskurve zu verflachen](https://docs.aws.amazon.com/wellarchitected/latest/sustainability-pillar/sus_sus_user_a7.html)
+ [REL05-BP02 Drosselung von Anfragen](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_mitigate_interaction_failure_throttle_requests.html)

 **Zugehörige Dokumente:** 
+  [AWS Auto Scaling](https://aws.amazon.com/autoscaling/) 
+  [AWS Instance Scheduler](https://aws.amazon.com/answers/infrastructure-management/instance-scheduler/) 
+  [Amazon API Gateway](https://aws.amazon.com/api-gateway/) 
+  [Amazon Simple Queue Service](https://aws.amazon.com/sqs/) 
+  [Erste Schritte mit Amazon SQS](https://aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) 
+  [Amazon Kinesis](https://aws.amazon.com/kinesis/) 

 **Zugehörige Videos:** 
+ [Choosing the Right Messaging Service for Your Distributed App](https://www.youtube.com/watch?v=4-JmX6MIDDI)

 **Zugehörige Beispiele:** 
+ [ Managing and monitoring API throttling in your workloads ](https://aws.amazon.com/blogs/mt/managing-monitoring-api-throttling-in-workloads/)
+ [Throttling a tiered, multi-tenant REST API at scale using API Gateway](https://aws.amazon.com/blogs/architecture/throttling-a-tiered-multi-tenant-rest-api-at-scale-using-api-gateway-part-1/)
+ [Enabling Tiering and Throttling in a Multi-Tenant Amazon EKS SaaS Solution Using Amazon API Gateway](https://aws.amazon.com/blogs/apn/enabling-tiering-and-throttling-in-a-multi-tenant-amazon-eks-saas-solution-using-amazon-api-gateway/)
+ [Application integration Using Queues and Messages](https://aws.amazon.com/blogs/architecture/application-integration-using-queues-and-messages/)

# COST09-BP03 Dynamische Bereitstellung von Ressourcen
<a name="cost_manage_demand_resources_dynamic"></a>

Ressourcen werden geplant bereitgestellt. Dies kann bedarfsbasiert sein, z. B. durch automatische Skalierung, oder zeitbasiert, wobei der Bedarf vorhersehbar ist und Ressourcen basierend auf der Zeit bereitgestellt werden. Diese Methoden führen zur geringsten Über- oder Unterversorgung.

 **Risikostufe bei fehlender Befolgung dieser bewährten Methode:** Niedrig 

## Implementierungsleitfaden
<a name="implementation-guidance"></a>

 Es gibt verschiedene Möglichkeiten für AWS-Kunden, die für ihre Anwendungen verfügbaren Ressourcen zu erhöhen und Ressourcen bereitzustellen, um der Nachfrage gerecht zu werden. Eine dieser Optionen ist die Verwendung von AWS Instance Scheduler, der das Starten und Stoppen von Amazon Elastic Compute Cloud (Amazon EC2)- und Amazon Relational Database Service (Amazon RDS)-Instances automatisiert. Die andere Option ist die Verwendung von AWS Auto Scaling, mit der Sie Ihre Computing-Ressourcen automatisch an die Anforderungen Ihrer Anwendung oder Ihres Services anpassen können. Wenn Sie Ressourcen bedarfsgerecht bereitstellen, zahlen Sie nur für die Ressourcen, die Sie tatsächlich nutzen. So senken Sie die Kosten, indem Sie Ressourcen bereitstellen, wenn sie benötigt werden, und sie beenden, wenn sie nicht mehr benötigt werden. 

 Mit [AWS Instance Scheduler](https://aws.amazon.com/solutions/implementations/instance-scheduler-on-aws/) können Sie das Stoppen und Startn Ihrer Amazon-EC2- und Amazon-RDS-Instances zu definierten Zeiten konfigurieren. So können Sie die Nachfrage nach denselben Ressourcen innerhalb eines konsistenten Zeitmusters befriedigen. Beispiel: Ein Benutzer greift jeden Tag um acht Uhr morgens auf Amazon-EC2-Instances zu, die er nach sechs Uhr abends nicht mehr benötigt. Durch diese Lösung lassen sich die Betriebskosten senken, indem sie nicht genutzte Ressourcen stoppt und sie bei Bedarf wieder startet. 

![\[Diagramm, das die Kostenoptimierung mit AWS Instance Scheduler zeigt\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/instance-scheduler-diagram.png)


 

Mit AWS Systems Manager Quick Setup können Sie mithilfe einer einfachen Benutzeroberfläche auch ganz einfach Zeitpläne für Ihre Amazon-EC2-Instances in Ihren Konten und Regionen konfigurieren. Sie können Amazon-EC2- oder Amazon-RDS-Instances mit AWS Instance Scheduler planen und bestehende Instances stoppen und starten. Sie können jedoch keine Instances stoppen und starten, die Teil Ihrer Auto-Scaling-Gruppe (ASG) sind oder die Services wie Amazon Redshift oder Amazon OpenSearch Service verwalten. Auto-Scaling-Gruppen haben ihre eigene Planung für die Instances in der Gruppe und diese Instances werden erstellt. 

Mit [AWS Auto Scaling](https://aws.amazon.com/autoscaling/) können Sie Ihre Kapazität anpassen, um eine stabile, vorhersehbare Leistung zu möglichst niedrigen Kosten aufrechtzuerhalten. Es handelt sich um einen vollständig verwalteten und kostenlosen Service zur Skalierung Ihrer Anwendung, der sich in Amazon-EC2-Instances und Spot-Flotten, Amazon ECS, Amazon DynamoDB und Amazon Aurora integrieren lässt. Auto Scaling bietet eine automatische Ressourcenerkennung, um zu helfen, Ressourcen in Ihrer Workload zu finden, die konfiguriert werden können. Es verfügt über integrierte Skalierungsstrategien zur Optimierung der Leistung, der Kosten oder eines Gleichgewichts zwischen beiden Ressourcen und bietet eine prädiktive Skalierung, um regelmäßig auftretende Spitzen zu unterstützen. 

 Für die Skalierung Ihrer Auto-Scaling-Gruppe haben Sie mehrere Skalierungsoptionen: 
+  Fortlaufende Nutzung derselben Anzahl an Instances 
+  Manuelles Skalieren 
+  Skalierung nach Zeitplan 
+  Skalierung nach Bedarf 
+  Verwendung prädiktiver Skalierung 

 Auto-Scaling-Richtlinien unterscheiden sich und können in dynamische und geplante Skalierungsrichtlinien unterteilt werden. Dynamische Richtlinien sind für manuelle oder dynamische Skalierung, die geplant oder prädiktiv sein kann. Sie können Skalierungsrichtlinien für dynamische, geplante und prädiktive Skalierung verwenden. Sie können auch Metriken und Alarme von [Amazon CloudWatch](https://aws.amazon.com/cloudwatch/) verwenden, um Skalierungsereignisse für Ihre Workload auszulösen. Wir empfehlen Ihnen die Verwendung von [Startvorlagen](https://docs.aws.amazon.com/autoscaling/ec2/userguide/launch-templates.html), mit denen Sie auf die neuesten Features und Verbesserungen zugreifen können. Nicht alle Auto-Scaling-Features sind verfügbar, wenn Sie Startkonfigurationen verwenden. Sie können beispielsweise keine Auto-Scaling-Gruppe erstellen, die Spot- und On-Demand-Instances startet oder mehrere Instance-Typen angibt. Sie müssen eine Startvorlage verwenden, um diese Funktionen zu konfigurieren. Wenn Sie Startvorlagen verwenden, empfehlen wir Ihnen, jede einzelne davon zu versionieren. Mit dem Versioning von Startvorlagen können Sie eine Teilmenge des vollständigen Satzes an Parametern erstellen. Anschließend können Sie es erneut verwenden, um andere Versionen derselben Startvorlage zu erstellen. 

 Verwenden Sie AWS Auto Scaling oder implementieren Sie die Skalierung mit den [AWS-APIs oder -SDKs](https://aws.amazon.com/developer/tools/) in Ihren Code. Dies reduziert Ihre Gesamtkosten für die Workload, da die Betriebskosten durch manuelle Änderungen an Ihrer Umgebung wegfallen, und kann viel schneller durchgeführt werden. So können Sie sicherstellen, dass Ihre Workload-Ressourcen jederzeit mit Ihrem Bedarf übereinstimmen. Damit Sie diese bewährte Methode befolgen und Ressourcen dynamisch für Ihre Organisation bereitstellen können, sollten Sie die horizontale und vertikale Skalierung in der AWS Cloud sowie die Art der auf den Amazon-EC2-Instances ausgeführten Anwendungen verstehen. Ihr Team für Cloud Financial Management sollte am besten mit den technischen Teams zusammenarbeiten, um diese bewährte Methode zu befolgen. 

 [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) unterstützt Sie bei der Skalierung durch die Verteilung der Nachfrage auf mehrere Ressourcen. Mithilfe von ASG und Elastic Load Balancing können Sie eingehende Anforderungen verwalten, indem Sie den Datenverkehr optimal weiterleiten, sodass keine Instance in einer Auto-Scaling-Gruppe überlastet wird. Die Anforderungen werden nacheinander auf alle Ziele einer Zielgruppe verteilt, ohne Rücksicht auf Kapazität oder Auslastung. 

 Typische Metriken können Amazon-EC2-Standardmetriken sein, z. B. CPU-Auslastung, Netzwerkdurchsatz und von Elastic Load Balancing beobachtete Anforderungs- und Antwortlatenz. Wenn möglich, sollten Sie eine Metrik verwenden, die auf das Kundenerlebnis hinweist. In der Regel handelt es sich um eine benutzerdefinierte Metrik, die aus Anwendungscode innerhalb Ihrer Workload stammen kann. Um in diesem Dokument zu erläutern, wie die Nachfrage dynamisch gedeckt werden kann, werden wir Auto Scaling in zwei Kategorien einteilen, nämlich nachfragebasierte und zeitbasierte Angebotsmodelle, und uns eingehend mit den einzelnen Modellen befassen. 

**Nachfragebasiertes Angebot:** Nutzen Sie die Elastizität der Cloud, um Ressourcen bereitzustellen, die sich ändernden Anforderungen gerecht werden, indem Sie sich auf den Nachfragestatus nahezu in Echtzeit verlassen. Verwenden Sie für nachfragebasierte Bereitstellung APIs oder Servicefeatures, um die Menge der Cloud-Ressourcen in Ihrer Architektur programmgesteuert zu variieren. Auf diese Weise können Sie Komponenten in Ihrer Architektur skalieren und die Anzahl der Ressourcen in Bedarfsspitzenzeiten zur Aufrechterhalten der Leistung erhöhen und die Kapazität zur Reduzierung der Kosten herabsetzen, wenn der Bedarf abklingt. 

![\[Diagramm mit einer Beschreibung nachfragebasierter Skalierungsrichtlinien wie einfacher/schrittweiser Skalierung und Zielverfolgung\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/demand-based-supply.png)


 
+  **Einfache/schrittweise Skalierung:** Überwacht Metriken und fügt Instances gemäß den vom Kunden manuell definierten Schritten hinzu oder entfernt sie. 
+  **Zielverfolgung:** Ein thermostatähnlicher Steuermechanismus, der automatisch Instances hinzufügt oder entfernt, um die Metriken an einem vom Kunden definierten Ziel zu halten. 

Beim Aufbau der Architektur mit einem bedarfsbasierten Ansatz sollten Sie die folgenden beiden wichtigen Aspekte berücksichtigen: 1. Machen Sie sich damit vertraut, wie schnell Sie neue Ressourcen bereitstellen müssen. 2. Machen Sie sich damit vertraut, dass sich die Größe der Marge zwischen Angebot und Nachfrage ändern wird. Sie müssen darauf vorbereitet sein, das Intervall der Änderung in Bezug auf die Nachfrage zu verarbeiten, und auch Ressourcenfehler einkalkulieren.

**Zeitbasiertes Angebot:** Ein zeitbasierter Ansatz richtet die Ressourcenkapazität an der Nachfrage aus, die vorhersehbar oder eindeutig durch die Zeit definiert ist. Dieser Ansatz ist in der Regel nicht abhängig vom Nutzungsgrad der Ressourcen. Mit einem zeitbasierten Ansatz können Sie sicherstellen, dass Ressourcen zu dem Zeitpunkt zur Verfügung stehen, zu dem sie benötigt werden, und ohne Verzögerung aufgrund von Startverfahren und System- oder Konsistenzprüfungen bereitgestellt werden können. Durch die Verwendung eines zeitbasierten Ansatzes können Sie zusätzliche Ressourcen hinzufügen oder die Kapazität in Spitzenzeiten erhöhen.

![\[Diagramm, das zeitbasierte Skalierungsrichtlinien wie geplante und prädiktive Skalierung beschreibt\]](http://docs.aws.amazon.com/de_de/wellarchitected/latest/framework/images/time-based-supply.png)


 

Sie können geplantes oder vorausschauendes Auto Scaling verwenden, um einen zeitbasierten Ansatz zu implementieren. Workloads können zu bestimmten Zeiten auf Basis eines Zeitplans auf- oder abskaliert werden, z. B. zu Beginn der Geschäftszeiten. Dadurch sind ausreichende Ressourcen verfügbar, wenn die Benutzer ankommen oder die Nachfrage steigt. Die vorausschauende Skalierung verwendet Muster zum Aufskalieren, während bei der geplanten Skalierung vordefinierte Zeiten für die Aufskalierung verwendet werden. Sie können auch eine [Strategie der attributbasierten Auswahl des Instance-Typs](https://docs.aws.amazon.com/autoscaling/ec2/userguide/create-asg-instance-type-requirements.html) in Auto-Scaling-Gruppen verwenden und so die Instance-Anforderungen in Form einer Gruppe von Attributen ausdrücken, z. B. vCPU, Arbeitsspeicher und Speicher. Darüber hinaus können Sie automatisch Instance-Typen neuerer Generationen verwenden, sobald sie veröffentlicht werden, und mit Amazon EC2 Spot Instances auf ein größeres Kapazitätsangebot zugreifen. Amazon-EC2-Flotte und Amazon EC2 Auto Scaling wählen Instances aus, die den angegebenen Attributen entsprechen, und starten diese. So müssen Sie Instance-Typen nicht mehr manuell auswählen. 

Sie können auch die [AWS-APIs und -SDKs](https://aws.amazon.com/developer/tools/) und [AWS CloudFormation](https://aws.amazon.com/cloudformation/) nutzen, um vollständige Umgebungen nach Bedarf automatisch bereitzustellen oder zu deaktivieren. Dieser Ansatz eignet sich hervorragend für Entwicklungs- und Testumgebungen, die nur zu Geschäftszeiten oder in bestimmten Zeiträumen ausgeführt werden. Mit APIs können Sie die Größe der Ressourcen innerhalb einer Umgebung skalieren (vertikale Skalierung). So könnten Sie beispielsweise eine Produktions-Workload hochskalieren, indem Sie die Instance-Größe oder -Klasse ändern. Stoppen und starten Sie dazu die Instance, und wählen Sie eine andere Instance-Größe oder -Klasse aus. Diese Technik kann auch auf andere Ressourcen angewendet werden, z. B. Amazon EBS Elastic Volumes, bei denen Sie im laufenden Betrieb die Größe ändern, die Leistung anpassen (IOPS) oder den Volume-Typ ändern können.

Beim Aufbau der Architektur mit einem zeitbasierten Ansatz sollten Sie die beiden folgenden wichtigen Aspekte berücksichtigen: 1: Wie konsistent ist das Nutzungsmuster? 2. Wie wirken sich Musteränderungen aus? Sie können die Treffergenauigkeit für Prognosen durch die Überwachung Ihrer Workloads und die Verwendung von Business Intelligence erhöhen. Wenn Sie signifikante Änderungen im Nutzungsmuster erkennen, können Sie die Zeiten ändern, um eine Deckung zu gewährleisten.

## Implementierungsschritte
<a name="implementation-steps"></a>
+ **Konfigurieren der geplanten Skalierung:** Für vorhersehbare Änderungen des Bedarfs kann die zeitbasierte Skalierung die richtige Anzahl an Ressourcen in einem angemessenen Zeitraum bereitstellen. Es ist auch nützlich, wenn die Ressourcenerstellung und -konfiguration nicht schnell genug ist, um bei Bedarf auf Änderungen zu reagieren. Mithilfe der Workload-Analyse konfigurieren Sie die geplante Skalierung mithilfe von AWS Auto Scaling. Zur Konfiguration der zeitbasierten Planung können Sie die vorausschauende Skalierung der geplanten Skalierung verwenden, um im Vorfeld die Anzahl der Amazon-EC2-Instances in Ihren Auto-Scaling-Gruppen entsprechend den erwarteten oder prognostizierbaren Lastveränderungen zu erhöhen.
+  **Konfigurieren der vorausschauenden Skalierung:** Mit der vorausschauenden Skalierung können Sie im Voraus die Amazon-EC2-Instances in Ihrer Auto-Scaling-Gruppe anhand von täglichen und wöchentlichen Mustern in Datenverkehrsflüssen erhöhen. Wenn Sie regelmäßige Spitzen beim Datenverkehr sowie Anwendungen haben, die lange brauchen, um zu starten, sollten Sie die vorausschauende Skalierung in Betracht ziehen. Die vorausschauende Skalierung kann Ihnen helfen, schneller zu skalieren, indem die Kapazität vor der prognostizierten Last initialisiert wird, im Gegensatz zur dynamischen Skalierung, die nur reaktiv ist. Wenn die Benutzer Ihre Workloads beispielsweise mit Beginn der Geschäftszeiten nutzen und sie nach Geschäftsschluss nicht mehr brauchen, kann die vorausschauende Skalierung die Kapazität vor den Geschäftszeiten erhöhen. Die Verzögerung, die bei der dynamischen Skalierung entsteht, bis sie auf den veränderten Datenverkehr reagiert, entfällt somit. 
+ **Konfigurieren von dynamischer automatischer Skalierung:** Verwenden Sie Auto Scaling, um die Skalierung auf der Grundlage von aktiven Workload-Metriken zu konfigurieren. Verwenden Sie die Analyse und konfigurieren Sie Auto Scaling so, dass es auf den richtigen Ressourcenebenen gestartet wird. Achten Sie darauf, dass die Workload in der erforderlichen Zeit skaliert wird. Sie können eine Flotte von On-Demand-Instances und Spot-Instances innerhalb einer einzigen Auto-Scaling-Gruppe starten und automatisch skalieren. Zusätzlich zum Erhalt von Rabatten für die Verwendung von Spot-Instances können Sie mit Reserved Instances oder einem Savings Plan Rabatte auf die regulären On-Demand-Instance-Preise erhalten. Alle diese Faktoren zusammengenommen helfen Ihnen dabei, Ihre Kosteneinsparungen für Amazon-EC2-Instances zu optimieren und sicherzustellen, dass Sie die gewünschte Skalierung und Leistung für Ihre Anwendung erreichen.

## Ressourcen
<a name="resources"></a>

 **Zugehörige Dokumente:** 
+  [AWS Auto Scaling](https://aws.amazon.com/autoscaling/) 
+  [AWS Instance Scheduler](https://aws.amazon.com/answers/infrastructure-management/instance-scheduler/) 
+  Skalieren der Größe Ihrer Auto-Scaling-Gruppe 
+  [Erste Schritte mit Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/GettingStartedTutorial.html) 
+  [Erste Schritte mit Amazon SQS](https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-getting-started.html) 
+  [Scheduled Scaling for Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/schedule_time.html) 
+ [Predictive scaling for Amazon EC2 Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/ec2-auto-scaling-predictive-scaling.html)

 **Zugehörige Videos:** 
+ [Target Tracking Scaling Policies for Auto Scaling ](https://www.youtube.com/watch?v=-RumeaoPB2M)
+ [AWS Instance Scheduler](https://www.youtube.com/watch?v=nTLEyo2NzUs)

 **Zugehörige Beispiele:** 
+ [Attribute based Instance Type Selection for Auto Scaling for Amazon EC2 Fleet](https://aws.amazon.com/blogs/aws/new-attribute-based-instance-type-selection-for-ec2-auto-scaling-and-ec2-fleet/)
+ [Optimizing Amazon Elastic Container Service for cost using scheduled scaling](https://aws.amazon.com/blogs/containers/optimizing-amazon-elastic-container-service-for-cost-using-scheduled-scaling/)
+ [Predictive Scaling with Amazon EC2 Auto Scaling](https://aws.amazon.com/blogs/compute/introducing-native-support-for-predictive-scaling-with-amazon-ec2-auto-scaling/)
+ [Wie verwende ich den Instance Scheduler mit CloudFormation, um Amazon-EC2-Instances zu planen?](https://aws.amazon.com/premiumsupport/knowledge-center/stop-start-instance-scheduler/)