

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Ältere HRNN-Rezepte
<a name="legacy-user-personalization-recipes"></a>

Ältere HRNN-Rezepte sind nicht mehr verfügbar. Diese Dokumentation dient zu Referenzzwecken.

 Wir empfehlen, das Rezept aws-user-personalizaton (Benutzerpersonalisierung) gegenüber den älteren HRNN-Rezepten zu verwenden. Die Benutzerpersonalisierung verbessert und vereinheitlicht die Funktionalität der HRNN-Rezepte. Weitere Informationen finden Sie unter [Rezept für Benutzerpersonalisierung](native-recipe-new-item-USER_PERSONALIZATION.md). 

Amazon Personalize kann auf der Grundlage seiner Analyse der Eingabedaten automatisch das am besten geeignete Rezept für hierarchisches wiederkehrendes neuronales Netzwerk (HRNN) auswählen. Diese Option wird als AutoML bezeichnet. Weitere Informationen finden Sie unter [Verwenden von AutoML zur Auswahl eines HRNN-Rezepts (nur API)](training-solution-auto-ml.md).

**Topics**
+ [Verwenden von AutoML zur Auswahl eines HRNN-Rezepts (nur API)](training-solution-auto-ml.md)
+ [HRNN-Rezept (veraltet)](native-recipe-hrnn.md)
+ [HRNN-Metadaten-Rezept (veraltet)](native-recipe-hrnn-metadata.md)
+ [HRNN-Coldstart-Rezept (veraltet)](native-recipe-hrnn-coldstart.md)

# Verwenden von AutoML zur Auswahl eines HRNN-Rezepts (nur API)
<a name="training-solution-auto-ml"></a>

Amazon Personalize kann auf der Grundlage seiner Analyse der Eingabedaten automatisch das am besten geeignete Rezept für hierarchisches wiederkehrendes neuronales Netzwerk (HRNN) auswählen. Diese Option wird als AutoML bezeichnet. Zum Ausführen von AutoML setzen Sie den `performAutoML`-Parameter auf `true`, wenn Sie die [CreateSolution](API_CreateSolution.md)-API aufrufen. 

Sie können auch die Liste der Rezepte angeben, die Amazon Personalize anhand einer von Ihnen angegebenen Metrik untersucht, um das optimale Rezept zu ermitteln. In diesem Fall rufen Sie die `CreateSolution` Operation auf, spezifizieren `true` für den `performAutoML` Parameter, lassen den `recipeArn` Parameter weg und schließen den `solutionConfig` Parameter ein, wobei Sie `metricName` und `recipeList` als Teil des `autoMLConfig` Objekts angeben. 

Wie ein Rezept ausgewählt wird, ist in der folgenden Tabelle dargestellt. Es muss entweder `performAutoML` oder `recipeArn` angegeben werden, aber nicht beides. AutoML erfolgt nur mithilfe der HRNN-Rezepte.


| performAutoML | recipeArn | solutionConfig | Ergebnis | 
| --- | --- | --- | --- | 
| true | weglassen | ausgelassen | Amazon Personalize wählt das Rezept | 
| true | weglassen | autoMLConfig: metricName und recipeList werden angegeben | Amazon Personalize wählt aus der Liste ein Rezept aus, das die Metrik optimiert | 
| weglassen | angegeben | ausgelassen | Sie müssen das Rezept angeben. | 
| weglassen | angegeben | angegeben | Sie geben das Rezept an und überschreiben die Standard-Schulungseigenschaften | 

**Anmerkung**  
Wenn `performAutoML` `true` ist, werden alle Parameter des `solutionConfig`-Objekts mit Ausnahme von `autoMLConfig` ignoriert.

# HRNN-Rezept (veraltet)
<a name="native-recipe-hrnn"></a>

**Anmerkung**  
Ältere HRNN-Rezepte sind nicht mehr verfügbar. Diese Dokumentation dient zu Referenzzwecken.  
 Wir empfehlen, das Rezept aws-user-personalizaton (Benutzerpersonalisierung) gegenüber den älteren HRNN-Rezepten zu verwenden. Die Benutzerpersonalisierung verbessert und vereinheitlicht die Funktionalität der HRNN-Rezepte. Weitere Informationen finden Sie unter [Rezept für Benutzerpersonalisierung](native-recipe-new-item-USER_PERSONALIZATION.md). 

Das Rezept für hierarchisches wiederkehrendes neuronales Netzwerk (HRNN) von Amazon Personalize modelliert Änderungen im Benutzerverhalten, um während einer Sitzung Empfehlungen zu geben. Eine Sitzung ist eine Reihe von Benutzerinteraktionen innerhalb eines bestimmten Zeitraums mit dem Ziel, ein bestimmtes Element zu finden, um z. B.eine Anforderung zu erfüllen. Indem Sie die jüngsten Interaktionen eines Benutzers höher gewichten, können Sie während einer Sitzung relevantere Empfehlungen geben.

HRNN berücksichtigt Benutzerabsicht und -interessen, die sich mit der Zeit ändern können. Damit werden geordnete Benutzerhistorien automatisch gewichtet, um bessere Inferenzen zu erzielen. HRNN verwendet einen Gating-Mechanismus, um die reduzierten Gewichtungen als lernbare Funktion von Elementen mit Zeitstempel zu modellieren.

Amazon Personalize leitet die Funktionen für jeden Benutzer aus Ihrem Datensatz ab. Findet eine Echtzeit-Datenintegration statt, werden diese Funktionen entsprechend den Benutzeraktivitäten in Echtzeit aktualisiert. Um eine Empfehlung zu erhalten, geben Sie nur die `USER_ID` an. Wenn Sie auch eine angeben`ITEM_ID`, ignoriert Amazon Personalize sie.

Das HRNN-Rezept hat die folgenden Eigenschaften:
+  **Name (Name** – `aws-hrnn`
+  **Rezept Amazon-Ressourcenname (ARN)** — `arn:aws:personalize:::recipe/aws-hrnn`
+  **Algorithmus ARN** — `arn:aws:personalize:::algorithm/aws-hrnn`
+  **Merkmalstransformation ARN** — `arn:aws:personalize:::feature-transformation/JSON-percentile-filtering`
+  **Art des Rezepts** — `USER_PERSONALIZATION`

In der folgenden Tabelle werden die Hyperparameter für das HRNN-Rezept beschrieben. Ein *Hyperparameter* ist ein Algorithmusparameter, den Sie anpassen können, um die Modellleistung zu verbessern. Algorithmus-Hyperparameter steuern die Leistung des Modells. Hyperparameter zur Entwicklung von Funktionen steuern, wie die Daten für die Schulung gefiltert werden. Die Auswahl des besten Werts für einen Hyperparameter wird als Hyperparameteroptimierung (HPO) bezeichnet. Weitere Informationen finden Sie unter [Hyperparameter und HPO](customizing-solution-config-hpo.md). 

Die Tabelle enthält auch die folgenden Informationen für jeden Hyperparameter:
+ **Bereich**: [Untergrenze, Obergrenze]
+ **Werttyp**: Ganzzahl, kontinuierlich (float), kategorisch (boolean, Liste, Zeichenfolge)
+ **HPO optimierbar**: Kann der Parameter an der Hyperparameteroptimierung (HPO) teilnehmen?


| Name | Beschreibung | 
| --- | --- | 
| Hyperparameter des Algorithmus | 
| hidden\$1dimension |  Anzahl der ausgeblendeten Variablen im Modell. *Ausgeblendete Variablen* erstellen die Kaufhistorie und Elementstatistiken der Benutzer neu, um die Rangfolge zu generieren. Geben Sie eine größere Anzahl ausgeblendeter Dimensionen an, wenn Ihr Datensatz für Artikelinteraktionen kompliziertere Muster enthält. Je mehr ausgeblendete Dimensionen verwendet werden, desto größer muss das Dataset sein und desto länger dauert die Verarbeitung. Bestimmen Sie den optimalen Wert mithilfe der HPO. Um HPO zu verwenden, legen Sie `performHPO` auf `true` fest, wenn Sie die Operationen [CreateSolutionVersion](API_CreateSolutionVersion.md) und[CreateSolution](API_CreateSolution.md) aufrufen. Standardwert: 43 Bereich: [32, 256] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| bptt |  Legt fest, ob die Technik „Backpropagation über Zeit“ verwendet werden soll. Die*Backpropagation über Zeit* ist eine Technik, die Gewichtungen in wiederkehrenden neuronalen netzwerkbasierten Algorithmen aktualisiert. Verwenden Sie `bptt` für langfristige Guthaben, um verzögerte Belohnungen mit frühen Ereignissen zu verbinden. Eine verzögerte Belohnung kann beispielsweise ein Kauf nach mehreren Klicks sein. Ein frühes Ereignis kann ein erster Klick sein. Selbst bei denselben Ereignistypen wie einem Klick empfiehlt es sich, langfristige Effekte zu berücksichtigen und die Gesamtbelohnungen zu maximieren. Um Langzeiteffekte zu berücksichtigen, verwenden Sie höhere `bptt`-Werte. Die Verwendung eines höheren `bptt`-Werts erfordert größere Datasets und mehr Zeit für die Verarbeitung. Standardwert: 32 Bereich: [2, 32] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| recency\$1mask |  Legt fest, ob das Modell die neuesten Beliebtheitstrends im Datensatz Artikelinteraktionen berücksichtigen soll. Neueste Beliebtheitstrends können plötzliche Änderungen in den zugrunde liegenden Mustern von Interaktionsereignissen umfassen. Um ein Modell zu schulen, das aktuelle Ereignisse stärker gewichtet, legen Sie `recency_mask` auf `true` fest. Um ein Modell zu schulen, das alle vorherigen Interaktionen gleichermaßen abwägt, legen Sie `recency_mask` auf `false` fest. Um gute Empfehlungen mit gleicher Gewichtung zu erhalten, benötigen Sie möglicherweise ein größeres Schulungsdataset. Standardwert: `True` Bereich: `True` oder `False` Werttyp: Boolescher Wert HPO-optimierbar: Ja  | 
| Hyperparameter zur Featureinstellung | 
| min\$1user\$1history\$1length\$1percentile |  Das Mindestperzentil der Benutzerhistorienlängen, das in die Modellschulung einbezogen werden muss. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `min_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit kurzen Historienlängen auszuschließen. Benutzer mit einer kurzen Historie zeigen häufig Muster basierend auf der Beliebtheit von Elementen anstelle der persönlichen Bedürfnisse oder Wünsche des Benutzers. Wenn Sie diese entfernen, können Sie Modelle schulen, die sich stärker auf die zugrunde liegenden Muster in Ihren Daten konzentrieren. Wählen Sie einen geeigneten Wert aus, nachdem Sie die Längen der Benutzerhistorien mithilfe eines Histogramms oder eines ähnlichen Tools überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden.  Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.0 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 
| max\$1user\$1history\$1length\$1percentile |  Das maximale Perzentil der Benutzerhistorienlänge, das in die Modellschulung einbezogen werden kann. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `max_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit langen Historienlängen auszuschließen, da die Daten für diese Benutzer in der Regel Rauschen enthalten. Beispielsweise kann ein Roboter über eine lange Liste automatisierter Interaktionen verfügen. Durch das Entfernen dieser Benutzer werden Störungen der Schulung eingeschränkt. Wählen Sie einen geeigneten Wert, nachdem Sie die Längen der Benutzerhistorien mit einem Histogramm oder einem ähnlichen Tool überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden. Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.99 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 

# HRNN-Metadaten-Rezept (veraltet)
<a name="native-recipe-hrnn-metadata"></a>

**Anmerkung**  
Ältere HRNN-Rezepte sind nicht mehr verfügbar. Diese Dokumentation dient zu Referenzzwecken.  
 Wir empfehlen, das Rezept aws-user-personalizaton (Benutzerpersonalisierung) gegenüber den älteren HRNN-Rezepten zu verwenden. Die Benutzerpersonalisierung verbessert und vereinheitlicht die Funktionalität der HRNN-Rezepte. Weitere Informationen finden Sie unter [Rezept für Benutzerpersonalisierung](native-recipe-new-item-USER_PERSONALIZATION.md). 

Das HRNN-Metadata-Rezept prognostiziert die Elemente, mit denen ein Benutzer interagiert. Dies ähnelt dem [HRNN](native-recipe-hrnn.md)-Rezept mit zusätzlichen Funktionen, die aus Kontext-, Benutzer- und Elementmetadaten abgeleitet sind (aus Datensätzen für Interaktionen, Benutzer und Elemente). HRNN-Metadata bietet Genauigkeitsvorteile gegenüber Nicht-Metadatenmodellen, wenn qualitativ hochwertige Metadaten verfügbar sind. Die Verwendung dieses Rezepts erfordert möglicherweise längere Schulungszeiten.

Das HRNN-Metadata-Rezept hat die folgenden Eigenschaften:
+  **Name (Name** – `aws-hrnn-metadata`
+  **Rezept Amazon-Ressourcenname (ARN)** — `arn:aws:personalize:::recipe/aws-hrnn-metadata`
+  **Algorithmus ARN** — `arn:aws:personalize:::algorithm/aws-hrnn-metadata`
+  **Merkmalstransformation ARN** — `arn:aws:personalize:::feature-transformation/featurize_metadata`
+  **Art des Rezepts** — `USER_PERSONALIZATION`

In der folgenden Tabelle werden die Hyperparameter für das HRNN-Metadata-Rezept beschrieben. Ein *Hyperparameter* ist ein Algorithmusparameter, den Sie anpassen können, um die Modellleistung zu verbessern. Algorithmus-Hyperparameter steuern die Leistung des Modells. Hyperparameter zur Entwicklung von Funktionen steuern, wie die Daten für die Schulung gefiltert werden. Die Auswahl des besten Werts für einen Hyperparameter wird als Hyperparameteroptimierung (HPO) bezeichnet. Weitere Informationen finden Sie unter [Hyperparameter und HPO](customizing-solution-config-hpo.md). 

Die Tabelle enthält auch die folgenden Informationen für jeden Hyperparameter:
+ **Bereich**: [Untergrenze, Obergrenze]
+ **Werttyp**: Ganzzahl, kontinuierlich (float), kategorisch (boolean, Liste, Zeichenfolge)
+ **HPO optimierbar**: Kann der Parameter an der Hyperparameteroptimierung (HPO) teilnehmen?


| Name | Beschreibung | 
| --- | --- | 
| Algorithmus-Hyperparameter | 
| hidden\$1dimension |  Anzahl der ausgeblendeten Variablen im Modell. *Ausgeblendete Variablen* erstellen die Kaufhistorie und Elementstatistiken der Benutzer neu, um die Rangfolge zu generieren. Geben Sie eine größere Anzahl ausgeblendeter Dimensionen an, wenn Ihr Datensatz mit Artikelinteraktionen kompliziertere Muster enthält. Je mehr ausgeblendete Dimensionen verwendet werden, desto größer muss das Dataset sein und desto länger dauert die Verarbeitung. Bestimmen Sie den optimalen Wert mithilfe der HPO. Um HPO zu verwenden, legen Sie `performHPO` auf `true` fest, wenn Sie die Operationen [CreateSolutionVersion](API_CreateSolutionVersion.md) und[CreateSolution](API_CreateSolution.md) aufrufen. Standardwert: 43 Bereich: [32, 256] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| bptt |  Legt fest, ob die Technik „Backpropagation über Zeit“ verwendet werden soll. Die*Backpropagation über Zeit* ist eine Technik, die Gewichtungen in wiederkehrenden neuronalen netzwerkbasierten Algorithmen aktualisiert. Verwenden Sie `bptt` für langfristige Guthaben, um verzögerte Belohnungen mit frühen Ereignissen zu verbinden. Eine verzögerte Belohnung kann beispielsweise ein Kauf nach mehreren Klicks sein. Ein frühes Ereignis kann ein erster Klick sein. Selbst bei denselben Ereignistypen wie einem Klick empfiehlt es sich, langfristige Effekte zu berücksichtigen und die Gesamtbelohnungen zu maximieren. Um Langzeiteffekte zu berücksichtigen, verwenden Sie höhere `bptt`-Werte. Die Verwendung eines höheren `bptt`-Werts erfordert größere Datasets und mehr Zeit für die Verarbeitung. Standardwert: 32 Bereich: [2, 32] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| recency\$1mask |  Legt fest, ob das Modell die neuesten Beliebtheitstrends im Datensatz Artikelinteraktionen berücksichtigen soll. Neueste Beliebtheitstrends können plötzliche Änderungen in den zugrunde liegenden Mustern von Interaktionsereignissen umfassen. Um ein Modell zu schulen, das aktuelle Ereignisse stärker gewichtet, legen Sie `recency_mask` auf `true` fest. Um ein Modell zu schulen, das alle vorherigen Interaktionen gleichermaßen abwägt, legen Sie `recency_mask` auf `false` fest. Um gute Empfehlungen mit gleicher Gewichtung zu erhalten, benötigen Sie möglicherweise ein größeres Schulungsdataset. Standardwert: `True` Bereich: `True` oder `False` Werttyp: Boolescher Wert HPO-optimierbar: Ja  | 
| Hyperparameter zur Featureinstellung | 
| min\$1user\$1history\$1length\$1percentile |  Das Mindestperzentil der Benutzerhistorienlängen, das in die Modellschulung einbezogen werden muss. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `min_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit kurzen Historienlängen auszuschließen. Benutzer mit einer kurzen Historie zeigen häufig Muster basierend auf der Beliebtheit von Elementen anstelle der persönlichen Bedürfnisse oder Wünsche des Benutzers. Wenn Sie diese entfernen, können Sie Modelle schulen, die sich stärker auf die zugrunde liegenden Muster in Ihren Daten konzentrieren. Wählen Sie einen geeigneten Wert aus, nachdem Sie die Längen der Benutzerhistorien mithilfe eines Histogramms oder eines ähnlichen Tools überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden.  Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.0 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 
| max\$1user\$1history\$1length\$1percentile |  Das maximale Perzentil der Benutzerhistorienlänge, das in die Modellschulung einbezogen werden kann. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `max_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit langen Historienlängen auszuschließen, da die Daten für diese Benutzer in der Regel Rauschen enthalten. Beispielsweise kann ein Roboter über eine lange Liste automatisierter Interaktionen verfügen. Durch das Entfernen dieser Benutzer werden Störungen der Schulung eingeschränkt. Wählen Sie einen geeigneten Wert, nachdem Sie die Längen der Benutzerhistorien mit einem Histogramm oder einem ähnlichen Tool überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden. Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.99 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 

# HRNN-Coldstart-Rezept (veraltet)
<a name="native-recipe-hrnn-coldstart"></a>

**Anmerkung**  
Ältere HRNN-Rezepte sind nicht mehr verfügbar. Diese Dokumentation dient zu Referenzzwecken.  
 Wir empfehlen, das Rezept aws-user-personalizaton (Benutzerpersonalisierung) gegenüber den älteren HRNN-Rezepten zu verwenden. Die Benutzerpersonalisierung verbessert und vereinheitlicht die Funktionalität der HRNN-Rezepte. Weitere Informationen finden Sie unter [Rezept für Benutzerpersonalisierung](native-recipe-new-item-USER_PERSONALIZATION.md). 

Verwenden Sie das HRNN-ColdStart-Rezept, um vorherzusagen, mit welchen Elementen ein Benutzer interagieren wird, wenn Sie häufig neue Elemente und Interaktionen hinzufügen, und Sie möchten sofort Empfehlungen für diese Elemente erhalten. Das HRNN-Kaltstartrezept ähnelt dem [HRNN-Metadata](native-recipe-hrnn-metadata.md)-Rezept, aber es ermöglicht Ihnen, Empfehlungen aus neuen Elementen zu erhalten. 

Darüber hinaus können Sie das HRNN-Coldstart-Rezept verwenden, wenn Sie es von Schulungselementen ausschließen möchten, die über eine lange Liste von Interaktionen verfügen, entweder aufgrund eines aktuellen Beliebtheitstrends oder weil die Interaktionen äußerst ungewöhnlich sind und zu Störungen bei der Schulung führen. Mit HRNN-Coldstart können Sie weniger relevante Elemente herausfiltern, um eine Teilmenge für die Schulung zu erstellen. Bei der Teilmenge der Elemente, den so genannten „*kalten Elementen“, handelt es sich um Elemente*, für die im Datensatz Artikelinteraktionen verwandte Interaktionsereignisse vorhanden sind. Ein Element wird als kaltes Element betrachtet, wenn Folgendes zutrifft:
+ Es hat weniger Interaktionen als eine angegebene Anzahl von maximalen Interaktionen. Sie geben diesen Wert im `cold_start_max_interactions`-Hyperparameter des Rezepts an.
+ Es hat eine kürzere relative Dauer als die maximale Dauer. Sie geben diesen Wert im `cold_start_max_duration`-Hyperparameter des Rezepts an.

Um die Anzahl der Kaltelemente zu reduzieren, legen Sie einen niedrigeren Wert für `cold_start_max_interactions` oder `cold_start_max_duration` fest. Um die Anzahl der Kaltelemente zu erhöhen, legen Sie einen höheren Wert für `cold_start_max_interactions` oder `cold_start_max_duration` fest.



Beim HRNN-Kaltstart gelten folgende Limits für Kaltelemente:
+ `Maximum cold start items`: 80.000
+ `Minimum cold start items`: 100

Wenn die Anzahl der Kaltelemente außerhalb dieses Bereichs liegt, schlagen Versuche, eine Lösung zu erstellen, fehl.

Das HRNN-Kaltstartrezept hat die folgenden Eigenschaften:
+  **Name (Name** – `aws-hrnn-coldstart`
+  **Rezept Amazon-Ressourcenname (ARN)** — `arn:aws:personalize:::recipe/aws-hrnn-coldstart`
+  **Algorithmus ARN** — `arn:aws:personalize:::algorithm/aws-hrnn-coldstart`
+  **Merkmalstransformation ARN** — `arn:aws:personalize:::feature-transformation/featurize_coldstart`
+  **Art des Rezepts** — `USER_PERSONALIZATION`

Weitere Informationen finden Sie unter [Ein Rezept wählen](working-with-predefined-recipes.md).

In der folgenden Tabelle werden die Hyperparameter für das HRNN-Kaltstartrezept beschrieben. Ein *Hyperparameter* ist ein Algorithmusparameter, den Sie anpassen können, um die Modellleistung zu verbessern. Algorithmus-Hyperparameter steuern die Leistung des Modells. Hyperparameter zur Entwicklung von Funktionen steuern, wie die Daten für die Schulung gefiltert werden. Die Auswahl des besten Werts für einen Hyperparameter wird als Hyperparameteroptimierung (HPO) bezeichnet. Weitere Informationen finden Sie unter [Hyperparameter und HPO](customizing-solution-config-hpo.md). 

Die Tabelle enthält auch die folgenden Informationen für jeden Hyperparameter:
+ **Bereich**: [Untergrenze, Obergrenze]
+ **Werttyp**: Ganzzahl, kontinuierlich (float), kategorisch (boolean, Liste, Zeichenfolge)
+ **HPO optimierbar**: Kann der Parameter an der Hyperparameteroptimierung (HPO) teilnehmen?


| Name | Beschreibung | 
| --- | --- | 
| Hyperparameter des Algorithmus | 
| hidden\$1dimension | Anzahl der ausgeblendeten Variablen im Modell. *Ausgeblendete Variablen* erstellen die Kaufhistorie und Elementstatistiken der Benutzer neu, um die Rangfolge zu generieren. Geben Sie eine größere Anzahl ausgeblendeter Dimensionen an, wenn Ihr Datensatz für Artikelinteraktionen kompliziertere Muster enthält. Je mehr ausgeblendete Dimensionen verwendet werden, desto größer muss das Dataset sein und desto länger dauert die Verarbeitung. Bestimmen Sie den optimalen Wert mithilfe der HPO. Um HPO zu verwenden, legen Sie `performHPO` auf `true` fest, wenn Sie die Operationen [CreateSolutionVersion](API_CreateSolutionVersion.md) und[CreateSolution](API_CreateSolution.md) aufrufen. Standardwert Bereich: [32, 256] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| bptt | Legt fest, ob die Technik „Backpropagation über Zeit“ verwendet werden soll. Die*Backpropagation über Zeit* ist eine Technik, die Gewichtungen in wiederkehrenden neuronalen netzwerkbasierten Algorithmen aktualisiert. Verwenden Sie `bptt` für langfristige Guthaben, um verzögerte Belohnungen mit frühen Ereignissen zu verbinden. Eine verzögerte Belohnung kann beispielsweise ein Kauf nach mehreren Klicks sein. Ein frühes Ereignis kann ein erster Klick sein. Selbst bei denselben Ereignistypen wie einem Klick empfiehlt es sich, langfristige Effekte zu berücksichtigen und die Gesamtbelohnungen zu maximieren. Um Langzeiteffekte zu berücksichtigen, verwenden Sie höhere `bptt`-Werte. Die Verwendung eines höheren `bptt`-Werts erfordert größere Datasets und mehr Zeit für die Verarbeitung. Standardwert: 32 Bereich: [2, 32] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| recency\$1mask |  Legt fest, ob das Modell die neuesten Beliebtheitstrends im Datensatz Artikelinteraktionen berücksichtigen soll. Neueste Beliebtheitstrends können plötzliche Änderungen in den zugrunde liegenden Mustern von Interaktionsereignissen umfassen. Um ein Modell zu schulen, das aktuelle Ereignisse stärker gewichtet, legen Sie `recency_mask` auf `true` fest. Um ein Modell zu schulen, das alle vorherigen Interaktionen gleichermaßen abwägt, legen Sie `recency_mask` auf `false` fest. Um gute Empfehlungen mit gleicher Gewichtung zu erhalten, benötigen Sie möglicherweise ein größeres Schulungsdataset. Standardwert: `True` Bereich: `True` oder `False` Werttyp: Boolescher Wert HPO-optimierbar: Ja  | 
| Hyperparameter zur Featureinstellung | 
| cold\$1start\$1max\$1interactions |  Die maximale Anzahl von Benutzer-Element-Interaktionen, die ein Element als Kaltelement haben kann. Standardwert: 15 Bereich: Positive Ganzzahlen Werttyp: Ganzzahl HPO-optimierbar: Nein  | 
| cold\$1start\$1max\$1duration | Die maximale Dauer in Tagen relativ zum Ausgangspunkt einer Benutzer-Element-Interaktion, die als Kaltstartelement betrachtet wird. Um den Ausgangspunkt der Benutzer-Element-Interaktion festzulegen, legen Sie den `cold_start_relative_from`-Hyperparameter fest. Standardwert: 5.0 Bereich: Positive Gleitkommazahlen Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 
| cold\$1start\$1relative\$1from |  Legt den Ausgangspunkt für das HRNN-Coldstart-Rezept fest, um `cold_start_max_duration` zu berechnen. Wählen Sie `currentTime`, um die aktuelle Zeit zu berechnen. Um `cold_start_max_duration` anhand des Zeitstempels des letzten Elements im Datensatz Artikelinteraktionen zu berechnen, wählen Sie. `latestItem` Diese Einstellung ist nützlich, wenn Sie häufig neue Elemente hinzufügen. Standardwert: `latestItem` Bereich: `currentTime`, `latestItem` Werttyp: Zeichenfolge HPO-optimierbar: Nein  | 
| min\$1user\$1history\$1length\$1percentile |  Das Mindestperzentil der Benutzerhistorienlängen, das in die Modellschulung einbezogen werden muss. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `min_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit kurzen Historienlängen auszuschließen. Benutzer mit einer kurzen Historie zeigen häufig Muster basierend auf der Beliebtheit von Elementen anstelle der persönlichen Bedürfnisse oder Wünsche des Benutzers. Wenn Sie diese entfernen, können Sie Modelle schulen, die sich stärker auf die zugrunde liegenden Muster in Ihren Daten konzentrieren. Wählen Sie einen geeigneten Wert aus, nachdem Sie die Längen der Benutzerhistorien mithilfe eines Histogramms oder eines ähnlichen Tools überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden.  Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.0 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 
| max\$1user\$1history\$1length\$1percentile |  Das maximale Perzentil der Benutzerhistorienlänge, das in die Modellschulung einbezogen werden kann. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `max_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit langen Historienlängen auszuschließen, da die Daten für diese Benutzer in der Regel Rauschen enthalten. Beispielsweise kann ein Roboter über eine lange Liste automatisierter Interaktionen verfügen. Durch das Entfernen dieser Benutzer werden Störungen der Schulung eingeschränkt. Wählen Sie einen geeigneten Wert, nachdem Sie die Längen der Benutzerhistorien mit einem Histogramm oder einem ähnlichen Tool überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden. Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.99 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 