

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# HRNN-Metadata 配方 （舊版）
<a name="native-recipe-hrnn-metadata"></a>

**注意**  
舊版 HRNN 配方不再可用。本文件僅供參考。  
 我們建議您在舊版 HRNN 配方上使用 aws-user-personalizaton （使用者個人化） 配方。使用者個人化可改善並統一 HRNN 配方所提供的功能。如需詳細資訊，請參閱[使用者個人化配方](native-recipe-new-item-USER_PERSONALIZATION.md)。

HRNN-Metadata 配方預測使用者將與其互動的項目。其與 [HRNN](native-recipe-hrnn.md) 配方類似，但多了衍生自情境、使用者和項目中繼資料 (分別來自互動、使用者和項目資料集) 的其他功能。當有大量的中繼資料可用時，HRNN-Metadata 可提供優於非中繼資料模型的準確性優點。使用此配方可能需要更長的訓練時間。

HRNN-Metadata 配方具有下列屬性：
+  **名稱** – `aws-hrnn-metadata`
+  **配方 Amazon Resource Name (ARN)** – `arn:aws:personalize:::recipe/aws-hrnn-metadata`
+  **演算法 ARN** – `arn:aws:personalize:::algorithm/aws-hrnn-metadata`
+  **功能轉換 ARN** – `arn:aws:personalize:::feature-transformation/featurize_metadata`
+  **配方類型** – `USER_PERSONALIZATION`

下表說明 HRNN-Metadata 配方的超參數。*超參數* 是一種演算法參數，您可以調整以改善模型效能。演算法超參數可控制模型的執行方式。特徵化超參數可控制如何篩選要在訓練中使用的資料。選擇超參數最佳值的程序稱為超參數最佳化 (HPO)。如需詳細資訊，請參閱[超參數和 HPO](customizing-solution-config-hpo.md)。

該表格也提供每個超參數的下列資訊：
+ **範圍**：[下限、上限]
+ **值類型**：整數、連續 (浮點數)、分類 (布林值、清單、字串)
+ **HPO 可調整**：參數可以參與超參數最佳化 (HPO) 嗎？


| 名稱 | 描述 | 
| --- | --- | 
| 演算法超參數 | 
| hidden\$1dimension |  模型中使用的隱藏變數數量。*隱藏變數* 會重新建立使用者的購買歷史記錄和項目統計資料，以產生排名分數。當您的項目互動資料集包含更複雜的模式時，請指定更多隱藏維度。使用更多隱藏維度需要更大的資料集和更多時間處理。若要決定最佳值，請使用 HPO。若要使用 HPO，請在呼叫 [CreateSolution](API_CreateSolution.md) 和 [CreateSolutionVersion](API_CreateSolutionVersion.md) 操作時將 `performHPO` 設定為 `true`。 預設值：43 範圍：[32, 256] 值類型：整數 HPO 可調整：是  | 
| bptt |  決定是否透過時間技術使用反向傳播。*透過時間的反向傳播* 是一種遞歸神經網路演算法中權重的技術。使用 `bptt` 做為長期信用來連接早期事件的延遲獎勵。例如，延遲獎勵可以是按幾下滑鼠後的購買。早期事件可以是初始的按一下。即使在相同的事件類型中 (例如按一下)，最好還是考慮長期效果，並將總獎勵最大化。若要考慮長期效果，請使用較大的 `bptt` 值。使用更大的 `bptt` 值需要更大的資料集和更多時間來處理。 預設值：32 範圍：[2, 32] 值類型：整數 HPO 可調整：是  | 
| recency\$1mask |  決定模型是否應考慮項目互動資料集中的最新熱門趨勢。最新的熱門趨勢可能包括互動事件基礎模式的突然變化。若要訓練模型更多加權最近的事件，請將 `recency_mask` 設定為 `true`。若要訓練模型將過去的互動加權同等，請將 `recency_mask` 設定為 `false`。若要使用同等權重來獲得良好的建議，您可能需要較大的訓練資料集。 預設值：`True` 範圍：`True` 或 `False` 值類型：布林值 HPO 可調整：是  | 
| 特徵化超參數 | 
| min\$1user\$1history\$1length\$1percentile |  要包含在模型訓練中的使用者歷史記錄長度的最小百分位數。*歷史記錄長度* 是有關使用者的資料總量。使用 `min_user_history_length_percentile` 排除歷史記錄長度較短的使用者百分比。歷史記錄短的使用者通常根據項目熱門程度顯示模式，而不是使用者的個人需求或想要顯示模式。移除它們可以訓練模型更專注於資料中的基礎模式。檢閱使用者歷史記錄長度後，請使用長條圖或類似的工具，選擇適當的值。我們建議設定保留大部分使用者的值，但移除邊緣案例。  例如，設定 `min__user_history_length_percentile to 0.05` 和 `max_user_history_length_percentile to 0.95` 包含所有使用者，歷史記錄長度底部或頂端 5% 的使用者除外。 預設值：0.0 範圍：[0.0, 1.0] 值類型：浮點數 HPO 可調整：否  | 
| max\$1user\$1history\$1length\$1percentile |  要包含在模型訓練中的使用者歷史記錄長度的最大百分位數。*歷史記錄長度* 是有關使用者的資料總量。使用 `max_user_history_length_percentile` 排除歷史記錄長度較長的使用者百分比，因為這些使用者的資料往往包含雜訊。例如，機器人可能有一長串的自動化互動。移除這些使用者會限制訓練中的噪音。使用長條圖或類似工具檢閱使用者歷史記錄長度後，請選擇適當的值。我們建議設定保留大部分使用者的值，但移除邊緣案例。 例如，設定 `min__user_history_length_percentile to 0.05` 和 `max_user_history_length_percentile to 0.95` 包含所有使用者，歷史記錄長度底部或頂端 5% 的使用者除外。 預設值：0.99 範圍：[0.0, 1.0] 值類型：浮點數 HPO 可調整：否  | 