

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 레거시 HRNN 레시피
<a name="legacy-user-personalization-recipes"></a>

레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 설명서는 참조용입니다.

 레거시 HRNN 레시피보다 aws-user-personalizaton(사용자-개인 맞춤) 레시피를 사용하는 것이 좋습니다. 사용자-개인 맞춤은 HRNN 레시피가 제공하는 기능을 개선하고 통합한 레시피입니다. 자세한 내용은 [사용자-개인 맞춤 레시피](native-recipe-new-item-USER_PERSONALIZATION.md) 단원을 참조하십시오.

Personalize에서는 입력 데이터 분석에 따라 가장 적합한 계층적 순환 신경망(HRNN) 레시피를 자동으로 선택할 수 있습니다. 이 옵션을 AutoML이라고 합니다. 자세한 내용은 [AutoML을 사용하여 HRNN 레시피 선택(API만 해당)](training-solution-auto-ml.md) 단원을 참조하십시오.

**Topics**
+ [AutoML을 사용하여 HRNN 레시피 선택(API만 해당)](training-solution-auto-ml.md)
+ [HRNN 레시피(레거시)](native-recipe-hrnn.md)
+ [HRNN-메타데이터 레시피(레거시)](native-recipe-hrnn-metadata.md)
+ [HRNN-Coldstart 레시피(레거시)](native-recipe-hrnn-coldstart.md)

# AutoML을 사용하여 HRNN 레시피 선택(API만 해당)
<a name="training-solution-auto-ml"></a>

Personalize에서는 입력 데이터 분석에 따라 가장 적합한 계층적 순환 신경망(HRNN) 레시피를 자동으로 선택할 수 있습니다. 이 옵션을 AutoML이라고 합니다. AutoML을 수행하려면 [CreateSolution](API_CreateSolution.md)API를 호출할 때 `performAutoML`파라미터를 `true`로 설정합니다.

사용자가 지정하는 지표에 따라 Personalize에서 최적 레시피를 결정하기 위해 살펴보는 레시피 목록도 사용자가 지정할 수 있습니다. 이 경우, `true`작업을 호출하고 `recipeArn`파라미터에 대해 `performAutoML`를 지정한 다음, `solutionConfig`파라미터를 생략하고 `metricName`파라미터를 포함시켜서 `recipeList`및 `CreateSolution`을 `autoMLConfig`객체의 일부로 지정합니다.

다음 표에는 레시피 선택 방식이 나와 있습니다. 두 가지 모두 지정하지 말고 `performAutoML`또는 `recipeArn`중 하나만 지정해야 합니다. AutoML이 오로지 HRNN 레시피를 사용하여 수행됩니다.


| performAutoML | recipeArn | solutionConfig | 결과 | 
| --- | --- | --- | --- | 
| true | omit | 생략됨 | Personalize가 레시피를 선택합니다 | 
| true | omit | autoMLConfig: metricName및 recipeList지정됨 | Personalize가 목록에서 지표를 최적화하는 레시피 하나를 선택합니다 | 
| omit | 지정됨 | 생략됨 | 사용자가 레시피를 지정합니다 | 
| omit | 지정됨 | 지정됨 | 레시피를 지정하고 기본 학습 속성을 무시합니다 | 

**참고**  
`performAutoML`이 `true`인 경우 `autoMLConfig`를 제외하고 `solutionConfig`객체의 모든 파라미터가 무시됩니다.

# HRNN 레시피(레거시)
<a name="native-recipe-hrnn"></a>

**참고**  
레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 설명서는 참조용입니다.  
 레거시 HRNN 레시피보다 aws-user-personalizaton(사용자-개인 맞춤) 레시피를 사용하는 것이 좋습니다. 사용자-개인 맞춤은 HRNN 레시피가 제공하는 기능을 개선하고 통합한 레시피입니다. 자세한 내용은 [사용자-개인 맞춤 레시피](native-recipe-new-item-USER_PERSONALIZATION.md)내용을 참조하세요.

Personalize 계층적 반복 신경망(HRNN) 레시피 모델은 사용자 행동의 변화를 모델링하여 세션 중에 추천을 제공합니다. 세션은 예를 들어 요구를 충족하는 특정 항목을 찾는 것을 목적으로 한 지정된 시간 내의 사용자 상호작용의 세트입니다. 사용자의 최근 상호작용에 더 높게 가중치를 부여함으로써 세션 중에 더 관련된 추천을 제공할 수 있습니다.

HRNN은 시간의 흐름에 따라 변경될 수 있는 사용자 의도와 관심사를 수용합니다. 그리고 정렬된 사용자 이력을 가져와 더 나은 추론을 하도록 자동으로 가중치를 부여합니다. HRNN에서는 게이트 메커니즘을 사용하여 할인 가중치를 항목과 타임스탬프의 학습 가능한 함수로 모델링합니다.

Personalize는 데이터세트에서 각 사용자의 특성을 추출합니다. 실시간 데이터 통합을 수행한 경우 이러한 특성은 사용자 활동에 따라 실시간으로 업데이트됩니다. 추천을 받으려면 `USER_ID`만을 제공합니다. 또한 `ITEM_ID`을 제공해도 경우 Personalize가 무시합니다.

HRNN 레시피의 속성은 다음과 같습니다.
+  **명칭** – `aws-hrnn`
+  **레시피 리소스 이름(ARN)** - `arn:aws:personalize:::recipe/aws-hrnn`
+  **알고리즘 ARN** - `arn:aws:personalize:::algorithm/aws-hrnn`
+  **특성 변환 ARN** - `arn:aws:personalize:::feature-transformation/JSON-percentile-filtering`
+  **레시피 유형** - `USER_PERSONALIZATION`

다음 표에서는 HRNN 레시피의 하이퍼파라미터를 설명합니다. *하이퍼파라미터*는 모델 성능을 향상시키기 위해 조정할 수 있는 알고리즘 파라미터입니다. 알고리즘 하이퍼파라미터는 모델이 성능을 내는 방식을 제어합니다. 특성화 하이퍼파라미터는 학습에서 사용할 데이터를 필터링하는 방법을 제어합니다. 하이퍼파라미터에 대한 최적 값을 선택하는 과정을 하이퍼파라미터 최적화(HPO)라고 합니다. 자세한 내용은 [하이퍼파라미터 및 HPO](customizing-solution-config-hpo.md)단원을 참조하세요.

표에는 각 하이퍼파라미터에 대한 다음 정보도 표시됩니다.
+ **범위**: [하한, 상한]
+ **값 형식**: 정수, 연속(부동 소수점), 범주(부울, 목록, 문자열)
+ **조정 가능한 HPO**: 파라미터가 HPO에 참여할 수 있습니까?


| 명칭 | 설명 | 
| --- | --- | 
| 알고리즘 하이퍼파라미터 | 
| hidden\$1dimension |  모델에 사용된 숨겨진 변수 개수. 숨겨진 변수는 사용자의 구매 이력 및 항목 통계를 재생성하여 순위 점수를 생성합니다.** 항목 상호 작용 데이터 세트에 더 복잡한 패턴이 포함되는 경우 더 많은 숨겨진 차원을 지정합니다. 더 많은 숨겨진 차원을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 최적 값을 결정하려면 HPO를 사용합니다. HPO를 사용하려면 [CreateSolution](API_CreateSolution.md)및 [CreateSolutionVersion](API_CreateSolutionVersion.md)작업 호출 시 `performHPO`를 `true`로 설정합니다. 기본 값: 43 범위: [32, 256] 값 형식: 정수 HPO 조정 가능: 예  | 
| bptt |  시간 기법을 통한 역전파를 사용할지 여부를 결정합니다. *시간을 기준으로 한 역전파*는 반복 신경망 기반 알고리즘의 가중치를 업데이트하는 기법입니다. 장기 크레딧에 대한 `bptt`를 사용하여 지연된 보상을 초기 이벤트에 연결합니다. 예를 들어 지연된 보상은 여러 번 클릭 후 이루어진 구매일 수 있습니다. 초기 이벤트는 초기 클릭일 수 있습니다. 클릭과 같은 동일한 이벤트 유형 내에서도 장기 효과를 고려하고 전체 보상을 최대화하는 것이 좋습니다. 장기 효과를 고려하려면 더 큰 `bptt`값을 사용합니다. 더 큰 `bptt`값을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 기본 값: 32 범위: [2, 32] 값 형식: 정수 HPO 조정 가능: 예  | 
| recency\$1mask |  모델이 항목 상호 작용 데이터 세트의 최신 인기 트렌드를 고려해야 하는지 여부를 결정합니다. 최신 인기 트렌드에는 상호작용 이벤트 기본 패턴의 갑작스러운 변경이 포함될 수 있습니다. 최신 이벤트에 더 많은 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `true`로 설정합니다. 지난 모든 상호작용에 동일한 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `false`로 설정합니다. 동일한 가중치를 사용하여 좋은 추천을 받으려면 더 큰 학습 데이터세트가 필요할 수 있습니다. 기본 값: `True` 범위: `True`또는 `False` 값 형식: 부울 HPO 조정 가능: 예  | 
| 특성화 하이퍼파라미터 | 
| min\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최소 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 짧은 사용자의 백분율을 제외시키려면 `min_user_history_length_percentile`을 사용합니다. 이력 길이가 짧은 사용자는 사용자의 개인 요구나 필요 대신에 항목 인기 기반의 패턴을 종종 보입니다. 이 패턴을 제거하면 데이터의 기본 패턴에 더 많이 집중하며 모델을 학습시킬 수 있습니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다.  예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.0 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 
| max\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최대 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 긴 사용자의 백분율을 제외시키려면 `max_user_history_length_percentile`을 사용합니다. 이러한 사용자의 데이터에는 노이즈가 포함되는 경향이 있기 때문입니다. 예를 들어 로봇은 자동화된 상호작용의 긴 목록을 포함할 수 있습니다. 이러한 사용자를 제거하는 경우 학습 시 노이즈가 제한됩니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다. 예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.99 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 

# HRNN-메타데이터 레시피(레거시)
<a name="native-recipe-hrnn-metadata"></a>

**참고**  
레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 설명서는 참조용입니다.  
 레거시 HRNN 레시피보다 aws-user-personalizaton(사용자-개인 맞춤) 레시피를 사용하는 것이 좋습니다. 사용자-개인 맞춤은 HRNN 레시피가 제공하는 기능을 개선하고 통합한 레시피입니다. 자세한 내용은 [사용자-개인 맞춤 레시피](native-recipe-new-item-USER_PERSONALIZATION.md)단원을 참조하세요.

HRNN-메타데이터 레시피는 사용자가 상호작용할 항목을 예측합니다. 컨텍스트, 사용자 및 항목 메타데이터(각각 상호작용, 사용자, 항목 데이터세트)에서 파생된 추가 기능이 있는 [HRNN](native-recipe-hrnn.md)레시피와 비슷합니다. HRNN-메타데이터는 고품질 메타데이터를 사용할 수 있을 때 비 메타데이터 모델보다 정확도가 더 높습니다. 이 레시피를 사용하려면 학습 시간이 더 필요할 수도 있습니다.

HRNN-메타데이터 레시피의 속성은 다음과 같습니다.
+  **명칭** – `aws-hrnn-metadata`
+  **레시피 리소스 이름(ARN)** - `arn:aws:personalize:::recipe/aws-hrnn-metadata`
+  **알고리즘 ARN** - `arn:aws:personalize:::algorithm/aws-hrnn-metadata`
+  **특성 변환 ARN** - `arn:aws:personalize:::feature-transformation/featurize_metadata`
+  **레시피 유형** - `USER_PERSONALIZATION`

다음 표에서는 HRNN-메타데이터 레시피의 하이퍼파라미터를 설명합니다. *하이퍼파라미터*는 모델 성능을 향상시키기 위해 조정할 수 있는 알고리즘 파라미터입니다. 알고리즘 하이퍼파라미터는 모델이 성능을 내는 방식을 제어합니다. 특성화 하이퍼파라미터는 학습에서 사용할 데이터를 필터링하는 방법을 제어합니다. 하이퍼파라미터에 대한 최적 값을 선택하는 과정을 하이퍼파라미터 최적화(HPO)라고 합니다. 자세한 내용은 [하이퍼파라미터 및 HPO](customizing-solution-config-hpo.md)단원을 참조하세요.

표에는 각 하이퍼파라미터에 대한 다음 정보도 표시됩니다.
+ **범위**: [하한, 상한]
+ **값 형식**: 정수, 연속(부동 소수점), 범주(부울, 목록, 문자열)
+ **조정 가능한 HPO**: 파라미터가 하이퍼파라미터 최적화(HPO)에 참여할 수 있습니까?


| 명칭 | 설명 | 
| --- | --- | 
| 알고리즘 하이퍼파라미터 | 
| hidden\$1dimension |  모델에 사용된 숨겨진 변수 개수. 숨겨진 변수는 사용자의 구매 이력 및 항목 통계를 재생성하여 순위 점수를 생성합니다.** 항목 상호 작용 데이터 세트에 더 복잡한 패턴이 포함되는 경우 더 많은 숨겨진 차원을 지정합니다. 더 많은 숨겨진 차원을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 최적 값을 결정하려면 HPO를 사용합니다. HPO를 사용하려면 [CreateSolution](API_CreateSolution.md)및 [CreateSolutionVersion](API_CreateSolutionVersion.md)작업 호출 시 `performHPO`를 `true`로 설정합니다. 기본 값: 43 범위: [32, 256] 값 형식: 정수 HPO 조정 가능: 예  | 
| bptt |  시간 기법을 통한 역전파를 사용할지 여부를 결정합니다. *시간을 기준으로 한 역전파*는 반복 신경망 기반 알고리즘의 가중치를 업데이트하는 기법입니다. 장기 크레딧에 대한 `bptt`를 사용하여 지연된 보상을 초기 이벤트에 연결합니다. 예를 들어 지연된 보상은 여러 번 클릭 후 이루어진 구매일 수 있습니다. 초기 이벤트는 초기 클릭일 수 있습니다. 클릭과 같은 동일한 이벤트 유형 내에서도 장기 효과를 고려하고 전체 보상을 최대화하는 것이 좋습니다. 장기 효과를 고려하려면 더 큰 `bptt`값을 사용합니다. 더 큰 `bptt`값을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 기본 값: 32 범위: [2, 32] 값 형식: 정수 HPO 조정 가능: 예  | 
| recency\$1mask |  모델이 항목 상호 작용 데이터 세트의 최신 인기 트렌드를 고려해야 하는지 여부를 결정합니다. 최신 인기 트렌드에는 상호작용 이벤트 기본 패턴의 갑작스러운 변경이 포함될 수 있습니다. 최신 이벤트에 더 많은 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `true`로 설정합니다. 지난 모든 상호작용에 동일한 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `false`로 설정합니다. 동일한 가중치를 사용하여 좋은 추천을 받으려면 더 큰 학습 데이터세트가 필요할 수 있습니다. 기본 값: `True` 범위: `True`또는 `False` 값 형식: 부울 HPO 조정 가능: 예  | 
| 특성화 하이퍼파라미터 | 
| min\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최소 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 짧은 사용자의 백분율을 제외시키려면 `min_user_history_length_percentile`을 사용합니다. 이력 길이가 짧은 사용자는 사용자의 개인 요구나 필요 대신에 항목 인기 기반의 패턴을 종종 보입니다. 이 패턴을 제거하면 데이터의 기본 패턴에 더 많이 집중하며 모델을 학습시킬 수 있습니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다.  예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.0 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 
| max\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최대 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 긴 사용자의 백분율을 제외시키려면 `max_user_history_length_percentile`을 사용합니다. 이러한 사용자의 데이터에는 노이즈가 포함되는 경향이 있기 때문입니다. 예를 들어 로봇은 자동화된 상호작용의 긴 목록을 포함할 수 있습니다. 이러한 사용자를 제거하는 경우 학습 시 노이즈가 제한됩니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다. 예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.99 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 

# HRNN-Coldstart 레시피(레거시)
<a name="native-recipe-hrnn-coldstart"></a>

**참고**  
레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 설명서는 참조용입니다.  
 레거시 HRNN 레시피보다 aws-user-personalizaton(사용자-개인 맞춤) 레시피를 사용하는 것이 좋습니다. 사용자-개인 맞춤은 HRNN 레시피가 제공하는 기능을 개선하고 통합한 레시피입니다. 자세한 내용은 [사용자-개인 맞춤 레시피](native-recipe-new-item-USER_PERSONALIZATION.md)단원을 참조하세요.

새로운 항목과 상호작용을 수시로 추가하고 이러한 항목에 대한 추천을 즉시 받고 싶은 경우 HRNN-Coldstart 레시피를 사용하면 사용자가 상호작용할 항목을 예측할 수 있습니다. HRNN-Coldstart 레시피는 [HRNN-메타데이터](native-recipe-hrnn-metadata.md)레시피와 유사하지만 이를 통해 새 항목에 대한 추천을 받을 수 있습니다.

또한 상호작용이 매우 특이하여 학습 시 노이즈가 발생할 수 있거나, 최신 인기 추세로 인해 상호작용이 많은 학습 항목에서 제외하고자 할 때도 HRNN-Coldstart 레시피를 사용할 수 있습니다. HRNN-Coldstart를 사용하면 관련성이 적은 항목을 필터링으로 걸러내어 학습의 하위 집합을 생성할 수 있습니다. *콜드 항목*이라고 하는 항목의 하위 집합은 관련된 상호 작용 이벤트가 항목 상호 작용 데이터 세트에 있는 항목입니다. 항목은 다음과 같은 경우에 콜드 항목으로 간주됩니다.
+ 지정된 최대 상호작용 수보다 상호작용이 더 적은 경우. 레시피의 `cold_start_max_interactions`하이퍼파라미터에서 이 값을 지정합니다.
+ 최대 기간보다 상대 기간이 더 짧은 경우. 레시피의 `cold_start_max_duration`하이퍼파라미터에서 이 값을 지정합니다.

콜드 항목 수를 줄이려면 `cold_start_max_interactions`또는 `cold_start_max_duration`에 대한 값을 작게 설정합니다. 콜드 항목 수를 늘리려면 `cold_start_max_interactions`또는 `cold_start_max_duration`에 대한 값을 크게 설정합니다.



HRNN-Coldstart의 콜드 항목 한도는 다음과 같습니다.
+ `Maximum cold start items`: 80,000
+ `Minimum cold start items`: 100

콜드 항목 수가 이 범위를 벗어나는 경우 솔루션 생성 시도는 실패합니다.

HRNN-Coldstart 레시피의 속성은 다음과 같습니다.
+  **명칭** – `aws-hrnn-coldstart`
+  **레시피 리소스 이름(ARN)** - `arn:aws:personalize:::recipe/aws-hrnn-coldstart`
+  **알고리즘 ARN** - `arn:aws:personalize:::algorithm/aws-hrnn-coldstart`
+  **특성 변환 ARN** - `arn:aws:personalize:::feature-transformation/featurize_coldstart`
+  **레시피 유형** - `USER_PERSONALIZATION`

자세한 내용은 [레시피 선택](working-with-predefined-recipes.md)단원을 참조하세요.

다음 표에서는 HRNN-Coldstart 레시피의 하이퍼파라미터를 설명합니다. *하이퍼파라미터*는 모델 성능을 향상시키기 위해 조정할 수 있는 알고리즘 파라미터입니다. 알고리즘 하이퍼파라미터는 모델이 성능을 내는 방식을 제어합니다. 특성화 하이퍼파라미터는 학습에서 사용할 데이터를 필터링하는 방법을 제어합니다. 하이퍼파라미터에 대한 최적 값을 선택하는 과정을 하이퍼파라미터 최적화(HPO)라고 합니다. 자세한 내용은 [하이퍼파라미터 및 HPO](customizing-solution-config-hpo.md)단원을 참조하세요.

표에는 각 하이퍼파라미터에 대한 다음 정보도 표시됩니다.
+ **범위**: [하한, 상한]
+ **값 형식**: 정수, 연속(부동 소수점), 범주(부울, 목록, 문자열)
+ **조정 가능한 HPO**: 파라미터가 HPO에 참여할 수 있습니까?


| 명칭 | 설명 | 
| --- | --- | 
| 알고리즘 하이퍼파라미터 | 
| hidden\$1dimension | 모델에 사용된 숨겨진 변수 개수. 숨겨진 변수는 사용자의 구매 이력 및 항목 통계를 재생성하여 순위 점수를 생성합니다.** 항목 상호 작용 데이터 세트에 더 복잡한 패턴이 포함되는 경우 더 많은 숨겨진 차원을 지정합니다. 더 많은 숨겨진 차원을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 최적 값을 결정하려면 HPO를 사용합니다. HPO를 사용하려면 [CreateSolution](API_CreateSolution.md)및 [CreateSolutionVersion](API_CreateSolutionVersion.md)작업 호출 시 `performHPO`를 `true`로 설정합니다. 기본 값: 149 범위: [32, 256] 값 형식: 정수 HPO 조정 가능: 예  | 
| bptt | 시간 기법을 통한 역전파를 사용할지 여부를 결정합니다. *시간을 기준으로 한 역전파*는 반복 신경망 기반 알고리즘의 가중치를 업데이트하는 기법입니다. 장기 크레딧에 대한 `bptt`를 사용하여 지연된 보상을 초기 이벤트에 연결합니다. 예를 들어 지연된 보상은 여러 번 클릭 후 이루어진 구매일 수 있습니다. 초기 이벤트는 초기 클릭일 수 있습니다. 클릭과 같은 동일한 이벤트 유형 내에서도 장기 효과를 고려하고 전체 보상을 최대화하는 것이 좋습니다. 장기 효과를 고려하려면 더 큰 `bptt`값을 사용합니다. 더 큰 `bptt`값을 사용하는 데는 더 큰 데이터세트와 더 많은 처리 시간이 필요합니다. 기본 값: 32 범위: [2, 32] 값 형식: 정수 HPO 조정 가능: 예  | 
| recency\$1mask |  모델이 항목 상호 작용 데이터 세트의 최신 인기 트렌드를 고려해야 하는지 여부를 결정합니다. 최신 인기 트렌드에는 상호작용 이벤트 기본 패턴의 갑작스러운 변경이 포함될 수 있습니다. 최신 이벤트에 더 많은 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `true`로 설정합니다. 지난 모든 상호작용에 동일한 가중치를 부여하는 모델을 학습시키려면 `recency_mask`를 `false`로 설정합니다. 동일한 가중치를 사용하여 좋은 추천을 받으려면 더 큰 학습 데이터세트가 필요할 수 있습니다. 기본 값: `True` 범위: `True`또는 `False` 값 형식: 부울 HPO 조정 가능: 예  | 
| 특성화 하이퍼파라미터 | 
| cold\$1start\$1max\$1interactions |  항목에 대한 최대 사용자 항목 상호작용 수를 콜드 항목으로 간주해야 될 수 있습니다. 기본 값: 15 범위: 양의 정수 값 형식: 정수 HPO 조정 가능: 아니요  | 
| cold\$1start\$1max\$1duration | 콜드 스타트 항목으로 간주될 사용자-항목 상호작용에 대한 시작점에 비례하는 최대 기간(일). 사용자-항목 상호작용의 시작점을 설정하려면 `cold_start_relative_from`하이퍼파라미터를 설정합니다. 기본 값: 5.0 범위: 양의 부동 소수점 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 
| cold\$1start\$1relative\$1from |  `cold_start_max_duration`을 계산하는 HRNN-Coldstart 레시피의 시작점을 결정합니다. 현재 시간부터 계산하려면 `currentTime`을 선택합니다. 항목 상호 작용 데이터 세트에 있는 최신 항목의 타임스탬프에서 `cold_start_max_duration`을 계산하려면 `latestItem`을 선택합니다. 이 설정은 새 항목을 수시로 추가하는 경우 유용합니다. 기본 값: `latestItem` 범위: `currentTime`, `latestItem`  값 형식: 문자열 HPO 조정 가능: 아니요  | 
| min\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최소 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 짧은 사용자의 백분율을 제외시키려면 `min_user_history_length_percentile`을 사용합니다. 이력 길이가 짧은 사용자는 사용자의 개인 요구나 필요 대신에 항목 인기 기반의 패턴을 종종 보입니다. 이 패턴을 제거하면 데이터의 기본 패턴에 더 많이 집중하며 모델을 학습시킬 수 있습니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다.  예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.0 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 
| max\$1user\$1history\$1length\$1percentile |  모델 학습에 포함시킬 사용자 이력 길이의 최대 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다.** 이력 길이가 긴 사용자의 백분율을 제외시키려면 `max_user_history_length_percentile`을 사용합니다. 이러한 사용자의 데이터에는 노이즈가 포함되는 경향이 있기 때문입니다. 예를 들어 로봇은 자동화된 상호작용의 긴 목록을 포함할 수 있습니다. 이러한 사용자를 제거하는 경우 학습 시 노이즈가 제한됩니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 항목을 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다. 예를 들어 `min__user_history_length_percentile to 0.05`및 `max_user_history_length_percentile to 0.95`를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다. 기본 값: 0.99 범위: [0.0, 1.0] 값 형식: 부동 소수점 HPO 조정 가능: 아니요  | 