

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Receta HRNN (heredada)
<a name="native-recipe-hrnn"></a>

**nota**  
Las recetas heredadas de HRNN ya no están disponibles. Esta documentación sirve como referencia.  
 Recomendamos que utilice la receta aws-user-personalizaton (User-Personalization) en lugar de las recetas heredadas de HRNN. User-Personalization mejora y unifica la funcionalidad que ofrecen las recetas HRNN. Para obtener más información, consulte [Receta User-Personalization](native-recipe-new-item-USER_PERSONALIZATION.md). 

La receta de la red neuronal recurrente jerárquica (HRNN) de Amazon Personalize modela los cambios en el comportamiento de los usuarios para proporcionar recomendaciones durante una sesión. Una sesión es un conjunto de interacciones de usuarios durante un periodo de tiempo determinado con el objetivo de encontrar un elemento específico para satisfacer una necesidad, por ejemplo. Al ponderar con mayor puntuación las interacciones recientes de un usuario, puede proporcionar recomendaciones más relevantes durante una sesión.

HRNN se adapta a la intención y los intereses de los usuarios, que pueden cambiar con el tiempo. Toma historias de usuario ordenadas y las pondera automáticamente para realizar mejores deducciones. HRNN utiliza un mecanismo de regulación para modelar las ponderaciones de descuentos como una función aprendible de los elementos y la marca de tiempo.

Amazon Personalize deriva las características de cada usuario de su conjunto de datos. Si se ha realizado la integración de datos en tiempo real, estas características se actualizan en tiempo real en función de la actividad de los usuarios. Para obtener una recomendación, proporcione solo el `USER_ID`. Si también proporciona `ITEM_ID`, Amazon Personalize lo ignorará.

La receta HRNN incluye las siguientes propiedades:
+  **Nombre** – `aws-hrnn`
+  **Nombre de recurso de Amazon (ARN) de la receta**: `arn:aws:personalize:::recipe/aws-hrnn`
+  **ARN del algoritmo**: `arn:aws:personalize:::algorithm/aws-hrnn`
+  **ARN de transformación de características** – `arn:aws:personalize:::feature-transformation/JSON-percentile-filtering`
+  **Tipo de receta**: `USER_PERSONALIZATION`

En la siguiente tabla se describen los hiperparámetros de la receta HRNN. Un *hiperparámetro* es un parámetro de algoritmo que se puede ajustar para mejorar el rendimiento del modelo. Los hiperparámetros de algoritmos controlan el rendimiento del modelo. Los hiperparámetros de caracterización controlan cómo se filtran los datos que se van a utilizar en el entrenamiento. El proceso de elección del mejor valor para un hiperparámetro se denomina optimización de hiperparámetros (HPO). Para obtener más información, consulte [Hiperparámetros y HPO](customizing-solution-config-hpo.md). 

La tabla también proporciona la siguiente información para cada hiperparámetro:
+ **Rango**: [límite inferior, límite superior]
+ **Tipo de valor**: número entero, continuo (flotante), categórico (booleano, lista, cadena)
+ **HPO ajustable**: ¿puede el parámetro participar en HPO?


| Nombre | Descripción | 
| --- | --- | 
| Hiperparámetros de algoritmos | 
| hidden\$1dimension |  El número de variables ocultas utilizadas en el modelo. Las *variables ocultas* recrean el historial de compras de los usuarios y las estadísticas de los elementos para generar puntuaciones de clasificación. Especifique un número mayor de dimensiones ocultas cuando el conjunto de datos de interacciones de elementos incluya patrones más complicados. El uso de más dimensiones ocultas requiere un conjunto de datos mayor y más tiempo de procesamiento. Para decidir el valor óptimo, utilice HPO. Para utilizar HPO, establezca `performHPO` en `true` cuando llame a las operaciones [CreateSolution](API_CreateSolution.md) y [CreateSolutionVersion](API_CreateSolutionVersion.md). Valor predeterminado: 43 Rango: [32, 256] Tipo de valor: entero HPO ajustable: sí  | 
| bptt |  Determina si se debe utilizar la propagación hacia atrás a través de la técnica de tiempo. La *propagación hacia atrás a través del tiempo* es una técnica que actualiza ponderaciones en algoritmos basados en redes neuronales recurrentes. Utilice `bptt` para créditos a largo plazo para conectar recompensas retrasadas a eventos tempranos. Por ejemplo, una recompensa retrasada puede ser una compra realizada después de varios clics. Un evento temprano puede ser un clic inicial. Incluso dentro de los mismos tipos de eventos, tales como un clic, es buena idea tener en cuenta los efectos a largo plazo y maximizar las recompensas totales. Para tener en cuenta los efectos a largo plazo, utilice valores mayores de `bptt`. El uso de un valor de `bptt` mayor requiere conjuntos de datos más grandes y más tiempo de procesamiento. Valor predeterminado: 32 Rango: [2, 32] Tipo de valor: entero HPO ajustable: sí  | 
| recency\$1mask |  Determina si el modelo debe tener en cuenta las últimas tendencias de popularidad en el conjunto de datos de interacciones de elementos. Las últimas tendencias de popularidad pueden incluir cambios bruscos en los patrones subyacentes de los eventos de interacción. Para entrenar un modelo que tenga más peso sobre los eventos recientes, establezca `recency_mask` en `true`. Para entrenar un modelo que pesa igualmente todas las interacciones anteriores, establezca `recency_mask` en `false`. Para obtener buenas recomendaciones con el mismo peso, es posible que necesite un conjunto de datos de entrenamiento mayor. Valor predeterminado: \$1: `True` Rango: `True` o `False` Tipo de valor: booleano HPO ajustable: sí  | 
| Hiperparámetros de caracterización | 
| min\$1user\$1history\$1length\$1percentile |  El percentil mínimo de longitudes de historial de usuario para incluir en el entrenamiento de modelos. La *longitud del historial* es la cantidad total de datos sobre un usuario. Utilice `min_user_history_length_percentile` para excluir un porcentaje de usuarios con longitudes de historial cortas. Los usuarios con un historial corto suelen mostrar patrones basados en la popularidad de los elementos en lugar de sus necesidades o deseos personales. Eliminarlos puede entrenar modelos que se centren más en los patrones subyacentes de los datos. Elija un valor adecuado después de revisar las longitudes del historial de usuarios, utilizando un histograma o una herramienta similar. Recomendamos establecer un valor que retenga a la mayoría de los usuarios, pero que elimine los casos de borde.  Por ejemplo, al establecer `min__user_history_length_percentile to 0.05` y `max_user_history_length_percentile to 0.95` se incluyen todos los usuarios, excepto los que tienen longitudes de historial en el 5 % inferior o superior. Valor predeterminado: 0,0 Rango: [0,0, 1,0] Tipo de valor: flotante HPO ajustable: no  | 
| max\$1user\$1history\$1length\$1percentile |  El percentil máximo de longitudes de historial de usuario para incluir en el entrenamiento de modelos. La *longitud del historial* es la cantidad total de datos sobre un usuario. Utilice `max_user_history_length_percentile` para excluir un porcentaje de usuarios con longitudes de historial largas, ya que los datos de estos usuarios tienden a contener ruido. Por ejemplo, un robot podría tener una larga lista de interacciones automatizadas. La eliminación de estos usuarios limita el ruido en el entrenamiento. Elija un valor adecuado después de revisar las longitudes del historial de usuarios mediante un histograma o una herramienta similar. Recomendamos establecer un valor que retenga la mayoría de los usuarios, pero que elimine los casos de borde. Por ejemplo, al establecer `min__user_history_length_percentile to 0.05` y `max_user_history_length_percentile to 0.95` se incluyen todos los usuarios, excepto los que tienen longitudes de historial en el 5 % inferior o superior. Valor predeterminado: 0,99 Rango: [0,0, 1,0] Tipo de valor: flotante HPO ajustable: no  | 