

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Fórmulas legadas do HRNN
<a name="legacy-user-personalization-recipes"></a>

As fórmulas legadas do HRNN não estarão mais disponíveis Esta documentação é apenas para referência.

 Recomendamos usar a receita aws-user-personalizaton (Personalização do usuário) em vez das receitas antigas do HRNN. User-Personalization aprimora e unifica a funcionalidade oferecida pelas fórmulas do HRNN. Para obter mais informações, consulte [Fórmula User-Personalization](native-recipe-new-item-USER_PERSONALIZATION.md). 

O Amazon Personalize pode escolher automaticamente a fórmula do HRNN (rede neural recorrente hierárquica) mais apropriada com base em sua análise dos dados de entrada. Essa opção é chamada AutoML. Para obter mais informações, consulte [Usando o AutoML para escolher uma fórmula do HRNN (somente API)](training-solution-auto-ml.md).

**Topics**
+ [Usando o AutoML para escolher uma fórmula do HRNN (somente API)](training-solution-auto-ml.md)
+ [Fórmula HRNN (legada)](native-recipe-hrnn.md)
+ [Fórmula HRNN-Metadata (legada)](native-recipe-hrnn-metadata.md)
+ [Fórmula HRNN-Coldstart (legada)](native-recipe-hrnn-coldstart.md)

# Usando o AutoML para escolher uma fórmula do HRNN (somente API)
<a name="training-solution-auto-ml"></a>

O Amazon Personalize pode escolher automaticamente a fórmula do HRNN (rede neural recorrente hierárquica) mais apropriada com base em sua análise dos dados de entrada. Essa opção é chamada AutoML. Para executar o AutoML, defina o parâmetro `performAutoML` como `true` ao chamar a API [CreateSolution](API_CreateSolution.md). 

Você também pode especificar a lista de fórmulas que o Amazon Personalize examinará para determinar a fórmula ideal com base em uma métrica que você especifica. Nesse caso, chame a operação `CreateSolution`, especifique `true`para o parâmetro `performAutoML`, omita o parâmetro `recipeArn`e inclua o parâmetro`metricName`, especificando `solutionConfig` e `recipeList` como parte do objeto `autoMLConfig`. 

A tabela a seguir mostra como a receita é escolhida. Você deve especificar `performAutoML` ou `recipeArn`, mas não ambos. AutoML só é realizado no uso das receitas HRNN.


| performAutoML | recipeArn | solutionConfig | Resultado | 
| --- | --- | --- | --- | 
| true | omitir | omitida | O Amazon Personalize escolhe a fórmula | 
| true | omitir | autoMLConfig: metricName e recipeList especificados | O Amazon Personalize escolhe uma fórmula na lista para otimizar a métrica | 
| omitir | especificada | omitida | Você especifica a receita | 
| omitir | especificada | especificada | Você especifica a receita e substitui as propriedades padrão de treinamento | 

**nota**  
Quando `performAutoML` é `true`, todos os parâmetros do objeto `solutionConfig` são ignorados, exceto `autoMLConfig`.

# Fórmula HRNN (legada)
<a name="native-recipe-hrnn"></a>

**nota**  
As fórmulas legadas do HRNN não estarão mais disponíveis. Esta documentação é apenas para referência.  
 Recomendamos usar a fórmula aws-user-personalization (User-Personalization), em vez das fórmulas legadas do HRNN. User-Personalization aprimora e unifica a funcionalidade oferecida pelas fórmulas do HRNN. Para obter mais informações, consulte [Fórmula User-Personalization](native-recipe-new-item-USER_PERSONALIZATION.md). 

A fórmula de rede neural recorrente hierárquica (HRNN) do Amazon Personalize modela alterações no comportamento do usuário para fornecer recomendações durante uma sessão. Uma sessão é um conjunto de interações do usuário em um determinado período com o objetivo de encontrar um item específico para atender a uma necessidade, por exemplo. Ao ponderar mais as interações recentes de um usuário, você pode fornecer recomendações mais relevantes durante uma sessão.

A HRNN acompanha a intenção e os interesses do usuário, que podem mudar ao longo do tempo. Ela usa históricos de usuários ordenados e os pondera automaticamente para fazer inferências melhores. O HRNN usa um mecanismo de bloqueio para modelar os pesos de desconto como uma função que pode ser aprendida a partir dos itens e dos time stamps.

O Amazon Personalize extrai os atributos para cada usuário do seu conjunto de dados. Se você tiver feito a integração de dados em tempo real, esses atributos serão atualizadas em tempo real de acordo com as atividades do usuário. Para obter uma recomendação, forneça apenas o `USER_ID`. Se você também fornecer um `ITEM_ID`, o Amazon Personalize o ignorará.

A fórmula HRNN tem as seguintes propriedades:
+  **Nome** – `aws-hrnn`
+  **Fórmula nome do recurso da Amazon (ARN)** – `arn:aws:personalize:::recipe/aws-hrnn`
+  **ARN do algoritmo** – `arn:aws:personalize:::algorithm/aws-hrnn`
+  **ARN de transformação de atributos** – `arn:aws:personalize:::feature-transformation/JSON-percentile-filtering`
+  **Tipo de fórmula** – `USER_PERSONALIZATION`

A tabela a seguir descreve os hiperparâmetros da fórmula HRNN. Um *hiperparâmetro* é um parâmetro de algoritmo que pode ser ajustado para melhorar o desempenho do modelo. Os hiperparâmetros do algoritmo controlam o desempenho do modelo. Os hiperparâmetros de caracterização controlam como filtrar os dados a serem usados no treinamento. O processo de escolher o melhor valor para um hiperparâmetro é chamado de otimização de hiperparâmetros (HPO). Para obter mais informações, consulte [Hiperparâmetros e HPO](customizing-solution-config-hpo.md). 

A tabela também fornece as seguintes informações para cada hiperparâmetro:
+ **Intervalo**: [limite inferior, limite superior]
+ **Tipo de valor**: inteiro, contínuo (float), categórico (booliano, lista, string)
+ **HPO ajustável**: o parâmetro pode participar da HPO?


| Nome | Descrição | 
| --- | --- | 
| Hiperparâmetros de algoritmo | 
| hidden\$1dimension |  O número de variáveis ocultas usadas no modelo. *Variáveis ocultas* recriam o histórico de compras dos usuários e as estatísticas de itens para gerar pontuações de classificação. Especifique um número maior de dimensões ocultas quando o conjunto de dados de interações com itens incluir padrões mais complicados. Usar mais dimensões ocultas requer um conjunto de dados maior e mais tempo para processamento. Para decidir sobre o valor ideal, use HPO. Para usar a HPO, defina `performHPO` `true` ao chamar as operações [CreateSolution](API_CreateSolution.md) e [CreateSolutionVersion](API_CreateSolutionVersion.md). Valor padrão: 43 Intervalo: [32, 256] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| bptt |  Determina se é necessário usar a técnica de propagação retroativa ao longo do tempo. A *propagação retroativa ao longo do tempo* é uma técnica que atualiza pesos em algoritmos baseados em rede neural recorrente. Use o `bptt` para créditos de longo prazo a fim de conectar prêmios atrasados a eventos iniciais. Por exemplo, um prêmio atrasado pode ser uma compra feita após vários cliques. Um evento inicial pode ser um clique inicial. Mesmo dentro dos mesmos tipos de evento, como um clique, é uma boa ideia considerar efeitos de longo prazo e maximizar os prêmios totais. Para considerar efeitos de longo prazo, use valores `bptt` maiores. O uso de um valor `bptt` maior exige conjuntos de dados maiores e mais tempo para processamento. Valor padrão: 32 Intervalo: [2, 32] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| recency\$1mask |  Determina se o modelo deve utilizar as tendências de popularidade mais recentes no conjunto de dados de interações com itens. As tendências de popularidade mais recentes podem incluir mudanças repentinas nos padrões subjacentes de eventos de interação. Para treinar um modelo que posiciona mais peso sobre eventos recentes, defina `recency_mask` como `true`. Para treinar um modelo que pese igualmente todas as interações passadas, defina `recency_mask` como `false`. Para obter boas recomendações usando um peso igual, talvez seja necessário um conjunto de dados de treinamento maior. Valor padrão: `True` Intervalo: `True` ou `False` Tipo de valor: booliano Ajustável de HPO: sim  | 
| Hiperparâmetros de caracterização | 
| min\$1user\$1history\$1length\$1percentile |  O percentil mínimo dos comprimentos dos históricos de usuários para incluir no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `min_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos breves. Os usuários com um histórico breve geralmente mostram padrões baseados na popularidade dos itens em vez das necessidades ou dos desejos pessoais do usuário. Removê-los pode treinar modelos com mais foco nos padrões subjacentes nos dados. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda.  Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.0 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 
| max\$1user\$1history\$1length\$1percentile |  O percentil máximo dos comprimentos dos históricos de usuários a ser incluído no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `max_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos longos, pois os dados desses usuários tendem a conter ruído. Por exemplo, um robô pode ter uma longa lista de interações automatizadas. A remoção desses usuários limita o ruído no treinamento. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda. Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.99 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 

# Fórmula HRNN-Metadata (legada)
<a name="native-recipe-hrnn-metadata"></a>

**nota**  
As fórmulas legadas do HRNN não estarão mais disponíveis. Esta documentação é apenas para referência.  
 Recomendamos usar a fórmula aws-user-personalization (User-Personalization), em vez das fórmulas legadas do HRNN. User-Personalization aprimora e unifica a funcionalidade oferecida pelas fórmulas do HRNN. Para obter mais informações, consulte [Fórmula User-Personalization](native-recipe-new-item-USER_PERSONALIZATION.md). 

A fórmula HRNN-Metadata prevê os itens com os quais um usuário interagirá. Semelhante à fórmula [HRNN](native-recipe-hrnn.md) com atributos adicionais derivados de metadados contextuais, de usuários e itens (conjuntos de dados de interações, usuários e itens, respectivamente). A fórmula HRNN-Metadata oferece benefícios precisos em relação aos modelos que não utilizam metadados quando metadados de alta qualidade estão disponíveis. Usar essa fórmula pode exigir tempos de treinamento mais longos.

A fórmula HRNN-Metadata tem as seguintes propriedades:
+  **Nome** – `aws-hrnn-metadata`
+  **Fórmula nome do recurso da Amazon (ARN)** – `arn:aws:personalize:::recipe/aws-hrnn-metadata`
+  **ARN do algoritmo** – `arn:aws:personalize:::algorithm/aws-hrnn-metadata`
+  **ARN de transformação de atributos** – `arn:aws:personalize:::feature-transformation/featurize_metadata`
+  **Tipo de fórmula** – `USER_PERSONALIZATION`

A tabela a seguir descreve os hiperparâmetros da fórmula HRNN-Metadata. Um *hiperparâmetro* é um parâmetro de algoritmo que pode ser ajustado para melhorar o desempenho do modelo. Os hiperparâmetros do algoritmo controlam o desempenho do modelo. Os hiperparâmetros de caracterização controlam como filtrar os dados a serem usados no treinamento. O processo de escolher o melhor valor para um hiperparâmetro é chamado de otimização de hiperparâmetros (HPO). Para obter mais informações, consulte [Hiperparâmetros e HPO](customizing-solution-config-hpo.md). 

A tabela também fornece as seguintes informações para cada hiperparâmetro:
+ **Intervalo**: [limite inferior, limite superior]
+ **Tipo de valor**: inteiro, contínuo (float), categórico (booliano, lista, string)
+ **HPO tunable (HPO ajustável)**: o parâmetro pode participar da otimização do hiperparâmetro (HPO)?


| Nome | Descrição | 
| --- | --- | 
| Hiperparâmetros de algoritmo | 
| hidden\$1dimension |  O número de variáveis ocultas usadas no modelo. *Variáveis ocultas* recriam o histórico de compras dos usuários e as estatísticas de itens para gerar pontuações de classificação. Especifique um número maior de dimensões ocultas quando o conjunto de dados de interações com itens incluir padrões mais complicados. Usar mais dimensões ocultas requer um conjunto de dados maior e mais tempo para processamento. Para decidir sobre o valor ideal, use HPO. Para usar a HPO, defina `performHPO` `true` ao chamar as operações [CreateSolution](API_CreateSolution.md) e [CreateSolutionVersion](API_CreateSolutionVersion.md). Valor padrão: 43 Intervalo: [32, 256] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| bptt |  Determina se é necessário usar a técnica de propagação retroativa ao longo do tempo. A *propagação retroativa ao longo do tempo* é uma técnica que atualiza pesos em algoritmos baseados em rede neural recorrente. Use o `bptt` para créditos de longo prazo a fim de conectar prêmios atrasados a eventos iniciais. Por exemplo, um prêmio atrasado pode ser uma compra feita após vários cliques. Um evento inicial pode ser um clique inicial. Mesmo dentro dos mesmos tipos de evento, como um clique, é uma boa ideia considerar efeitos de longo prazo e maximizar os prêmios totais. Para considerar efeitos de longo prazo, use valores `bptt` maiores. O uso de um valor `bptt` maior exige conjuntos de dados maiores e mais tempo para processamento. Valor padrão: 32 Intervalo: [2, 32] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| recency\$1mask |  Determina se o modelo deve utilizar as tendências de popularidade mais recentes no conjunto de dados de interações com itens. As tendências de popularidade mais recentes podem incluir mudanças repentinas nos padrões subjacentes de eventos de interação. Para treinar um modelo que posiciona mais peso sobre eventos recentes, defina `recency_mask` como `true`. Para treinar um modelo que pese igualmente todas as interações passadas, defina `recency_mask` como `false`. Para obter boas recomendações usando um peso igual, talvez seja necessário um conjunto de dados de treinamento maior. Valor padrão: `True` Intervalo: `True` ou `False` Tipo de valor: booliano Ajustável de HPO: sim  | 
| Hiperparâmetros de caracterização | 
| min\$1user\$1history\$1length\$1percentile |  O percentil mínimo dos comprimentos dos históricos de usuários para incluir no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `min_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos breves. Os usuários com um histórico breve geralmente mostram padrões baseados na popularidade dos itens em vez das necessidades ou dos desejos pessoais do usuário. Removê-los pode treinar modelos com mais foco nos padrões subjacentes nos dados. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda.  Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.0 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 
| max\$1user\$1history\$1length\$1percentile |  O percentil máximo dos comprimentos dos históricos de usuários a ser incluído no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `max_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos longos, pois os dados desses usuários tendem a conter ruído. Por exemplo, um robô pode ter uma longa lista de interações automatizadas. A remoção desses usuários limita o ruído no treinamento. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda. Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.99 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 

# Fórmula HRNN-Coldstart (legada)
<a name="native-recipe-hrnn-coldstart"></a>

**nota**  
As fórmulas legadas do HRNN não estarão mais disponíveis. Esta documentação é apenas para referência.  
 Recomendamos usar a fórmula aws-user-personalization (User-Personalization), em vez das fórmulas legadas do HRNN. User-Personalization aprimora e unifica a funcionalidade oferecida pelas fórmulas do HRNN. Para obter mais informações, consulte [Fórmula User-Personalization](native-recipe-new-item-USER_PERSONALIZATION.md). 

Use a fórmula HRNN-Coldstart para prever os itens com os quais um usuário interagirá quando você adicionar novos itens e interações com frequência e quiser obter recomendações para esses itens imediatamente. A fórmula HRNN-Coldstart é semelhante à fórmula [HRNN-Metadata](native-recipe-hrnn-metadata.md), mas permite que você obtenha recomendações para novos itens. 

Além disso, é possível usar a fórmula HRNN-Coldstart quando quiser excluir do treinamento itens que têm uma longa lista de interações devido a uma tendência de popularidade recente, ou porque as interações podem ser altamente incomuns e introduzir ruído no treinamento. Com HRNN-Coldstart, é possível filtrar itens menos relevantes para criar um subconjunto para treinamento. O subconjunto de itens, chamado *itens frios*, são itens que têm eventos de interação relacionados no conjunto de dados de Interações com itens. Um item será considerado frio quando tiver o seguinte:
+ Um número de interações menor do que uma quantidade especificada de interações máximas. Especifique esse valor no hiperparâmetro `cold_start_max_interactions` da fórmula.
+ Uma duração relativa mais curta que a duração máxima. Especifique esse valor no hiperparâmetro `cold_start_max_duration` da fórmula.

Para reduzir o número de itens frios, defina um valor mais baixo para `cold_start_max_interactions` ou `cold_start_max_duration`. Para aumentar o número de itens frios, defina um valor maior para `cold_start_max_interactions` ou `cold_start_max_duration`.



HRNN-Coldstart tem os seguintes limites de itens frios:
+ `Maximum cold start items`: 80.000
+ `Minimum cold start items`: 100

Se o número de itens frios estiver fora desse intervalo, ocorrerá uma falha nas tentativas de criar uma solução.

A fórmula HRNN-Coldstart tem as seguintes propriedades:
+  **Nome** – `aws-hrnn-coldstart`
+  **Fórmula nome do recurso da Amazon (ARN)** – `arn:aws:personalize:::recipe/aws-hrnn-coldstart`
+  **ARN do algoritmo** – `arn:aws:personalize:::algorithm/aws-hrnn-coldstart`
+  **ARN de transformação de atributos** – `arn:aws:personalize:::feature-transformation/featurize_coldstart`
+  **Tipo de fórmula** – `USER_PERSONALIZATION`

Para obter mais informações, consulte [Escolher uma fórmula](working-with-predefined-recipes.md).

A tabela a seguir descreve os hiperparâmetros da fórmula HRNN-Coldstart. Um *hiperparâmetro* é um parâmetro de algoritmo que pode ser ajustado para melhorar o desempenho do modelo. Os hiperparâmetros do algoritmo controlam o desempenho do modelo. Os hiperparâmetros de caracterização controlam como filtrar os dados a serem usados no treinamento. O processo de escolher o melhor valor para um hiperparâmetro é chamado de otimização de hiperparâmetros (HPO). Para obter mais informações, consulte [Hiperparâmetros e HPO](customizing-solution-config-hpo.md). 

A tabela também fornece as seguintes informações para cada hiperparâmetro:
+ **Intervalo**: [limite inferior, limite superior]
+ **Tipo de valor**: inteiro, contínuo (float), categórico (booliano, lista, string)
+ **HPO ajustável**: o parâmetro pode participar da HPO?


| Nome | Descrição | 
| --- | --- | 
| Hiperparâmetros de algoritmo | 
| hidden\$1dimension | O número de variáveis ocultas usadas no modelo. *Variáveis ocultas* recriam o histórico de compras dos usuários e as estatísticas de itens para gerar pontuações de classificação. Especifique um número maior de dimensões ocultas quando o conjunto de dados de interações com itens incluir padrões mais complicados. Usar mais dimensões ocultas requer um conjunto de dados maior e mais tempo para processamento. Para decidir sobre o valor ideal, use HPO. Para usar a HPO, defina `performHPO` `true` ao chamar as operações [CreateSolution](API_CreateSolution.md) e [CreateSolutionVersion](API_CreateSolutionVersion.md). Valor padrão: 149 Intervalo: [32, 256] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| bptt | Determina se é necessário usar a técnica de propagação retroativa ao longo do tempo. A *propagação retroativa ao longo do tempo* é uma técnica que atualiza pesos em algoritmos baseados em rede neural recorrente. Use o `bptt` para créditos de longo prazo a fim de conectar prêmios atrasados a eventos iniciais. Por exemplo, um prêmio atrasado pode ser uma compra feita após vários cliques. Um evento inicial pode ser um clique inicial. Mesmo dentro dos mesmos tipos de evento, como um clique, é uma boa ideia considerar efeitos de longo prazo e maximizar os prêmios totais. Para considerar efeitos de longo prazo, use valores `bptt` maiores. O uso de um valor `bptt` maior exige conjuntos de dados maiores e mais tempo para processamento. Valor padrão: 32 Intervalo: [2, 32] Tipo de valor: inteiro Ajustável de HPO: sim  | 
| recency\$1mask |  Determina se o modelo deve utilizar as tendências de popularidade mais recentes no conjunto de dados de interações com itens. As tendências de popularidade mais recentes podem incluir mudanças repentinas nos padrões subjacentes de eventos de interação. Para treinar um modelo que posiciona mais peso sobre eventos recentes, defina `recency_mask` como `true`. Para treinar um modelo que pese igualmente todas as interações passadas, defina `recency_mask` como `false`. Para obter boas recomendações usando um peso igual, talvez seja necessário um conjunto de dados de treinamento maior. Valor padrão: `True` Intervalo: `True` ou `False` Tipo de valor: booliano Ajustável de HPO: sim  | 
| Hiperparâmetros de caracterização | 
| cold\$1start\$1max\$1interactions |  O número máximo de interações entre usuários e itens que um item pode ter para ser considerado um item frio. Valor padrão: 15 Intervalo: inteiros positivos Tipo de valor: inteiro HPO ajustável: não  | 
| cold\$1start\$1max\$1duration | A duração máxima, em dias, em relação ao ponto de partida para que uma interação entre usuário e item seja considerada um item de partida a frio. Para definir o ponto de partida da interação entre usuários e itens, defina o hiperparâmetro `cold_start_relative_from`. Valor padrão: 5.0 Intervalo: flutuantes positivos Tipo de valor: flutuante HPO ajustável: não  | 
| cold\$1start\$1relative\$1from |  Determina o ponto de partida para a fórmula HRNN-Coldstart calcular `cold_start_max_duration`. Para calcular a partir da hora atual, escolha `currentTime`. Para calcular `cold_start_max_duration` com base no carimbo de data e hora do item mais recente no conjunto de dados de interações com itens, selecione `latestItem`. Isso será útil se você adicionar novos itens com frequência. Valor padrão: `latestItem` Intervalo: `currentTime`, `latestItem` Tipo de valor: string HPO ajustável: não  | 
| min\$1user\$1history\$1length\$1percentile |  O percentil mínimo dos comprimentos dos históricos de usuários para incluir no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `min_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos breves. Os usuários com um histórico breve geralmente mostram padrões baseados na popularidade dos itens em vez das necessidades ou dos desejos pessoais do usuário. Removê-los pode treinar modelos com mais foco nos padrões subjacentes nos dados. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda.  Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.0 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 
| max\$1user\$1history\$1length\$1percentile |  O percentil máximo dos comprimentos dos históricos de usuários a ser incluído no treinamento do modelo. *Tamanho do histórico* é a quantidade total de dados sobre um usuário. Use `max_user_history_length_percentile` para excluir uma porcentagem de usuários com históricos longos, pois os dados desses usuários tendem a conter ruído. Por exemplo, um robô pode ter uma longa lista de interações automatizadas. A remoção desses usuários limita o ruído no treinamento. Escolha um valor apropriado depois de revisar os comprimentos de histórico dos usuários usando um histograma ou uma ferramenta semelhante. Recomendamos definir um valor que retenha a maioria dos usuários, mas remova os casos de borda. Por exemplo, a definição de `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` inclui todos os usuários, exceto aqueles com comprimentos de histórico nos 5% inferiores ou superiores. Valor padrão: 0.99 Intervalo: [0,0, 1,0] Tipo de valor: flutuante HPO ajustável: não  | 