

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Ricetta HRNN-Coldstart (legacy)
<a name="native-recipe-hrnn-coldstart"></a>

**Nota**  
Le ricette HRNN precedenti non sono più disponibili. Questa documentazione è a scopo di riferimento.  
 Si consiglia di utilizzare la ricetta aws-user-personalizaton (Personalizzazione dell'utente) rispetto alle ricette HRNN precedenti. La personalizzazione da parte dell'utente migliora e unifica la funzionalità offerta dalle ricette HRNN. Per ulteriori informazioni, consulta [Ricetta per la personalizzazione dell'utente](native-recipe-new-item-USER_PERSONALIZATION.md). 

Usa la ricetta HRNN-Coldstart per prevedere gli elementi con cui un utente interagirà quando aggiungi spesso nuovi articoli e interazioni e desideri ricevere immediatamente consigli su tali elementi. La ricetta HRNN-Coldstart è simile alla ricetta [HRNN-Metadata](native-recipe-hrnn-metadata.md), ma consente di ottenere raccomandazioni da nuovi elementi. 

Inoltre, puoi utilizzare la ricetta HRNN-Coldstart quando desideri escludere dagli elementi di training che hanno un lungo elenco di interazioni a causa di un recente trend di popolarità o perché le interazioni potrebbero essere altamente insolite e introdurre rumore durante l'addestramento. Con HRNN-Coldstart, puoi filtrare gli elementi meno rilevanti per creare un sottoinsieme per l'addestramento. Il sottoinsieme di elementi, chiamato *cold item, è costituito da elementi* che hanno eventi di interazione correlati nel set di dati sulle interazioni degli oggetti. Un item è considerato un item inattivo quando ha:
+ Meno interazioni rispetto a un numero massimo specificato di interazioni. Specifica questo valore nell'iperparametro `cold_start_max_interactions` della ricetta.
+ Una durata relativa più breve rispetto alla durata massima. Specifica questo valore nell'iperparametro `cold_start_max_duration` della ricetta.

Per ridurre il numero di voci indefinite, imposta un valore inferiore per `cold_start_max_interactions` o `cold_start_max_duration`. Per aumentare il numero di voci indefinite, imposta un valore maggiore per `cold_start_max_interactions` o `cold_start_max_duration`.



HRNN-Coldstart ha i seguenti limiti per gli item cold:
+ `Maximum cold start items`: 80.000
+ `Minimum cold start items`: 100

Se il numero di elementi non recapitabili è al di fuori di questo intervallo, i tentativi di creare una soluzione non andranno a buon fine.

La ricetta HRNN-Coldstart ha le seguenti proprietà:
+  **Nome**: `aws-hrnn-coldstart`
+  **Ricetta Amazon Resource Name (ARN**) — `arn:aws:personalize:::recipe/aws-hrnn-coldstart`
+  **Algoritmo ARN** — `arn:aws:personalize:::algorithm/aws-hrnn-coldstart`
+  **ARN per la trasformazione delle funzionalità** — `arn:aws:personalize:::feature-transformation/featurize_coldstart`
+  **Tipo di ricetta** — `USER_PERSONALIZATION`

Per ulteriori informazioni, consulta [Scegliere una ricetta](working-with-predefined-recipes.md).

La tabella seguente descrive gli iperparametri per la ricetta HRNN-Coldstart. Un *iperparametro* è un parametro di algoritmo che puoi regolare per migliorare le prestazioni del modello. Gli iperparametri dell'algoritmo controllano le prestazioni del modello. Gli iperparametri di funzionalità controllano come filtrare i dati da utilizzare nel training. Il processo di scelta del valore migliore per un iperparametro è chiamato ottimizzazione iperparametri (HPO). Per ulteriori informazioni, consulta [Iperparametri e HPO](customizing-solution-config-hpo.md). 

La tabella fornisce inoltre le seguenti informazioni per ogni iperparametro:
+ **Range**: [limite inferiore, limite superiore]
+ **Value type**: Integer, Continuous (float), Categorical (booleano, elenco, stringa)
+ **HPO tunable**(HPO ottimizzabile): il parametro può partecipare all'HPO?


| Nome | Descrizione | 
| --- | --- | 
| Iperparametri dell'algoritmo | 
| hidden\$1dimension | Il numero di variabili nascoste utilizzate nel modello. *Le variabili nascoste* ricreano la cronologia degli acquisti degli utenti e le statistiche degli articoli per generare punteggi di classifica. Specificate un numero maggiore di dimensioni nascoste quando il set di dati sulle interazioni degli elementi include modelli più complicati. L'utilizzo di dimensioni più nascoste richiede un set di dati più grande e più tempo per l'elaborazione. Per decidere il valore ottimale, utilizza HPO. Per utilizzare HPO, imposta `performHPO` su `true` quando chiami le operazioni [CreateSolution](API_CreateSolution.md) e [CreateSolutionVersion](API_CreateSolutionVersion.md). Valore predefinito: 149 Intervallo: [32, 256] Tipo di valore: Integer HPO regolabile: sì  | 
| bptt | Determina se utilizzare la tecnica di propagazione back-through-time. *La propagazione back-through-time* è una tecnica che aggiorna i pesi in algoritmi basati su reti neurali ricorrenti. Utilizza `bptt` per i crediti a lungo termine per collegare ricompense ritardate ai primi eventi. Ad esempio, una ricompensa ritardata può essere un acquisto effettuato dopo diversi clic. Un evento iniziale può essere un clic iniziale. Anche all'interno degli stessi tipi di eventi, ad esempio un clic, è consigliabile considerare gli effetti a lungo termine e massimizzare le ricompense totali. Per considerare gli effetti a lungo termine, utilizza valori `bptt` più grandi. L'utilizzo di un valore `bptt` maggiore richiede set di dati più grandi e più tempo per l'elaborazione. Valore predefinito: 32 Intervallo: [2, 32]. Tipo di valore: Integer HPO regolabile: sì  | 
| recency\$1mask |  Determina se il modello deve prendere in considerazione le ultime tendenze di popolarità nel set di dati sulle interazioni tra elementi. Le ultime tendenze di popolarità potrebbero includere improvvisi cambiamenti nei modelli sottostanti degli eventi di interazione. Per eseguire il training di un modello che posiziona più peso sugli eventi recenti, imposta `recency_mask` su `true`. Per addestrare un modello che pesa ugualmente tutte le interazioni passate, imposta `recency_mask` su `false`. Per ottenere buone raccomandazioni utilizzando lo stesso peso, potrebbe essere necessario un set di dati di training più grande. Valore predefinito: `True` Intervallo: `True` o `False` Tipo di valore: booleano HPO regolabile: sì  | 
| Iperparametri di caratterizzazione | 
| cold\$1start\$1max\$1interactions |  Il numero massimo di interazioni utente-voce che un item può avere deve essere considerato un item inattivo. Valore predefinito: 15 Intervallo: numeri interi positivi Tipo di valore: Integer HPO regolabile: no  | 
| cold\$1start\$1max\$1duration | La durata massima in giorni rispetto al punto di partenza per un'interazione utente-elemento da considerare come voce di avvio a freddo. Per impostare il punto di partenza dell'interazione utente-elemento, imposta l'iperparametro `cold_start_relative_from`. Valore predefinito: 5.0 Intervallo: float positivi Tipo di valore: float HPO regolabile: no  | 
| cold\$1start\$1relative\$1from |  Determina il punto di partenza per la ricetta HRNN-Coldstart da calcolare `cold_start_max_duration`. Calcola dall'ora corrente, scegli `currentTime`. Per eseguire il calcolo `cold_start_max_duration` in base al timestamp dell'ultimo elemento nel set di dati sulle interazioni tra elementi, scegli. `latestItem` Questa funzione è utile se aggiungi spesso nuovi item. Valore predefinito: `latestItem` Intervallo: `currentTime` e `latestItem` Tipo di valore: stringa HPO regolabile: no  | 
| min\$1user\$1history\$1length\$1percentile |  Il percentile minimo delle lunghezze della cronologia degli utenti da includere nell’addestramento del modello. *La lunghezza della cronologia* è la quantità totale di dati relativi a un utente. Utilizza `min_user_history_length_percentile` per escludere una percentuale di utenti con brevi periodi di cronologia. Gli utenti con una breve cronologia spesso mostrano modelli basati sulla popolarità dell'articolo anziché le esigenze o i desideri personali dell'utente. La loro rimozione può addestrare modelli con maggiore attenzione sui modelli sottostanti nei dati. Scegli un valore appropriato dopo aver esaminato le lunghezze della cronologia degli utenti, utilizzando un istogramma o uno strumento simile. Ti consigliamo di impostare un valore che conservi la maggior parte degli utenti, ma rimuove i casi limite.  Ad esempio, l'impostazione di `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` include tutti gli utenti tranne quelli con lunghezze della cronologia nella parte inferiore o superiore del 5%. Valore predefinito: 0.0 Intervallo: [0.0, 1.0] Tipo di valore: float HPO regolabile: no  | 
| max\$1user\$1history\$1length\$1percentile |  Il percentile massimo delle lunghezze della cronologia degli utenti da includere nell’addestramento del modello. *La lunghezza della cronologia* è la quantità totale di dati relativi a un utente. Utilizza `max_user_history_length_percentile` per escludere una percentuale di utenti con lunghi periodi di cronologia perché i dati per questi utenti tendono a contenere rumore. Ad esempio, un robot potrebbe avere un lungo elenco di interazioni automatizzate. La rimozione di questi utenti limita il rumore durante il training. Scegli un valore appropriato dopo aver esaminato le lunghezze della cronologia degli utenti utilizzando un istogramma o uno strumento simile. Ti consigliamo di impostare un valore che conservi la maggior parte degli utenti ma rimuove i casi limite. Ad esempio, l'impostazione di `min__user_history_length_percentile to 0.05` e `max_user_history_length_percentile to 0.95` include tutti gli utenti tranne quelli con lunghezze della cronologia nella parte inferiore o superiore del 5%. Valore predefinito: 0,99 Intervallo: [0.0, 1.0] Tipo di valore: float HPO regolabile: no  | 