

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Configurare prompt avanzati
<a name="configure-advanced-prompts"></a>

Puoi configurare prompt avanzati nella Console di gestione AWS o tramite l’API.

------
#### [ Console ]

Nella console, è possibile configurare i prompt avanzati dopo aver creato l'agente. La configurazione avviene durante la modifica dell'agente.

**Per visualizzare o modificare i prompt avanzati per il tuo agente**

1. Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Nel riquadro di navigazione a sinistra, seleziona **Agenti**. Quindi, scegli un agente nella sezione **Agenti**.

1. Nella sezione **Bozza di lavoro** della pagina dei dettagli dell’agente, seleziona **Bozza di lavoro**.

1. Nella pagina **Bozza di lavoro**, nella sezione **Strategia di orchestrazione**, scegli **Modifica**.

1. Nella pagina **Strategia di orchestrazione**, nella sezione **Dettagli della strategia di orchestrazione**, assicurati che sia selezionata l’opzione **Orchestrazione predefinita**, quindi scegli la scheda corrispondente alla fase della sequenza di agenti che desideri modificare.

1. Attiva **Ignora impostazioni predefinite del modello** per abilitare la modifica del modello. Nella finestra di dialogo **Ignora impostazioni predefinite del modello** scegli **Conferma**.
**avvertimento**  
Se disattivi **Ignora impostazioni predefinite del modello** o modifichi il modello, viene utilizzato il modello Amazon Bedrock predefinito e il modello viene immediatamente eliminato. Per confermare, inserisci **confirm** nella casella di testo per confermare il messaggio visualizzato.

1. Abilita **Attiva modello** per consentirne l’utilizzo da parte dell’agente durante la generazione delle risposte. Se questa configurazione è disattivata, l’agente non lo utilizza.

1. Utilizza **Editor di modelli di prompt** per modificare il modello di prompt di esempio.

1. In **Configurazioni**, è possibile modificare i parametri di inferenza per il prompt. Per le definizioni dei parametri e ulteriori dettagli sui parametri supportati dai diversi modelli, consulta [Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione](model-parameters.md).

1. (Facoltativo) Per utilizzare una funzione Lambda che hai definito per analizzare l’output del modello di fondazione non elaborato, esegui queste azioni:
**Nota**  
Una funzione Lambda viene utilizzata per tutti i modelli di prompt.

   1. Nella sezione **Configurazioni** seleziona **Usa la funzione Lambda per l’analisi**. Se disattivi questa impostazione, il tuo agente utilizza il parser predefinito per il prompt.

   1. Per **Funzione Parser Lambda**, seleziona una funzione Lambda dal menu a discesa.
**Nota**  
È necessario collegare autorizzazioni per consentire a un agente di accedere alla funzione Lambda. Per ulteriori informazioni, consulta [Policy basata sulle risorse per consentire ad Amazon Bedrock di invocare una funzione Lambda del gruppo di operazioni](agents-permissions.md#agents-permissions-lambda).

1. Per salvare le impostazioni, scegli una delle seguenti opzioni:

   1. Per rimanere nella stessa finestra in modo da poter aggiornare dinamicamente le impostazioni dei prompt durante il test dell’agente aggiornato, scegli **Salva**.

   1. Per salvare le impostazioni e tornare alla pagina **Bozza di lavoro**, scegli **Salva ed esci**.

1. Per testare le impostazioni aggiornate, scegli **Prepara** nella finestra **Test**.

![\[Configurazione di prompt avanzati nella console.\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/images/agents/advanced-prompts.png)


------
#### [ API ]

Per configurare prompt avanzati tramite operazioni API, invia una chiamata [UpdateAgent](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_UpdateAgent.html) e modifica il seguente oggetto `promptOverrideConfiguration`.

```
"promptOverrideConfiguration": { 
    "overrideLambda": "string",
    "promptConfigurations": [ 
        { 
            "basePromptTemplate": "string",
            "inferenceConfiguration": { 
                "maximumLength": int,
                "stopSequences": [ "string" ],
                "temperature": float,
                "topK": float,
                "topP": float
            },
            "parserMode": "DEFAULT | OVERRIDDEN",
            "promptCreationMode": "DEFAULT | OVERRIDDEN",
            "promptState": "ENABLED | DISABLED",
            "promptType": "PRE_PROCESSING | ORCHESTRATION | KNOWLEDGE_BASE_RESPONSE_GENERATION | POST_PROCESSING | MEMORY_SUMMARIZATION"
        }
    ],
    promptCachingState: {
        cachingState: "ENABLED | DISABLED"
    }
}
```

1. Nell'elenco `promptConfigurations`, includi un oggetto `promptConfiguration` per ogni modello di prompt che desideri modificare.

1. Specifica il prompt da modificare nel campo `promptType`.

1. Per modificare il modello di prompt, attieniti alla seguente procedura:

   1. Specifica i campi `basePromptTemplate` con il modello di prompt.

   1. Includi i parametri di inferenza negli oggetti `inferenceConfiguration`. Per ulteriori informazioni sulle configurazioni dell'inferenza, consulta [Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione](model-parameters.md).

1. Per abilitare il modello di prompt, imposta `promptCreationMode` su `OVERRIDDEN`.

1. Per consentire o impedire all’agente di eseguire la fase nel campo `promptType`, modifica il valore `promptState`. Questa impostazione può essere utile per la risoluzione dei problemi del comportamento dell’agente.
   + Se imposti `promptState` su `DISABLED` per le fasi `PRE_PROCESSING`, `KNOWLEDGE_BASE_RESPONSE_GENERATION` o `POST_PROCESSING`, l’agente ignora tale fase.
   + Se imposti `promptState` su `DISABLED` per la fase `ORCHESTRATION`, l’agente invia solo l’input dell’utente al modello di fondazione nell’orchestrazione. Inoltre, l’agente restituisce la risposta così com’è senza eseguire l’orchestrazione delle chiamate tra le operazioni API e le knowledge base.
   + Per impostazione predefinita, la fase `POST_PROCESSING` è `DISABLED`. Per impostazione predefinita, le fasi `PRE_PROCESSING`, `ORCHESTRATION` e `KNOWLEDGE_BASE_RESPONSE_GENERATION` sono `ENABLED`.
   + Per impostazione predefinita, la fase `MEMORY_SUMMARIZATION` è `ENABLED` se la memoria è abilitata e la fase `MEMORY_SUMMARIZATION` è `DISABLED` se la memoria è disabilitata.

1. Per utilizzare una funzione Lambda che hai definito per analizzare l’output del modello di fondazione non elaborato, attieniti alla seguente procedura:

   1. Per ogni modello di prompt per cui desideri abilitare la funzione Lambda, imposta `parserMode` su `OVERRIDDEN`.

   1. Specifica il nome della risorsa Amazon (ARN) della funzione Lambda nel campo `overrideLambda` dell’oggetto `promptOverrideConfiguration`.

------