Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Inviare prompt e generare risposte utilizzando l’API
Per eseguire l’inferenza dei modelli, Amazon Bedrock offre le seguenti operazioni API:
-
InvokeModel— Invia una richiesta e genera una risposta. Il corpo della richiesta è specifico del modello. Per generare risposte in streaming, usa InvokeModelWithResponseStream.
-
Converse: invia un prompt e genera risposte con una struttura unificata in tutti i modelli. I campi di richiesta specifici del modello possono essere specificati nel campo
additionalModelRequestFields. È anche possibile includere prompt di sistema e conversazioni precedenti per fornire un contesto. Per generare risposte in streaming, usa ConverseStream. -
StartAsyncInvoke— Invia una richiesta e genera una risposta in modo asincrono che può essere recuperata in un secondo momento. Consente di generare video.
-
API Chat Completions OpenAI: usa l’API Chat Completions OpenAI
con modelli supportati da Amazon Bedrock per generare una risposta.
Nota
Le restrizioni si applicano alle seguenti operazioni:InvokeModel,, e. InvokeModelWithResponseStream Converse ConverseStream Per i dettagli, consulta Restrizioni API.
Per l’inferenza del modello, è necessario definire i seguenti parametri:
-
ID modello: ID o nome della risorsa Amazon (ARN) del modello o del profilo di inferenza da utilizzare nel campo
modelIdper l’inferenza. La tabella seguente descrive come trovare IDs diversi tipi di risorse:Tipo di modello Description Ricerca dell’ID nella console Ricerca dell’ID nell’API Documentazione di riferimento Modelli base Modello di fondazione fornito da un provider. Scegli Modelli base nel riquadro di navigazione a sinistra, cerca un modello e cerca l’ID modello. Invia una ListFoundationModelsrichiesta GetFoundationModelo e modelIdtrovala nella risposta.Vedi un elenco di IDs atModelli di fondazione supportati in Amazon Bedrock. Profilo di inferenza Aumenta il throughput consentendo l’invocazione di un modello in più Regioni. Scegli Inferenza tra Regioni nel riquadro di navigazione a sinistra, quindi cerca un ID del profilo di inferenza. Invia una ListInferenceProfilesrichiesta GetInferenceProfileo trovala inferenceProfileIdnella risposta.Vedi un elenco di IDs atRegioni e modelli supportati per i profili di inferenza. Prompt Prompt creato utilizzando Gestione prompt. Scegli Gestione prompt nel riquadro di navigazione a sinistra, seleziona un prompt nella sezione Prompt, quindi cerca l’ARN del prompt. Invia una ListPromptsrichiesta GetPrompto trovala promptArnnella risposta.Per informazioni sulla creazione di prompt in Gestione prompt, consulta Creare e archiviare prompt riutilizzabili con Gestione dei prompt in Amazon Bedrock. Throughput allocato Fornisce un livello di throughput più elevato per un modello a un costo fisso. Scegli Throughput allocato nel riquadro di navigazione a sinistra, seleziona un throughput allocato e cerca l’ARN. Invia una ListProvisionedModelThroughputsrichiesta GetProvisionedModelThroughputo e provisionedModelArncercala nella risposta.Per informazioni sull’acquisto di throughput allocato per un modello, consulta Aumenta la capacità di invocazione del modello con Provisioned Throughput in Amazon Bedrock. Modello personalizzato Modello i cui parametri sono modificati rispetto a un modello di fondazione basato sui dati di addestramento. Dopo aver acquistato throughput allocato per un modello personalizzato, segui i passaggi per trovare l’ID del throughput allocato. Dopo aver acquistato throughput allocato per un modello personalizzato, segui i passaggi per trovare l’ID del throughput allocato. Per informazioni sulla personalizzazione di un modello, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso. Dopo la personalizzazione, è necessario acquistare throughput allocato e utilizzarne l’ID. -
Corpo della richiesta: contiene i parametri di inferenza per un modello e altre configurazioni. A ogni modello sono associati i propri parametri di inferenza. I parametri di inferenza per un modello personalizzato o allocato dipendono dal modello base da cui è stato creato. Per ulteriori informazioni, consulta Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione.
Seleziona un argomento per imparare a usare l' APIsinvocazione del modello.