Informazioni sui casi d’uso per diversi metodi di inferenza del modello - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Informazioni sui casi d’uso per diversi metodi di inferenza del modello

L’inferenza del modello può essere eseguita direttamente nei modi seguenti:

Metodo Caso d’uso
Playground della console Amazon Bedrock Esecuzione dell’inferenza in un’interfaccia grafica intuitiva. Comodo per l’esplorazione.
Converse o ConverseStream Implementazione di applicazioni conversazionali con un’API unificata per l’input del modello.
InvokeModel o InvokeModelWithResponseStream Invio di un singolo prompt e generazione di una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca.
StartAsyncInvoke Invio di un singolo prompt e generazione di una risposta in modo asincrono. Utile per generare risposte su larga scala.
CreateModelInvocationJob Preparazione di un set di dati di prompt e generazione di risposte in batch.
API di risposta Utilizza l'API Responses per applicazioni moderne e agentiche che richiedono l'uso di strumenti integrati (ricerca, interprete di codice), input multimodali e conversazioni basate sullo stato.
Completamenti della chat Utilizza l'API Chat Completions per attività leggere, prive di stato e incentrate sul testo in cui è necessario il pieno controllo sulla gestione della cronologia chat e una minore latenza.

Anche le seguenti funzionalità di Amazon Bedrock utilizzano l’inferenza del modello in un flusso di lavoro più ampio:

  • La valutazione del modello utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo l'invio di una richiesta. CreateEvaluationJob

  • Le knowledge base utilizzano l’invocazione del modello quando usano l’API RetrieveAndGenerate per generare una risposta basata sui risultati recuperati da una knowledge base.

  • Gli agenti utilizzano l’invocazione del modello per generare risposte in varie fasi durante una richiesta InvokeAgent.

  • I flussi includono risorse Amazon Bedrock, ad esempio prompt, knowledge base e agenti, che utilizzano l’invocazione del modello.

Dopo aver testato diversi modelli di base con prompt e parametri di inferenza diversi, è possibile configurare l'applicazione in modo che li APIs richiami con le specifiche desiderate.