Monitoraggio dei processi di inferenza in batch - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Monitoraggio dei processi di inferenza in batch

Oltre a impostare le configurazioni per un processo di inferenza in batch, è possibile anche monitorarne l’avanzamento visualizzandone lo stato. Per ulteriori informazioni sui possibili stati di un lavoro, vedere il status campo in ModelInvocationJobSummary.

Puoi tenere traccia dello stato di un processo anche confrontando il numero totale di record e il numero di record che sono già stati elaborati. Questi numeri sono disponibili nel file manifest.json.out del bucket Amazon S3 che contiene i file di output. Per ulteriori informazioni, consulta Visualizzazione dei risultati di un processo di inferenza in batch. Per informazioni su come scaricare un oggetto S3, consulta Download di oggetti.

Suggerimento

Invece di controllare lo stato del lavoro, puoi utilizzare Amazon per EventBridge ricevere notifiche automatiche quando un processo di inferenza in batch viene completato o cambia lo stato. Per ulteriori informazioni, consulta Monitora le modifiche allo stato dei job di Amazon Bedrock con Amazon EventBridge.

Per scoprire come visualizzare i dettagli dei processi di inferenza in batch, scegli la scheda corrispondente al metodo che preferisci, quindi segui i passaggi sotto indicati.

Console
Per visualizzare informazioni sui processi di inferenza in batch
  1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in https://console.aws.amazon.com/bedrock.

  2. Seleziona Inferenza in batch nel riquadro di navigazione a sinistra.

  3. Nella sezione Processi di inferenza in batch, scegli un processo.

  4. Nella pagina dei dettagli del processo, è possibile visualizzare le informazioni sulla relativa configurazione e monitorarne l’avanzamento visualizzandone lo stato.

API

Per ottenere informazioni su un processo di inferenza in batch, invia una GetModelInvocationJobrichiesta con un endpoint del piano di controllo Amazon Bedrock e fornisci l'ID o l'ARN del lavoro sul campo. jobIdentifier

Per elencare informazioni su più processi di inferenza in batch, invia una ListModelInvocationJobsrichiesta con un endpoint del piano di controllo Amazon Bedrock. È inoltre possibile specificare i parametri opzionali seguenti:

La risposta per GetModelInvocationJob e ListModelInvocationJobs include un modelInvocationType campo che indica se il processo utilizza il formato InvokeModel o Converse API.

Campo Breve descrizione
maxResults Il numero massimo di risultati da restituire nella risposta.
nextToken Se i risultati sono superiori al numero specificato nel campo maxResults, la risposta restituisce un valore nextToken. Per visualizzare il batch di risultati successivo, invia il valore nextToken in un’altra richiesta.

Per elencare tutti i tag di un lavoro, invia una ListTagsForResourcerichiesta con un endpoint del piano di controllo Amazon Bedrock e includi l'Amazon Resource Name (ARN) del lavoro.