View a markdown version of this page

Dominio del contenuto 3: Applicazioni dei modelli di fondazione - AWS Certified AI Practitioner

Dominio del contenuto 3: Applicazioni dei modelli di fondazione

Il dominio 3 tratta le applicazioni dei modelli di fondazione e rappresenta il 28% dei contenuti a punteggio dell'esame.

Obiettivo 3.1: Illustrazione delle considerazioni di progettazione per le applicazioni che utilizzano modelli di fondazione (FM)

Obiettivi:

  • Identificare i criteri per la scelta di modelli pre-addestrati (ad esempio, costi, modalità, latenza, modelli multilingue, dimensioni dei modelli, complessità dei modelli, personalizzazione, lunghezza di input/output e caching dei prompt).

  • Descrivere l'effetto dei parametri di inferenza sulle risposte dei modelli (ad esempio, temperatura e lunghezza di input/output).

  • Definire la generazione potenziata da recupero dati (RAG) e descrivere le relative applicazioni aziendali (ad esempio, Amazon Bedrock Knowledge Bases).

  • Identificare i servizi AWS che consentono di memorizzare gli embedding all'interno di database vettoriali (ad esempio, Servizio OpenSearch di Amazon, Amazon Aurora, Amazon Neptune e Amazon RDS per PostgreSQL).

  • Spiegare i compromessi di costo dei vari approcci alla personalizzazione degli FM (ad esempio, pre-addestramento, fine-tuning, apprendimento contestuale e RAG).

  • Descrivere il ruolo degli agenti nelle attività in più fasi (ad esempio, Agent per Amazon Bedrock, IA agentica e Model Context Protocol).

Obiettivo 3.2: Scelta delle tecniche efficaci per la progettazione dei prompt

Obiettivi:

  • Definire i concetti e i costrutti della progettazione dei prompt (ad esempio, contesto, istruzioni, prompt negativi, spazio latente dei modelli e routing di prompt).

  • Definire le tecniche per la progettazione dei prompt (ad esempio, catena di pensiero, zero-shot, single-shot, few-shot e template di prompt).

  • Identificare e descrivere i vantaggi e le best practice per la progettazione dei prompt (ad esempio, miglioramento della qualità della risposta, sperimentazione, guardrail, individuazione, specificità e concisione e utilizzo di più commenti).

  • Definire i potenziali rischi e limiti della progettazione dei prompt (ad esempio, esposizione, poisoning, hijacking e jailbreaking).

Obiettivo 3.3: Descrizione del processo di addestramento e fine-tuning per gli FM

Obiettivi:

  • Descrivere gli elementi chiave dell'addestramento di un FM (ad esempio, pre-addestramento, fine-tuning, pre-addestramento continuo e distillazione).

  • Definire i metodi per il fine-tuning di un FM (ad esempio, tuning delle istruzioni, adattamento dei modelli a domini specifici, transfer learning e pre-addestramento continuo).

  • Descrivere come preparare i dati per il fine-tuning di un FM, ad esempio data curation, governance, dimensioni, etichettatura, rappresentatività, apprendimento per rinforzo da feedback umano (RLHF).

Obiettivo 3.4: Descrizione dei metodi per valutare le prestazioni degli FM

Obiettivi:

  • Determinare gli approcci per valutare le prestazioni degli FM (ad esempio, valutazione umana, set di dati di benchmark e valutazione del modello in Amazon Bedrock).

  • Identificare le metriche pertinenti per valutare le prestazioni degli FM, ad esempio Recall-Oriented Understudy for Gisting Evaluation (ROUGE) valutazione bilingue (BLEU) e BERTScore.

  • Determinare se un FM soddisfa in modo efficace gli obiettivi aziendali (ad esempio, produttività, coinvolgimento degli utenti e progettazione delle attività).

  • Identificare gli approcci per valutare le prestazioni delle applicazioni create con gli FM (ad esempio, RAG, agenti e flussi di lavoro).