

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Architetture Custom Retrieval Augmented Generation su AWS
<a name="rag-custom"></a>

La sezione precedente descrive come utilizzare un RAG (Fully managed Servizio AWS for Retrieval Augmented Generation). *Tuttavia, alcuni casi d'uso richiedono un maggiore controllo sui componenti del sistema, come il retriever o l'LLM (chiamato anche generatore).* Ad esempio, potrebbe essere necessaria la flessibilità necessaria per scegliere il proprio database vettoriale o accedere a una fonte di dati non supportata. Per questi casi d'uso, puoi creare un'architettura RAG personalizzata.

Questa sezione contiene i seguenti argomenti:
+ [Retriever per flussi di lavoro RAG](rag-custom-retrievers.md)
+ [Generatori per flussi di lavoro RAG](rag-custom-generators.md)

Per ulteriori informazioni su come scegliere tra le opzioni retriever e generator in questa sezione, consulta questa [Scelta di un'opzione Retrieval Augmented Generation su AWS](choosing-option.md) guida.

# Retriever per flussi di lavoro RAG
<a name="rag-custom-retrievers"></a>

Questa sezione spiega come costruire un retriever. Puoi utilizzare una soluzione di ricerca semantica completamente gestita, come Amazon Kendra, oppure puoi creare una ricerca semantica personalizzata utilizzando un database vettoriale. AWS 

Prima di esaminare le opzioni di retriever, assicurati di aver compreso i tre passaggi del processo di ricerca vettoriale:

1. I documenti che devono essere indicizzati vengono separati in parti più piccole. *Questa operazione si chiama suddivisione in blocchi.*

1. Si utilizza un processo chiamato [incorporamento](https://community.aws/concepts/vector-embeddings-and-rag-demystified#embeddings) per convertire ogni blocco in un vettore matematico. Quindi, indicizzate ogni vettore in un database vettoriale. L'approccio utilizzato per indicizzare i documenti influenza la velocità e la precisione della ricerca. L'approccio di indicizzazione dipende dal database vettoriale e dalle opzioni di configurazione che offre.

1. La query dell'utente viene convertita in un vettore utilizzando lo stesso processo. Il retriever cerca nel database vettoriale vettori simili al vettore di query dell'utente. [La somiglianza](https://community.aws/concepts/vector-embeddings-and-rag-demystified#distance-metrics-between-embeddings) viene calcolata utilizzando metriche come la distanza euclidea, la distanza del coseno o il prodotto scalare.

Questa guida descrive come utilizzare i seguenti servizi Servizi AWS o quelli di terze parti per creare un livello di recupero personalizzato su: AWS
+ [Amazon Kendra](#rag-custom-kendra)
+ [OpenSearch Servizio Amazon](#rag-custom-opensearch)
+ [Amazon Aurora PostgreSQL e pgvector](#rag-custom-aurora)
+ [Analisi di Amazon Neptune](#rag-custom-neptune)
+ [Amazon MemoryDB](#rag-custom-memorydb)
+ [Amazon DocumentDB](#rag-custom-docdb)
+ [Pinecone](#rag-custom-pinecone)
+ [MongoDB Atlas](#rag-custom-mongodb-atlas)
+ [Weaviate](#rag-custom-weaviate)

## Amazon Kendra
<a name="rag-custom-kendra"></a>

[Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html) è un servizio di ricerca intelligente e completamente gestito che utilizza l'elaborazione del linguaggio naturale e algoritmi avanzati di apprendimento automatico per restituire risposte specifiche alle domande di ricerca dai tuoi dati. Amazon Kendra ti aiuta a importare direttamente documenti da più fonti e a interrogare i documenti dopo che si sono sincronizzati correttamente. Il processo di sincronizzazione crea l'infrastruttura necessaria per creare una ricerca vettoriale sul documento importato. Pertanto, Amazon Kendra non richiede i tre passaggi tradizionali del processo di ricerca vettoriale. Dopo la sincronizzazione iniziale, puoi utilizzare una pianificazione definita per gestire l'ingestione continua. 

Di seguito sono riportati i vantaggi dell'utilizzo di Amazon Kendra for RAG:
+ Non è necessario mantenere un database vettoriale perché Amazon Kendra gestisce l'intero processo di ricerca vettoriale.
+ Amazon Kendra contiene connettori predefiniti per le fonti di dati più diffuse, come database, crawler di siti Web, bucket Amazon S3, istanze e istanze. Microsoft SharePoint Atlassian Confluence Sono disponibili connettori sviluppati dai AWS partner, come connettori per e. Box GitLab
+ Amazon Kendra fornisce un filtro per la lista di controllo degli accessi (ACL) che restituisce solo i documenti a cui l'utente finale ha accesso.
+ Amazon Kendra può potenziare le risposte in base ai metadati, come la data o l'archivio di origine.

L'immagine seguente mostra un'architettura di esempio che utilizza Amazon Kendra come livello di recupero del sistema RAG. Per ulteriori informazioni, consulta [Crea rapidamente applicazioni di intelligenza artificiale generativa ad alta precisione su dati aziendali utilizzando Amazon Kendra LangChain e modelli linguistici di grandi dimensioni (post](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/) di blog).AWS 



![\[Utilizzo di Amazon Kendra come livello di recupero per un sistema RAG su. AWS\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-kendra.png)


[Per il modello base, puoi utilizzare Amazon Bedrock o un LLM distribuito tramite Amazon AI. SageMaker JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) Puoi usare AWS Lambda with [https://python.langchain.com/docs/integrations/tools/awslambda/](https://python.langchain.com/docs/integrations/tools/awslambda/)per orchestrare il flusso tra l'utente, Amazon Kendra e LLM. Per creare un sistema RAG che utilizzi Amazon Kendra LLMs e vari altri, consulta il repository [Amazon LangChainLangChain Kendra](https://github.com/aws-samples/amazon-kendra-langchain-extensions) Extensions. GitHub 

## OpenSearch Servizio Amazon
<a name="rag-custom-opensearch"></a>

[Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/what-is.html) fornisce algoritmi ML integrati per la ricerca [k-Nearest Neighbors (k-NN) al fine di eseguire una ricerca](https://docs.opensearch.org/latest/vector-search/vector-search-techniques/index/) vettoriale. OpenSearch Il servizio fornisce anche un [motore vettoriale per Amazon EMR Serverless.](https://aws.amazon.com/opensearch-service/serverless-vector-engine/) Puoi utilizzare questo motore vettoriale per creare un sistema RAG con funzionalità di archiviazione e ricerca vettoriali scalabili e ad alte prestazioni. Per ulteriori informazioni su come creare un sistema RAG utilizzando OpenSearch Serverless, consulta [Creare flussi di lavoro RAG scalabili e serverless con un motore vettoriale per i modelli Amazon Serverless OpenSearch e Amazon Bedrock Claude](https://aws.amazon.com/blogs/big-data/build-scalable-and-serverless-rag-workflows-with-a-vector-engine-for-amazon-opensearch-serverless-and-amazon-bedrock-claude-models/) (post di blog).AWS 

Di seguito sono riportati i vantaggi dell'utilizzo di Service per la ricerca vettoriale: OpenSearch 
+ Fornisce il controllo completo sul database vettoriale, inclusa la creazione di una ricerca vettoriale scalabile utilizzando Serverless. OpenSearch 
+ Fornisce il controllo sulla strategia di suddivisione in blocchi.
+ [Utilizza algoritmi approssimativi più vicini (ANN) delle librerie [Non-Metric Space Library (NMSLIB), [Faiss](https://github.com/facebookresearch/faiss) e Apache Lucene per alimentare una ricerca k-NN](https://github.com/nmslib/nmslib).](https://lucene.apache.org/) È possibile modificare l'algoritmo in base al caso d'uso. Per ulteriori informazioni sulle opzioni per personalizzare la ricerca vettoriale tramite OpenSearch Service, consulta la [spiegazione delle funzionalità del database vettoriale di Amazon OpenSearch Service](https://aws.amazon.com/blogs/big-data/amazon-opensearch-services-vector-database-capabilities-explained/) (AWS post del blog).
+ OpenSearch Serverless si integra con le knowledge base di Amazon Bedrock come indice vettoriale.

## Amazon Aurora PostgreSQL e pgvector
<a name="rag-custom-aurora"></a>

[Amazon Aurora PostgreSQL Compatible Edition](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) è un motore di database relazionale completamente gestito che ti aiuta a configurare, gestire e scalare le distribuzioni PostgreSQL. [pgvector è un'estensione](https://github.com/pgvector/pgvector/) PostgreSQL open source che fornisce funzionalità di ricerca per somiglianze vettoriali. Questa estensione è disponibile sia per Aurora compatibile con PostgreSQL che per Amazon Relational Database Service (Amazon RDS) per PostgreSQL. Per ulteriori informazioni su come creare un sistema basato su RAG che utilizzi Aurora, compatibile con PostgreSQL e pgvector, consulta i seguenti post di blog: AWS 
+ [Creazione di ricerche basate sull'intelligenza artificiale in PostgreSQL utilizzando Amazon AI e pgvector SageMaker ](https://aws.amazon.com/blogs/database/building-ai-powered-search-in-postgresql-using-amazon-sagemaker-and-pgvector/)
+ [Sfrutta pgvector e Amazon Aurora PostgreSQL per l'elaborazione del linguaggio naturale, i chatbot e l'analisi del sentiment](https://aws.amazon.com/blogs/database/leverage-pgvector-and-amazon-aurora-postgresql-for-natural-language-processing-chatbots-and-sentiment-analysis/)

Di seguito sono riportati i vantaggi dell'utilizzo di pgvector e Aurora PostgreSQL compatibili:
+ Supporta la ricerca esatta e approssimativa del vicino più prossimo. Supporta anche le seguenti metriche di somiglianza: distanza L2, prodotto interno e distanza del coseno.
+ Supporta l'indicizzazione [Inverted File with Flat Compression (IVFFlat)](https://github.com/pgvector/pgvector#ivfflat) e [Hierarchical Navigable](https://github.com/pgvector/pgvector#hnsw) Small Worlds (HNSW).
+ È possibile combinare la ricerca vettoriale con query su dati specifici del dominio disponibili nella stessa istanza PostgreSQL.
+ Aurora PostgreSQL Compatible è ottimizzata e fornisce la memorizzazione nella cache su più livelli. I/O [Per carichi di lavoro che superano la memoria disponibile dell'istanza, pgvector può aumentare le query al secondo per la ricerca vettoriale fino a 8 volte.](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.optimized.reads.html)

## Analisi di Amazon Neptune
<a name="rag-custom-neptune"></a>

[Amazon Neptune](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/what-is-neptune-analytics.html) Analytics è un motore di database grafico ottimizzato per la memoria per l'analisi. Supporta una libreria di algoritmi di analisi dei grafici ottimizzati, query grafiche a bassa latenza e funzionalità di ricerca vettoriale all'interno delle traversate di grafici. Dispone inoltre di una ricerca integrata per somiglianza vettoriale. Fornisce un endpoint per creare un grafico, caricare dati, richiamare query ed eseguire ricerche di somiglianza vettoriale. Per ulteriori informazioni su come creare un sistema basato su RAG che utilizza Neptune Analytics, [consulta Utilizzo dei knowledge graphs per creare applicazioni GraphRag con Amazon Bedrock e Amazon](https://aws.amazon.com/blogs/database/using-knowledge-graphs-to-build-graphrag-applications-with-amazon-bedrock-and-amazon-neptune/) Neptune (post del blog).AWS 

Di seguito sono riportati i vantaggi dell'utilizzo di Neptune Analytics:
+ È possibile archiviare e cercare gli incorporamenti nelle query grafiche.
+ Se integri Neptune Analytics LangChain con, questa architettura supporta le query grafiche in linguaggio naturale.
+ Questa architettura archivia grandi set di dati grafici in memoria.

## Amazon MemoryDB
<a name="rag-custom-memorydb"></a>

[Amazon MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/what-is-memorydb.html) è un servizio di database in memoria durevole che offre prestazioni ultraveloci. Tutti i dati sono archiviati in memoria, che supporta la lettura in microsecondi, una latenza di scrittura di una cifra in millisecondi e un throughput elevato. [La ricerca vettoriale per MemoryDB estende le funzionalità di MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/vector-search-overview.html) e può essere utilizzata insieme alle funzionalità di MemoryDB esistenti. Per ulteriori informazioni, consulta la sezione Risposte alle [domande](https://github.com/aws-samples/rag-with-amazon-bedrock-and-memorydb/tree/main) con il repository LLM e RAG su. GitHub

Il diagramma seguente mostra un'architettura di esempio che utilizza MemoryDB come database vettoriale.



![\[Un'applicazione AI generativa che recupera il contesto da un database vettoriale MemoryDB.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-memorydb.png)


Di seguito sono riportati i vantaggi dell'utilizzo di MemoryDB:
+ Supporta algoritmi di indicizzazione sia Flat che HNSW. Per ulteriori informazioni, consulta [Vector search for Amazon MemoryDB è ora disponibile a tutti nel News](https://aws.amazon.com/blogs/aws/vector-search-for-amazon-memorydb-is-now-generally-available/) Blog AWS 
+ Può anche fungere da memoria buffer per il modello di base. Ciò significa che le domande a cui si è risposto in precedenza vengono recuperate dal buffer anziché ripetere il processo di recupero e generazione. Il diagramma seguente mostra questo processo.  
![\[Memorizzazione di una risposta in un database MemoryDB in modo che possa essere recuperata dalla memoria buffer.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/memorydb-fm-buffer.png)
+ Poiché utilizza un database in memoria, questa architettura fornisce un tempo di interrogazione di una cifra di millisecondi per la ricerca semantica.
+ Fornisce fino a 33.000 query al secondo con un richiamo del 95-99% e 26.500 query al secondo con un richiamo superiore al 99%. Per ulteriori informazioni, guarda il video [AWS re:Invent 2023 - Ricerca vettoriale a latenza ultra bassa per](https://www.youtube.com/watch?v=AaMh3rdu-p0) Amazon MemoryDB su. YouTube

## Amazon DocumentDB
<a name="rag-custom-docdb"></a>

[Amazon DocumentDB (con compatibilità con MongoDB)](https://docs.aws.amazon.com/documentdb/latest/developerguide/what-is.html) è un servizio di database veloce, affidabile e completamente gestito. Semplifica la configurazione, il funzionamento e la scalabilità di database MongoDB compatibili nel cloud. [La ricerca vettoriale per Amazon](https://docs.aws.amazon.com/documentdb/latest/developerguide/vector-search.html) DocumentDB combina la flessibilità e la ricca capacità di interrogazione di un database di documenti basato su JSON con la potenza della ricerca vettoriale. Per ulteriori informazioni, consulta il repository [Question response with LLM and RAG on.](https://github.com/aws-samples/rag-with-amazon-bedrock-and-documentdb/tree/main) GitHub

Il diagramma seguente mostra un'architettura di esempio che utilizza Amazon DocumentDB come database vettoriale.



![\[Un'applicazione AI generativa che recupera il contesto da un database vettoriale Amazon DocumentDB.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-documentdb.png)


Il diagramma mostra il flusso di lavoro seguente:

1. L'utente invia una query all'applicazione AI generativa.

1. L'applicazione AI generativa esegue una ricerca di similarità nel database vettoriale Amazon DocumentDB e recupera gli estratti dei documenti pertinenti.

1. L'applicazione di intelligenza artificiale generativa aggiorna la query dell'utente con il contesto recuperato e invia il prompt al modello di base di destinazione.

1. Il modello di base utilizza il contesto per generare una risposta alla domanda dell'utente e restituisce la risposta.

1. L'applicazione AI generativa restituisce la risposta all'utente.

Di seguito sono riportati i vantaggi dell'utilizzo di Amazon DocumentDB:
+ Supporta sia i metodi HNSW che quelli di indicizzazione IVFFlat .
+ Supporta fino a 2.000 dimensioni nei dati vettoriali e supporta le metriche della distanza dei prodotti euclidei, coseni e scalari.
+ Fornisce tempi di risposta di millisecondi.

## Pinecone
<a name="rag-custom-pinecone"></a>

[https://www.pinecone.io/](https://www.pinecone.io/)è un database vettoriale completamente gestito che consente di aggiungere la ricerca vettoriale alle applicazioni di produzione. È disponibile tramite. [Marketplace AWS](https://aws.amazon.com/marketplace/pp/prodview-xhgyscinlz4jk) La fatturazione si basa sull'utilizzo e gli addebiti vengono calcolati moltiplicando il prezzo del pod per il numero di pod. Per ulteriori informazioni su come creare un sistema basato su RAG che utilizziPinecone, consulta i seguenti post del blog: AWS 
+ [Mitiga le allucinazioni tramite RAG utilizzando il Pinecone database vettoriale e Llama-2 di Amazon AI SageMaker JumpStart](https://aws.amazon.com/blogs/machine-learning/mitigate-hallucinations-through-retrieval-augmented-generation-using-pinecone-vector-database-llama-2-from-amazon-sagemaker-jumpstart/)
+ [Usa Amazon SageMaker AI Studio per creare una soluzione RAG per rispondere alle domande con Llama 2 e Pinecone per una rapida LangChain sperimentazione](https://aws.amazon.com/blogs/machine-learning/use-amazon-sagemaker-studio-to-build-a-rag-question-answering-solution-with-llama-2-langchain-and-pinecone-for-fast-experimentation/)

Il diagramma seguente mostra un'architettura di esempio che utilizza Pinecone come database vettoriale.



![\[Un'applicazione AI generativa che recupera il contesto da un database vettoriale. Pinecone\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-pinecone.png)


Il diagramma mostra il flusso di lavoro seguente:

1. L'utente invia una query all'applicazione AI generativa.

1. L'applicazione AI generativa esegue una ricerca di somiglianza nel database Pinecone vettoriale e recupera gli estratti dei documenti pertinenti.

1. L'applicazione di intelligenza artificiale generativa aggiorna la query dell'utente con il contesto recuperato e invia il prompt al modello di base di destinazione.

1. Il modello di base utilizza il contesto per generare una risposta alla domanda dell'utente e restituisce la risposta.

1. L'applicazione AI generativa restituisce la risposta all'utente.

Di seguito sono riportati i vantaggi dell'utilizzoPinecone:
+ È un database vettoriale completamente gestito che elimina il sovraccarico di gestione della propria infrastruttura.
+ Fornisce funzionalità aggiuntive di filtraggio, aggiornamenti in tempo reale degli indici e potenziamento delle parole chiave (ricerca ibrida).

## MongoDB Atlas
<a name="rag-custom-mongodb-atlas"></a>

[https://www.mongodb.com/lp/cloud/atlas/try4](https://www.mongodb.com/lp/cloud/atlas/try4)è un database cloud completamente gestito che gestisce tutta la complessità dell'implementazione e della gestione delle distribuzioni su. AWS Puoi usare la [ricerca vettoriale per MongoDB Atlas archiviare gli incorporamenti](https://www.mongodb.com/products/platform/atlas-vector-search) vettoriali nel tuo database. MongoDB Le knowledge base di Amazon Bedrock supportano MongoDB Atlas lo storage vettoriale. Per ulteriori informazioni, consulta [Get Started with the Amazon Bedrock Knowledge Base Integration](https://www.mongodb.com/docs/atlas/atlas-vector-search/ai-integrations/amazon-bedrock/) nella MongoDB documentazione.

Per ulteriori informazioni su come utilizzare la ricerca MongoDB Atlas vettoriale per RAG, consulta [Retrieval-Augmented Generation withLangChain, SageMaker Amazon JumpStart AI MongoDB Atlas e Semantic](https://aws.amazon.com/blogs/machine-learning/retrieval-augmented-generation-with-langchain-amazon-sagemaker-jumpstart-and-mongodb-atlas-semantic-search/) Search (post del blog).AWS Il diagramma seguente mostra l'architettura della soluzione dettagliata in questo post del blog.



![\[Utilizzo della ricerca MongoDB Atlas vettoriale per recuperare il contesto per un'applicazione AI generativa basata su RAG.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-mongodb-atlas.png)


Di seguito sono riportati i vantaggi dell'utilizzo della ricerca vettoriale: MongoDB Atlas
+ È possibile utilizzare l'implementazione esistente di MongoDB Atlas per archiviare e cercare incorporamenti vettoriali.
+ È possibile utilizzare l'[API MongoDB Query](https://www.mongodb.com/docs/manual/query-api/) per interrogare gli incorporamenti vettoriali.
+ È possibile scalare in modo indipendente la ricerca vettoriale e il database.
+ Gli incorporamenti vettoriali vengono archiviati vicino ai dati di origine (documenti), il che migliora le prestazioni di indicizzazione.

## Weaviate
<a name="rag-custom-weaviate"></a>

[https://weaviate.io/](https://weaviate.io/)è un popolare database vettoriale open source a bassa latenza che supporta tipi di media multimodali, come testo e immagini. Il database memorizza sia oggetti che vettori, il che combina la ricerca vettoriale con il filtraggio strutturato. Per ulteriori informazioni sull'utilizzo Weaviate di Amazon Bedrock per creare un flusso di lavoro RAG, consulta [Crea soluzioni di intelligenza artificiale generativa pronte per l'azienda con i modelli di base Cohere in Amazon Bedrock e Weaviate](https://aws.amazon.com/blogs/machine-learning/build-enterprise-ready-generative-ai-solutions-with-cohere-foundation-models-in-amazon-bedrock-and-weaviate-vector-database-on-aws-marketplace/) il database vettoriale su (post del blog). Marketplace AWSAWS 

Di seguito sono riportati i vantaggi dell'utilizzo: Weaviate
+ È open source e supportato da una forte comunità.
+ È progettato per la ricerca ibrida (sia vettoriali che parole chiave).
+ Puoi implementarlo AWS come offerta SaaS (Managed Software as a Service) o come cluster Kubernetes.

# Generatori per flussi di lavoro RAG
<a name="rag-custom-generators"></a>

[I modelli linguistici di grandi dimensioni (LLMs)](https://aws.amazon.com/what-is/large-language-model/) sono modelli di [deep learning](https://aws.amazon.com/what-is/deep-learning/) molto grandi preaddestrati su grandi quantità di dati. Sono incredibilmente flessibili. LLMs possono svolgere diverse attività, come rispondere a domande, riassumere documenti, tradurre lingue e completare frasi. Hanno il potenziale di interrompere la creazione di contenuti e il modo in cui le persone utilizzano i motori di ricerca e gli assistenti virtuali. Sebbene non siano perfetti, LLMs dimostrano una notevole capacità di fare previsioni sulla base di un prompt o di un numero di input relativamente piccolo.

LLMs sono un componente fondamentale di una soluzione RAG. Per le architetture RAG personalizzate, ce ne sono due Servizi AWS che fungono da opzioni principali:
+ [Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) è un servizio completamente gestito che mette LLMs a tua disposizione le principali aziende di intelligenza artificiale e Amazon tramite un'API unificata.
+ [Amazon SageMaker AI JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) è un hub ML che offre modelli di base, algoritmi integrati e soluzioni ML predefinite. Con l' SageMaker intelligenza artificiale JumpStart, puoi accedere a modelli preaddestrati, inclusi i modelli di base. Puoi anche utilizzare i tuoi dati per perfezionare i modelli preaddestrati.

## Amazon Bedrock
<a name="rag-custom-generators-bedrock"></a>

Amazon Bedrock offre modelli leader del settore diAnthropic,,,Stability AI, Meta CohereAI21 Labs, Mistral AI e Amazon. Per un elenco completo, consulta [Modelli di base supportati in Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Amazon Bedrock ti consente anche di personalizzare i modelli con i tuoi dati.

Puoi [valutare le prestazioni del modello](https://docs.aws.amazon.com/bedrock/latest/userguide/evaluation.html) per determinare quali sono i più adatti al tuo caso d'uso RAG. È possibile testare i modelli più recenti e verificare quali funzionalità e caratteristiche offrono i migliori risultati al miglior prezzo. Il modello Anthropic Claude Sonnet è una scelta comune per le applicazioni RAG perché eccelle in un'ampia gamma di attività e offre un elevato grado di affidabilità e prevedibilità.

## SageMaker INTELLIGENZA ARTIFICIALE JumpStart
<a name="rag-custom-sm-jumpstart"></a>

SageMaker JumpStart L'intelligenza artificiale fornisce modelli open source preaddestrati per un'ampia gamma di tipi di problemi. È possibile addestrare e perfezionare questi modelli in modo incrementale prima della distribuzione. Puoi accedere ai modelli preaddestrati, ai modelli di soluzione e agli esempi tramite la JumpStart landing page dedicata all' SageMaker intelligenza artificiale in [Amazon SageMaker AI Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) o utilizzare l'SDK [SageMaker AI Python](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-use-python-sdk.html).

SageMaker L'intelligenza artificiale JumpStart offre modelli di state-of-the-art base per casi d'uso come scrittura di contenuti, generazione di codice, risposta a domande, copywriting, riepilogo, classificazione, recupero di informazioni e altro ancora. Usa i modelli di JumpStart base per creare le tue soluzioni di intelligenza artificiale generativa e integra soluzioni personalizzate con funzionalità di intelligenza artificiale aggiuntive. SageMaker Per ulteriori informazioni, consulta la sezione [Guida introduttiva ad Amazon SageMaker AI JumpStart](https://aws.amazon.com/sagemaker/jumpstart/getting-started/).

SageMaker L'intelligenza artificiale JumpStart integra e mantiene modelli di base disponibili al pubblico per consentirti di accedere, personalizzare e integrare nei tuoi cicli di vita del machine learning. Per ulteriori informazioni, consulta [Modelli di base disponibili pubblicamente](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-publicly-available). SageMaker L'intelligenza artificiale include JumpStart anche modelli di base proprietari di fornitori terzi. Per ulteriori informazioni, consulta Modelli [di base proprietari](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-proprietary).