

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Arquitecturas de generación aumentada de recuperación personalizada en AWS
<a name="rag-custom"></a>

En la sección anterior, se describe cómo utilizar una generación aumentada de recuperación ( Servicio de AWS RAG) totalmente gestionada. *Sin embargo, algunos casos de uso requieren un mayor control sobre los componentes del sistema, como el recuperador o el LLM (también denominado generador).* Por ejemplo, es posible que necesite la flexibilidad necesaria para elegir su propia base de datos vectorial o acceder a una fuente de datos no compatible. Para estos casos de uso, puede crear una arquitectura RAG personalizada.

Esta sección contiene los siguientes temas:
+ [Recuperadores para flujos de trabajo RAG](rag-custom-retrievers.md)
+ [Generadores para flujos de trabajo RAG](rag-custom-generators.md)

Para obtener más información sobre cómo elegir entre las opciones de recuperación y generador de esta sección, consulte esta [Elegir una opción de generación aumentada de recuperación en AWS](choosing-option.md) guía.

# Recuperadores para flujos de trabajo RAG
<a name="rag-custom-retrievers"></a>

En esta sección se explica cómo crear un recuperador. Puede utilizar una solución de búsqueda semántica totalmente gestionada, como Amazon Kendra, o puede crear una búsqueda semántica personalizada mediante AWS una base de datos vectorial.

Antes de revisar las opciones del recuperador, asegúrese de entender los tres pasos del proceso de búsqueda vectorial:

1. Separa los documentos que deben indexarse en partes más pequeñas. Esto se denomina *fragmentación*.

1. Se utiliza un proceso llamado [incrustación](https://community.aws/concepts/vector-embeddings-and-rag-demystified#embeddings) para convertir cada fragmento en un vector matemático. A continuación, indexa cada vector en una base de datos vectorial. El enfoque que utilice para indexar los documentos influye en la velocidad y precisión de la búsqueda. El enfoque de indexación depende de la base de datos vectorial y de las opciones de configuración que proporciona.

1. La consulta del usuario se convierte en un vector mediante el mismo proceso. El recuperador busca en la base de datos vectoriales vectores que sean similares al vector de consulta del usuario. [La similitud](https://community.aws/concepts/vector-embeddings-and-rag-demystified#distance-metrics-between-embeddings) se calcula mediante métricas como la distancia euclidiana, la distancia por coseno o el producto de puntos.

En esta guía se describe cómo utilizar los siguientes servicios Servicios de AWS o los de terceros para crear una capa de recuperación personalizada en: AWS
+ [Amazon Kendra](#rag-custom-kendra)
+ [OpenSearch Servicio Amazon](#rag-custom-opensearch)
+ [Amazon Aurora, PostgreSQL y pgvector](#rag-custom-aurora)
+ [Análisis por Amazon Neptune](#rag-custom-neptune)
+ [Amazon MemoryDB](#rag-custom-memorydb)
+ [Amazon DocumentDB](#rag-custom-docdb)
+ [Pinecone](#rag-custom-pinecone)
+ [MongoDB Atlas](#rag-custom-mongodb-atlas)
+ [Weaviate](#rag-custom-weaviate)

## Amazon Kendra
<a name="rag-custom-kendra"></a>

[Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html) es un servicio de búsqueda inteligente y totalmente gestionado que utiliza el procesamiento del lenguaje natural y algoritmos avanzados de aprendizaje automático para devolver respuestas específicas a las preguntas de búsqueda a partir de sus datos. Amazon Kendra le ayuda a ingerir directamente documentos de varias fuentes y a consultarlos una vez que se hayan sincronizado correctamente. El proceso de sincronización crea la infraestructura necesaria para crear una búsqueda vectorial en el documento ingerido. Por lo tanto, Amazon Kendra no requiere los tres pasos tradicionales del proceso de búsqueda vectorial. Tras la sincronización inicial, puede utilizar un programa definido para gestionar la ingesta continua. 

Las siguientes son las ventajas de usar Amazon Kendra para RAG:
+ No es necesario mantener una base de datos vectorial porque Amazon Kendra se encarga de todo el proceso de búsqueda vectorial.
+ Amazon Kendra contiene conectores prediseñados para fuentes de datos populares, como bases de datos, rastreadores de sitios web, buckets e instancias de Amazon S3. Microsoft SharePoint Atlassian Confluence Están disponibles conectores desarrollados por AWS los socios, como conectores para y. Box GitLab
+ Amazon Kendra proporciona un filtrado de listas de control de acceso (ACL) que devuelve solo los documentos a los que tiene acceso el usuario final.
+ Amazon Kendra puede impulsar las respuestas en función de los metadatos, como la fecha o el repositorio de origen.

La siguiente imagen muestra un ejemplo de arquitectura que utiliza Amazon Kendra como capa de recuperación del sistema RAG. Para obtener más información, consulte [Cree rápidamente aplicaciones de IA generativa de alta precisión a partir de datos empresariales mediante Amazon Kendra LangChain y modelos de lenguaje de gran tamaño](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/)AWS (entrada del blog).



![\[Uso de Amazon Kendra como capa de recuperación para un sistema RAG activado. AWS\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-kendra.png)


Para el modelo básico, puede usar Amazon Bedrock o un LLM implementado a través de [Amazon SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) AI. JumpStart Puede usarlo AWS Lambda con [https://python.langchain.com/docs/integrations/tools/awslambda/](https://python.langchain.com/docs/integrations/tools/awslambda/)para organizar el flujo entre el usuario, Amazon Kendra y el LLM. Para crear un sistema RAG que utilice Amazon, Kendra y LLMs variosLangChain, consulte el repositorio de [Amazon LangChain Kendra Extensions](https://github.com/aws-samples/amazon-kendra-langchain-extensions). GitHub 

## OpenSearch Servicio Amazon
<a name="rag-custom-opensearch"></a>

[Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/what-is.html) proporciona algoritmos de aprendizaje automático integrados para la búsqueda de [k-vecinos más cercanos (k-NN) con el fin de realizar una búsqueda](https://docs.opensearch.org/latest/vector-search/vector-search-techniques/index/) vectorial. OpenSearch El servicio también proporciona un [motor vectorial para Amazon EMR](https://aws.amazon.com/opensearch-service/serverless-vector-engine/) Serverless. Puede usar este motor vectorial para crear un sistema RAG que tenga capacidades de búsqueda y almacenamiento vectorial escalables y de alto rendimiento. Para obtener más información sobre cómo crear un sistema RAG mediante OpenSearch Serverless, consulte [Crear flujos de trabajo RAG escalables y sin servidor con un motor vectorial para los modelos Amazon Serverless OpenSearch y Amazon Bedrock Claude](https://aws.amazon.com/blogs/big-data/build-scalable-and-serverless-rag-workflows-with-a-vector-engine-for-amazon-opensearch-serverless-and-amazon-bedrock-claude-models/) (entrada del blog).AWS 

Las ventajas de utilizar Service para la búsqueda vectorial son las siguientes: OpenSearch 
+ Proporciona un control total sobre la base de datos vectoriales, incluida la creación de una búsqueda vectorial escalable mediante OpenSearch Serverless.
+ Proporciona control sobre la estrategia de fragmentación.
+ Utiliza algoritmos de vecino más cercano (ANN) aproximados de las bibliotecas [Non-Metric Space Library (NMSLIB)](https://github.com/nmslib/nmslib), [Faiss](https://github.com/facebookresearch/faiss) y [Apache Lucene](https://lucene.apache.org/) para impulsar una búsqueda k-NN. Puede cambiar el algoritmo en función del caso de uso. Para obtener más información sobre las opciones para personalizar la búsqueda vectorial mediante el OpenSearch Servicio, consulta la [explicación de las capacidades de las bases de datos vectoriales de Amazon OpenSearch Service](https://aws.amazon.com/blogs/big-data/amazon-opensearch-services-vector-database-capabilities-explained/) (entrada AWS del blog).
+ OpenSearch Serverless se integra con las bases de conocimiento de Amazon Bedrock como un índice vectorial.

## Amazon Aurora, PostgreSQL y pgvector
<a name="rag-custom-aurora"></a>

La [edición compatible con PostgreSQL de Amazon Aurora](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html) es un motor de base de datos relacional totalmente administrado que le ayuda a configurar, operar y escalar las implementaciones de PostgreSQL. [pgvector](https://github.com/pgvector/pgvector/) es una extensión de código abierto para PostgreSQL que proporciona capacidades de búsqueda de similitudes vectoriales. Esta extensión está disponible tanto para la versión compatible con Aurora PostgreSQL como para Amazon Relational Database Service (Amazon RDS) para PostgreSQL. Para obtener más información sobre cómo crear un sistema basado en RAG que utilice pgvector y Aurora, compatible con PostgreSQL, consulte las siguientes publicaciones del blog: AWS 
+ [Creación de búsquedas basadas en IA en PostgreSQL con Amazon AI y pgvector SageMaker ](https://aws.amazon.com/blogs/database/building-ai-powered-search-in-postgresql-using-amazon-sagemaker-and-pgvector/)
+ [Aproveche pgvector y Amazon Aurora PostgreSQL para el procesamiento de lenguaje natural, los chatbots y el análisis de opiniones](https://aws.amazon.com/blogs/database/leverage-pgvector-and-amazon-aurora-postgresql-for-natural-language-processing-chatbots-and-sentiment-analysis/)

Las siguientes son las ventajas de usar pgvector y Aurora compatible con PostgreSQL:
+ Soporta la búsqueda exacta y aproximada del vecino más cercano. También admite las siguientes métricas de similitud: distancia L2, producto interior y distancia del coseno.
+ Es compatible [con archivos invertidos con compresión plana (IVFFlat)](https://github.com/pgvector/pgvector#ivfflat) e indexación [jerárquica de mundos pequeños navegables](https://github.com/pgvector/pgvector#hnsw) (HNSW).
+ Puede combinar la búsqueda vectorial con consultas sobre datos específicos del dominio que estén disponibles en la misma instancia de PostgreSQL.
+ Aurora, compatible con PostgreSQL, está optimizado para el almacenamiento en caché por niveles I/O y lo proporciona. [Para cargas de trabajo que superen la memoria de instancia disponible, pgvector puede aumentar las consultas por segundo para la búsqueda vectorial hasta 8 veces.](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.optimized.reads.html)

## Análisis por Amazon Neptune
<a name="rag-custom-neptune"></a>

[Amazon Neptune Analytics](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/what-is-neptune-analytics.html) es un motor de base de datos de gráficos con memoria optimizada para análisis. Es compatible con una biblioteca de algoritmos analíticos de gráficos optimizados, consultas gráficas de baja latencia y capacidades de búsqueda vectorial en los recorridos de gráficos. También tiene una búsqueda de similitud vectorial integrada. Proporciona un punto final para crear un gráfico, cargar datos, invocar consultas y realizar búsquedas de similitud vectorial. Para obtener más información sobre cómo crear un sistema basado en RAG que utilice Neptune Analytics, [consulte Uso de gráficos de conocimiento para crear aplicaciones de GraphRag con Amazon Bedrock y Amazon](https://aws.amazon.com/blogs/database/using-knowledge-graphs-to-build-graphrag-applications-with-amazon-bedrock-and-amazon-neptune/) Neptune AWS (entrada del blog).

Las ventajas de utilizar Neptune Analytics son las siguientes:
+ Puede almacenar y buscar incrustaciones en las consultas de gráficos.
+ Si integra Neptune Analytics conLangChain, esta arquitectura admite consultas gráficas en lenguaje natural.
+ Esta arquitectura almacena grandes conjuntos de datos de gráficos en la memoria.

## Amazon MemoryDB
<a name="rag-custom-memorydb"></a>

[Amazon MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/what-is-memorydb.html) es un servicio de base de datos en memoria duradero que ofrece un rendimiento ultrarrápido. Todos los datos se almacenan en la memoria, lo que admite una lectura de microsegundos, una latencia de escritura de milisegundos de un solo dígito y un alto rendimiento. La [búsqueda vectorial de MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/vector-search-overview.html) amplía la funcionalidad de MemoryDB y se puede utilizar junto con la funcionalidad de MemoryDB existente. Para obtener más información, consulte el repositorio Preguntas y [respuestas con LLM y RAG](https://github.com/aws-samples/rag-with-amazon-bedrock-and-memorydb/tree/main) en. GitHub

El siguiente diagrama muestra un ejemplo de arquitectura que utiliza MemoryDB como base de datos vectorial.



![\[Una aplicación de IA generativa que recupera el contexto de una base de datos vectorial MemoryDB.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-memorydb.png)


Las ventajas de utilizar MemoryDB son las siguientes:
+ Es compatible con los algoritmos de indexación Flat y HNSW. Para obtener más información, consulte La [búsqueda vectorial de Amazon MemoryDB ya está disponible de forma general](https://aws.amazon.com/blogs/aws/vector-search-for-amazon-memorydb-is-now-generally-available/) en el blog de noticias AWS 
+ También puede actuar como memoria intermedia para el modelo básico. Esto significa que las preguntas respondidas anteriormente se recuperan del búfer en lugar de volver a pasar por el proceso de recuperación y generación. El siguiente diagrama muestra este proceso.  
![\[Almacenar una respuesta en una base de datos de MemoryDB para poder recuperarla de la memoria intermedia.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/memorydb-fm-buffer.png)
+ Como utiliza una base de datos en memoria, esta arquitectura proporciona un tiempo de consulta de milisegundos de un solo dígito para la búsqueda semántica.
+ Proporciona hasta 33 000 consultas por segundo con una recuperación del 95 al 99% y 26 500 consultas por segundo con una recuperación superior al 99%. Para obtener más información, consulte el vídeo [AWS re:Invent 2023: búsqueda vectorial de latencia ultrabaja para Amazon MemoryDB](https://www.youtube.com/watch?v=AaMh3rdu-p0) en. YouTube

## Amazon DocumentDB
<a name="rag-custom-docdb"></a>

[Amazon DocumentDB (con compatibilidad con MongoDB)](https://docs.aws.amazon.com/documentdb/latest/developerguide/what-is.html) es un servicio rápido, de confianza y completamente administrado. Facilita la configuración, el funcionamiento y el MongoDB escalado de bases de datos compatibles en la nube. La [búsqueda vectorial para Amazon DocumentDB](https://docs.aws.amazon.com/documentdb/latest/developerguide/vector-search.html) combina la flexibilidad y la amplia capacidad de consulta de una base de datos de documentos basada en JSON con la potencia de la búsqueda vectorial. Para obtener más información, consulte el repositorio Preguntas y [respuestas con LLM](https://github.com/aws-samples/rag-with-amazon-bedrock-and-documentdb/tree/main) y RAG en. GitHub

En el siguiente diagrama se muestra un ejemplo de arquitectura que utiliza Amazon DocumentDB como base de datos vectorial.



![\[Aplicación de IA generativa que recupera el contexto de una base de datos vectorial de Amazon DocumentDB.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-documentdb.png)


En el diagrama, se muestra el siguiente flujo de trabajo:

1. El usuario envía una consulta a la aplicación de IA generativa.

1. La aplicación de IA generativa realiza una búsqueda de similitudes en la base de datos vectorial Amazon DocumentDB y recupera los extractos de documentos pertinentes.

1. La aplicación de IA generativa actualiza la consulta del usuario con el contexto recuperado y envía la solicitud al modelo base objetivo.

1. El modelo básico utiliza el contexto para generar una respuesta a la pregunta del usuario y devuelve la respuesta.

1. La aplicación de IA generativa devuelve la respuesta al usuario.

Las ventajas de utilizar Amazon DocumentDB son las siguientes:
+ Es compatible con los métodos HNSW y de IVFFlat indexación.
+ Admite hasta 2000 dimensiones en los datos vectoriales y admite las métricas de distancia euclidiana, coseno y producto puntual.
+ Proporciona tiempos de respuesta en milisegundos.

## Pinecone
<a name="rag-custom-pinecone"></a>

[https://www.pinecone.io/](https://www.pinecone.io/)es una base de datos vectorial totalmente gestionada que le ayuda a añadir la búsqueda vectorial a las aplicaciones de producción. Está disponible a través de [AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-xhgyscinlz4jk). La facturación se basa en el uso y los cargos se calculan multiplicando el precio del pod por el número de pods. Para obtener más información sobre cómo crear un sistema basado en RAG que utilicePinecone, consulta las siguientes entradas del blog: AWS 
+ [Mitigue las alucinaciones mediante RAG utilizando la base de datos Pinecone vectorial y Llama-2 de Amazon AI SageMaker JumpStart](https://aws.amazon.com/blogs/machine-learning/mitigate-hallucinations-through-retrieval-augmented-generation-using-pinecone-vector-database-llama-2-from-amazon-sagemaker-jumpstart/)
+ [Utilice Amazon SageMaker AI Studio para crear una solución de respuesta a preguntas RAG con Llama 2 y Pinecone para experimentar rápidamente LangChain](https://aws.amazon.com/blogs/machine-learning/use-amazon-sagemaker-studio-to-build-a-rag-question-answering-solution-with-llama-2-langchain-and-pinecone-for-fast-experimentation/)

El siguiente diagrama muestra un ejemplo de arquitectura que se utiliza Pinecone como base de datos vectorial.



![\[Una aplicación de IA generativa que recupera el contexto de una base de datos Pinecone vectorial.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-pinecone.png)


En el diagrama, se muestra el siguiente flujo de trabajo:

1. El usuario envía una consulta a la aplicación de IA generativa.

1. La aplicación de IA generativa realiza una búsqueda de similitudes en la base de datos Pinecone vectoriales y recupera los extractos de documentos relevantes.

1. La aplicación de IA generativa actualiza la consulta del usuario con el contexto recuperado y envía la solicitud al modelo básico objetivo.

1. El modelo básico utiliza el contexto para generar una respuesta a la pregunta del usuario y devuelve la respuesta.

1. La aplicación de IA generativa devuelve la respuesta al usuario.

Las siguientes son las ventajas de usarPinecone:
+ Es una base de datos vectorial completamente administrada y elimina la sobrecarga de administrar su propia infraestructura.
+ Ofrece funciones adicionales como el filtrado, las actualizaciones de índices en tiempo real y la mejora de las palabras clave (búsqueda híbrida).

## MongoDB Atlas
<a name="rag-custom-mongodb-atlas"></a>

[https://www.mongodb.com/lp/cloud/atlas/try4](https://www.mongodb.com/lp/cloud/atlas/try4)es una base de datos en la nube totalmente gestionada que gestiona toda la complejidad de la implementación y la gestión de sus despliegues. AWS Puede utilizar la [búsqueda vectorial MongoDB Atlas para](https://www.mongodb.com/products/platform/atlas-vector-search) almacenar incrustaciones vectoriales en su base de datos. MongoDB Las bases de conocimiento de Amazon Bedrock admiten MongoDB Atlas el almacenamiento vectorial. Para [obtener más información, consulte Introducción a la integración de la base de conocimientos de Amazon Bedrock](https://www.mongodb.com/docs/atlas/atlas-vector-search/ai-integrations/amazon-bedrock/) en la MongoDB documentación.

Para obtener más información sobre cómo utilizar la búsqueda MongoDB Atlas vectorial para RAG, consulte [Retrieval-Augmented Generation with, LangChain Amazon SageMaker AI JumpStart y MongoDB Atlas Semantic Search](https://aws.amazon.com/blogs/machine-learning/retrieval-augmented-generation-with-langchain-amazon-sagemaker-jumpstart-and-mongodb-atlas-semantic-search/) (entrada del blog).AWS El siguiente diagrama muestra la arquitectura de la solución que se detalla en esta entrada de blog.



![\[Uso de la búsqueda MongoDB Atlas vectorial para recuperar el contexto de una aplicación de IA generativa basada en RAG.\]](http://docs.aws.amazon.com/es_es/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-mongodb-atlas.png)


Las ventajas de utilizar la búsqueda MongoDB Atlas vectorial son las siguientes:
+ Puede utilizar su implementación actual de MongoDB Atlas para almacenar y buscar incrustaciones vectoriales.
+ Puede utilizar la [API de consultas para MongoDB consultar](https://www.mongodb.com/docs/manual/query-api/) las incrustaciones vectoriales.
+ Puede escalar de forma independiente la búsqueda vectorial y la base de datos.
+ Las incrustaciones vectoriales se almacenan cerca de los datos de origen (documentos), lo que mejora el rendimiento de la indexación.

## Weaviate
<a name="rag-custom-weaviate"></a>

[https://weaviate.io/](https://weaviate.io/)es una popular base de datos vectorial de código abierto y baja latencia que admite tipos de medios multimodales, como texto e imágenes. La base de datos almacena objetos y vectores, lo que combina la búsqueda vectorial con el filtrado estructurado. Para obtener más información sobre el uso Weaviate de Amazon Bedrock para crear un flujo de trabajo de RAG, consulte [Cree soluciones de IA generativa listas para empresas con modelos básicos de Cohere en Amazon Bedrock Weaviate y una base de datos vectorial en](https://aws.amazon.com/blogs/machine-learning/build-enterprise-ready-generative-ai-solutions-with-cohere-foundation-models-in-amazon-bedrock-and-weaviate-vector-database-on-aws-marketplace/) (entrada del blog). AWS MarketplaceAWS 

Las ventajas de su uso son las siguientes: Weaviate
+ Es de código abierto y está respaldado por una comunidad sólida.
+ Está diseñado para búsquedas híbridas (tanto de vectores como de palabras clave).
+ Puede implementarlo AWS como una oferta de software como servicio (SaaS) gestionado o como un clúster de Kubernetes.

# Generadores para flujos de trabajo RAG
<a name="rag-custom-generators"></a>

[Los modelos de lenguaje grandes (LLMs)](https://aws.amazon.com/what-is/large-language-model/) son modelos de [aprendizaje profundo](https://aws.amazon.com/what-is/deep-learning/) muy grandes que se entrenan previamente con grandes cantidades de datos. Son increíblemente flexibles. LLMs pueden realizar diversas tareas, como responder preguntas, resumir documentos, traducir idiomas y completar oraciones. Tienen el potencial de interrumpir la creación de contenido y la forma en que las personas utilizan los motores de búsqueda y los asistentes virtuales. Si bien no son perfectos, LLMs demuestran una notable habilidad para hacer predicciones basadas en un indicador o en un número de entradas relativamente pequeño.

LLMs son un componente fundamental de una solución RAG. En el caso de las arquitecturas RAG personalizadas, hay dos Servicios de AWS que sirven como opciones principales:
+ [Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) es un servicio totalmente gestionado que permite que las principales empresas LLMs de IA y Amazon estén disponibles para su uso a través de una API unificada.
+ [Amazon SageMaker AI JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) es un centro de aprendizaje automático que ofrece modelos básicos, algoritmos integrados y soluciones de aprendizaje automático prediseñadas. Con la SageMaker IA JumpStart, puede acceder a modelos previamente entrenados, incluidos los modelos básicos. También puede usar sus propios datos para ajustar los modelos previamente entrenados.

## Amazon Bedrock
<a name="rag-custom-generators-bedrock"></a>

Amazon Bedrock ofrece modelos líderes del sector deAnthropic,Stability AI,Meta, Cohere AI21 LabsMistral AI, y Amazon. Para obtener una lista completa, consulte los [modelos de cimentación compatibles en Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Amazon Bedrock también le permite personalizar los modelos con sus propios datos.

Puede [evaluar el rendimiento del modelo](https://docs.aws.amazon.com/bedrock/latest/userguide/evaluation.html) para determinar cuáles son los más adecuados para su caso de uso de RAG. Puede probar los modelos más recientes y también comprobar qué capacidades y características ofrecen los mejores resultados y al mejor precio. El modelo Anthropic Claude Sonnet es una opción común para las aplicaciones RAG porque sobresale en una amplia gama de tareas y proporciona un alto grado de confiabilidad y previsibilidad.

## SageMaker IA JumpStart
<a name="rag-custom-sm-jumpstart"></a>

SageMaker JumpStart La IA proporciona modelos de código abierto previamente entrenados para una amplia gama de tipos de problemas. Puede entrenar y ajustar estos modelos de forma gradual antes de implementarlos. Puede acceder a los modelos, plantillas de soluciones y ejemplos previamente entrenados a través de la página de JumpStart inicio de SageMaker IA en [Amazon SageMaker AI Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) o usar el [SDK de Python para SageMaker IA](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-use-python-sdk.html).

SageMaker La IA JumpStart ofrece modelos state-of-the-art básicos para casos de uso como la redacción de contenido, la generación de código, la respuesta a preguntas, la redacción de textos publicitarios, el resumen, la clasificación, la recuperación de información y más. Utilice los JumpStart modelos básicos para crear sus propias soluciones generativas de IA e integre soluciones personalizadas con funciones de IA adicionales. SageMaker Para obtener más información, consulte [Introducción a Amazon SageMaker AI JumpStart](https://aws.amazon.com/sagemaker/jumpstart/getting-started/).

SageMaker La IA JumpStart incorpora y mantiene modelos básicos disponibles públicamente para que pueda acceder a ellos, personalizarlos e integrarlos en sus ciclos de vida del aprendizaje automático. Para obtener más información, consulte los [modelos básicos disponibles públicamente](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-publicly-available). SageMaker La IA JumpStart también incluye modelos básicos patentados de proveedores externos. Para obtener más información, consulte [Modelos básicos patentados](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-proprietary).