

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 上的自訂擷取增強產生架構 AWS
<a name="rag-custom"></a>

上一節說明如何使用完全受管 AWS 服務 的擷取增強生成 (RAG)。不過，某些使用案例需要對系統元件進行更多控制，例如擷取器或 LLM （也稱為*產生器*)。例如，您可能需要彈性來選擇自己的向量資料庫或存取不支援的資料來源。對於這些使用案例，您可以建置自訂 RAG 架構。

本節包含下列主題：
+ [RAG 工作流程的擷取器](rag-custom-retrievers.md)
+ [RAG 工作流程的產生器](rag-custom-generators.md)

如需本節中如何選擇擷取器和產生器選項的詳細資訊，請參閱本指南[在 上選擇擷取增強產生選項 AWS](choosing-option.md)中的 。

# RAG 工作流程的擷取器
<a name="rag-custom-retrievers"></a>

本節說明如何建置擷取器。您可以使用全受管語意搜尋解決方案，例如 Amazon Kendra，也可以使用 AWS 向量資料庫建置自訂語意搜尋。

在您檢閱擷取工具選項之前，請確定您了解向量搜尋程序的三個步驟：

1. 您可以將需要編製索引的文件分隔為較小的部分。這稱為*區塊。*

1. 您可以使用稱為[內嵌](https://community.aws/concepts/vector-embeddings-and-rag-demystified#embeddings)的程序，將每個區塊轉換為數學向量。然後，您可以為向量資料庫中的每個向量編製索引。您用來為文件編製索引的方法會影響搜尋的速度和準確性。索引方法取決於向量資料庫及其提供的組態選項。

1. 您可以使用相同的程序，將使用者查詢轉換為向量。擷取器會搜尋向量資料庫，尋找與使用者查詢向量類似的向量。[透過使用歐幾里得距離、餘弦距離或點積等指標來計算相似性](https://community.aws/concepts/vector-embeddings-and-rag-demystified#distance-metrics-between-embeddings)。

本指南說明如何使用下列 AWS 服務 或第三方服務在 上建置自訂擷取層 AWS：
+ [Amazon Kendra](#rag-custom-kendra)
+ [Amazon OpenSearch Service](#rag-custom-opensearch)
+ [Amazon Aurora PostgreSQL 和 pgvector](#rag-custom-aurora)
+ [Amazon Neptune Analytics](#rag-custom-neptune)
+ [Amazon MemoryDB](#rag-custom-memorydb)
+ [Amazon DocumentDB](#rag-custom-docdb)
+ [Pinecone](#rag-custom-pinecone)
+ [MongoDB Atlas](#rag-custom-mongodb-atlas)
+ [Weaviate](#rag-custom-weaviate)

## Amazon Kendra
<a name="rag-custom-kendra"></a>

[Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html) 是一種全受管智慧型搜尋服務，使用自然語言處理和進階機器學習演算法，傳回從資料搜尋問題的特定答案。Amazon Kendra 可協助您直接從多個來源擷取文件，並在文件成功同步後查詢文件。同步程序會建立必要的基礎設施，以在擷取的文件上建立向量搜尋。因此，Amazon Kendra 不需要向量搜尋程序的傳統三個步驟。初始同步後，您可以使用定義的排程來處理持續的擷取。

以下是使用 Amazon Kendra for RAG 的優勢：
+ 您不需要維護向量資料庫，因為 Amazon Kendra 會處理整個向量搜尋程序。
+ Amazon Kendra 包含適用於熱門資料來源的預先建置連接器，例如資料庫、網站爬蟲程式、Amazon S3 儲存貯體、Microsoft SharePoint執行個體和Atlassian Confluence執行個體。 AWS 合作夥伴開發的連接器可供使用，例如 Box和 的連接器GitLab。
+ Amazon Kendra 提供存取控制清單 (ACL) 篩選，只會傳回最終使用者可存取的文件。
+ Amazon Kendra 可以根據中繼資料提升回應，例如日期或來源儲存庫。

下圖顯示使用 Amazon Kendra 做為 RAG 系統擷取層的範例架構。如需詳細資訊，請參閱[使用 Amazon KendraLangChain、 和大型語言模型，在企業資料上快速建置高準確性的生成式 AI 應用程式 ](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/)(AWS 部落格文章）。



![\[使用 Amazon Kendra 做為 RAG 系統的擷取層 AWS。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-kendra.png)


對於基礎模型，您可以使用 Amazon Bedrock 或透過 [Amazon SageMaker AI JumpStart 部署的](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) LLM。您可以使用 AWS Lambda 搭配 [https://python.langchain.com/docs/integrations/tools/awslambda/](https://python.langchain.com/docs/integrations/tools/awslambda/) 來協調使用者、Amazon Kendra 和 LLM 之間的流程。若要建置使用 Amazon Kendra、 LangChain和各種 LLMs RAG 系統，請參閱 [Amazon Kendra LangChain Extensions](https://github.com/aws-samples/amazon-kendra-langchain-extensions) GitHub 儲存庫。

## Amazon OpenSearch Service
<a name="rag-custom-opensearch"></a>

[Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/what-is.html) 為 [k 近鄰 (k-NN) 搜尋](https://docs.opensearch.org/latest/vector-search/vector-search-techniques/index/)提供內建 ML 演算法，以執行向量搜尋。OpenSearch Service 也[為 Amazon EMR Serverless 提供向量引擎](https://aws.amazon.com/opensearch-service/serverless-vector-engine/)。您可以使用此向量引擎來建置具有可擴展性和高效能向量儲存和搜尋功能的 RAG 系統。如需如何使用 OpenSearch Serverless 建置 RAG 系統的詳細資訊，請參閱[使用 Amazon OpenSearch Serverless 和 Amazon Bedrock Claude 模型的向量引擎建置可擴展和無伺服器 RAG 工作流程](https://aws.amazon.com/blogs/big-data/build-scalable-and-serverless-rag-workflows-with-a-vector-engine-for-amazon-opensearch-serverless-and-amazon-bedrock-claude-models/) (AWS 部落格文章）。

以下是使用 OpenSearch Service 進行向量搜尋的優勢：
+ 它提供向量資料庫的完整控制權，包括使用 OpenSearch Serverless 建置可擴展的向量搜尋。
+ 它提供對區塊策略的控制。
+ 它使用[來自非指標空間程式庫 (NMSLIB)、Faiss 和 Apache Lucene 程式庫的近似近鄰 (](https://github.com/nmslib/nmslib)ANN) 演算法來支援 k-NN 搜尋。 [https://github.com/facebookresearch/faiss](https://github.com/facebookresearch/faiss) [https://lucene.apache.org/](https://lucene.apache.org/)您可以根據使用案例變更演算法。如需透過 OpenSearch Service 自訂向量搜尋選項的詳細資訊，請參閱 [Amazon OpenSearch Service 向量資料庫功能說明](https://aws.amazon.com/blogs/big-data/amazon-opensearch-services-vector-database-capabilities-explained/) (AWS 部落格文章）。
+ OpenSearch Serverless 將 Amazon Bedrock 知識庫整合為向量索引。

## Amazon Aurora PostgreSQL 和 pgvector
<a name="rag-custom-aurora"></a>

[Amazon Aurora PostgreSQL 相容版本](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.AuroraPostgreSQL.html)是全受管關聯式資料庫引擎，可協助您設定、操作和擴展 PostgreSQL 部署。[pgvector](https://github.com/pgvector/pgvector/) 是開放原始碼 PostgreSQL 延伸模組，可提供向量相似性搜尋功能。此擴充功能適用於 Aurora PostgreSQL 相容和 Amazon Relational Database Service (Amazon RDS) for PostgreSQL。如需如何建置使用 Aurora PostgreSQL 相容和 pgvector 的 RAG 系統的詳細資訊，請參閱下列 AWS 部落格文章：
+ [使用 Amazon SageMaker AI 和 pgvector 在 PostgreSQL 中建置 AI 支援的搜尋](https://aws.amazon.com/blogs/database/building-ai-powered-search-in-postgresql-using-amazon-sagemaker-and-pgvector/)
+ [利用 pgvector 和 Amazon Aurora PostgreSQL 進行自然語言處理、聊天機器人和情緒分析](https://aws.amazon.com/blogs/database/leverage-pgvector-and-amazon-aurora-postgresql-for-natural-language-processing-chatbots-and-sentiment-analysis/)

以下是使用 pgvector 和 Aurora PostgreSQL 相容的優勢：
+ 它支援精確且近似最近的鄰搜尋。它也支援下列相似性指標：L2 距離、內部產品和餘弦距離。
+ 它支援[具有平面壓縮 (IVFFlat) 和階層式可導覽小型世界 (HNSW) 索引的反轉檔案](https://github.com/pgvector/pgvector#ivfflat)。 [https://github.com/pgvector/pgvector#hnsw](https://github.com/pgvector/pgvector#hnsw)
+ 您可以將向量搜尋與查詢結合到相同 PostgreSQL 執行個體中可用的特定網域資料。
+ Aurora PostgreSQL 相容已針對 I/O 最佳化，並提供分層快取。對於超過可用執行個體記憶體的工作負載，pgvector 每秒最多可以將向量搜尋的查詢增加 [8 次](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraPostgreSQL.optimized.reads.html)。

## Amazon Neptune Analytics
<a name="rag-custom-neptune"></a>

[Amazon Neptune Analytics](https://docs.aws.amazon.com/neptune-analytics/latest/userguide/what-is-neptune-analytics.html) 是用於分析的記憶體最佳化圖形資料庫引擎。它支援圖形周遊中最佳化圖形分析演算法、低延遲圖形查詢和向量搜尋功能的程式庫。它還具有內建向量相似性搜尋。它提供一個端點來建立圖形、載入資料、叫用查詢，以及執行向量相似性搜尋。如需如何建置使用 Neptune Analytics 的 RAG 型系統的詳細資訊，請參閱[使用知識圖表搭配 Amazon Bedrock 和 Amazon Neptune 建置 GraphRAG 應用程式](https://aws.amazon.com/blogs/database/using-knowledge-graphs-to-build-graphrag-applications-with-amazon-bedrock-and-amazon-neptune/) (AWS 部落格文章）。

以下是使用 Neptune Analytics 的優點：
+ 您可以在圖形查詢中存放和搜尋內嵌項目。
+ 如果您將 Neptune Analytics 與 整合LangChain，則此架構支援自然語言圖形查詢。
+ 此架構會將大型圖形資料集存放在記憶體中。

## Amazon MemoryDB
<a name="rag-custom-memorydb"></a>

[Amazon MemoryDB](https://docs.aws.amazon.com/memorydb/latest/devguide/what-is-memorydb.html) 是一種耐用的記憶體內資料庫服務，可提供超快速的效能。所有資料都存放在記憶體中，支援微秒讀取、單一位數毫秒寫入延遲和高輸送量。[MemoryDB 的向量搜尋](https://docs.aws.amazon.com/memorydb/latest/devguide/vector-search-overview.html)可擴展 MemoryDB 的功能，並可搭配現有的 MemoryDB 功能使用。如需詳細資訊，請參閱 GitHub 上的[使用 LLM 和 RAG ](https://github.com/aws-samples/rag-with-amazon-bedrock-and-memorydb/tree/main)儲存庫回答問題。

下圖顯示使用 MemoryDB 做為向量資料庫的範例架構。



![\[從 MemoryDB 向量資料庫擷取內容的生成式 AI 應用程式。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-memorydb.png)


以下是使用 MemoryDB 的優點：
+ 它同時支援平面和 HNSW 索引演算法。如需詳細資訊，請參閱 AWS 新聞部落格上的 [Amazon MemoryDB 向量搜尋現在已全面推出](https://aws.amazon.com/blogs/aws/vector-search-for-amazon-memorydb-is-now-generally-available/) 
+ 它也可以充當基礎模型的緩衝記憶體。這表示從緩衝區擷取先前回答的問題，而不是再次進行擷取和產生程序。下圖顯示此程序。  
![\[將答案存放在 MemoryDB 資料庫中，以便從緩衝記憶體中擷取。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/memorydb-fm-buffer.png)
+ 由於它使用記憶體內資料庫，因此此架構為語意搜尋提供單一位數毫秒的查詢時間。
+ 它在 95–99% 的召回率中提供每秒最多 33，000 個查詢，以及在大於 99% 的召回率中提供每秒 26，500 個查詢。如需詳細資訊，請參閱 [AWS re：Invent 2023 - 在 上搜尋 Amazon MemoryDB 影片的超低延遲向量](https://www.youtube.com/watch?v=AaMh3rdu-p0)YouTube。

## Amazon DocumentDB
<a name="rag-custom-docdb"></a>

[Amazon DocumentDB （與 MongoDB 相容）](https://docs.aws.amazon.com/documentdb/latest/developerguide/what-is.html) 是一種快速、可靠且全受管的資料庫服務。它可讓您輕鬆地在雲端中設定、操作和擴展MongoDB與 相容的資料庫。[Amazon DocumentDB 的向量搜尋](https://docs.aws.amazon.com/documentdb/latest/developerguide/vector-search.html)結合了 JSON 型文件資料庫的彈性和豐富的查詢功能，以及向量搜尋的強大功能。如需詳細資訊，請參閱 GitHub 上的[使用 LLM 和 RAG ](https://github.com/aws-samples/rag-with-amazon-bedrock-and-documentdb/tree/main)儲存庫回答問題。

下圖顯示使用 Amazon DocumentDB 做為向量資料庫的範例架構。



![\[從 Amazon DocumentDB 向量資料庫擷取內容的生成式 AI 應用程式。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-documentdb.png)


該圖顯示以下工作流程：

1. 使用者向生成式 AI 應用程式提交查詢。

1. 生成式 AI 應用程式會在 Amazon DocumentDB 向量資料庫中執行相似性搜尋，並擷取相關文件擷取。

1. 生成式 AI 應用程式會使用擷取的內容更新使用者查詢，並將提示提交至目標基礎模型。

1. 基礎模型使用內容來產生對使用者問題的回應，並傳回回應。

1. 生成式 AI 應用程式會將回應傳回給使用者。

以下是使用 Amazon DocumentDB 的優點：
+ 它同時支援 HNSW 和 IVFFlat 索引方法。
+ 它在向量資料中最多支援 2，000 個維度，並支援 Euclidean、餘弦和點產品距離指標。
+ 它提供毫秒的回應時間。

## Pinecone
<a name="rag-custom-pinecone"></a>

[https://www.pinecone.io/](https://www.pinecone.io/) 是全受管向量資料庫，可協助您將向量搜尋新增至生產應用程式。可透過 取得[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-xhgyscinlz4jk)。帳單是根據用量，費用的計算方式是將 Pod 價格乘以 Pod 計數。如需如何建置使用 之 RAG 系統的詳細資訊Pinecone，請參閱下列 AWS 部落格文章：
+ [使用Pinecone向量資料庫和來自 Amazon SageMaker AI JumpStart 的 Llama-2，透過 RAG 緩解幻覺](https://aws.amazon.com/blogs/machine-learning/mitigate-hallucinations-through-retrieval-augmented-generation-using-pinecone-vector-database-llama-2-from-amazon-sagemaker-jumpstart/)
+ [使用 Amazon SageMaker AI Studio 透過 Llama 2、 LangChain和 建置 RAG 問題回答解決方案Pinecone，以進行快速實驗](https://aws.amazon.com/blogs/machine-learning/use-amazon-sagemaker-studio-to-build-a-rag-question-answering-solution-with-llama-2-langchain-and-pinecone-for-fast-experimentation/)

下圖顯示使用 Pinecone做為向量資料庫的範例架構。



![\[從Pinecone向量資料庫擷取內容的生成式 AI 應用程式。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-pinecone.png)


該圖顯示以下工作流程：

1. 使用者向生成式 AI 應用程式提交查詢。

1. 生成式 AI 應用程式會在Pinecone向量資料庫中執行相似性搜尋，並擷取相關文件擷取。

1. 生成式 AI 應用程式會使用擷取的內容更新使用者查詢，並將提示提交至目標基礎模型。

1. 基礎模型使用內容來產生對使用者問題的回應，並傳回回應。

1. 生成式 AI 應用程式會將回應傳回給使用者。

以下是使用 的優點Pinecone：
+ 這是全受管向量資料庫，可減輕管理自有基礎設施的額外負荷。
+ 它提供篩選、即時索引更新和關鍵字提升 （混合式搜尋） 的其他功能。

## MongoDB Atlas
<a name="rag-custom-mongodb-atlas"></a>

[https://www.mongodb.com/lp/cloud/atlas/try4](https://www.mongodb.com/lp/cloud/atlas/try4) 是一種全受管雲端資料庫，可處理部署和管理部署的所有複雜性 AWS。您可以使用 [的向量搜尋MongoDB Atlas](https://www.mongodb.com/products/platform/atlas-vector-search)，將向量內嵌儲存在MongoDB資料庫中。Amazon Bedrock 知識庫支援MongoDB Atlas向量儲存。如需詳細資訊，請參閱 MongoDB 文件中的[開始使用 Amazon Bedrock 知識庫整合](https://www.mongodb.com/docs/atlas/atlas-vector-search/ai-integrations/amazon-bedrock/)。

如需如何使用MongoDB Atlas向量搜尋 RAG 的詳細資訊，請參閱[使用 擷取增強生成LangChain、Amazon SageMaker AI JumpStart 和語MongoDB Atlas意搜尋 ](https://aws.amazon.com/blogs/machine-learning/retrieval-augmented-generation-with-langchain-amazon-sagemaker-jumpstart-and-mongodb-atlas-semantic-search/)(AWS 部落格文章）。下圖顯示本部落格文章中詳述的解決方案架構。



![\[使用MongoDB Atlas向量搜尋擷取 RAG 型生成式 AI 應用程式的內容。\]](http://docs.aws.amazon.com/zh_tw/prescriptive-guidance/latest/retrieval-augmented-generation-options/images/architecture-custom-mongodb-atlas.png)


以下是使用MongoDB Atlas向量搜尋的優點：
+ 您可以使用現有的 實作MongoDB Atlas來存放和搜尋向量內嵌。
+ 您可以使用[MongoDB查詢 API](https://www.mongodb.com/docs/manual/query-api/) 來查詢向量內嵌。
+ 您可以獨立擴展向量搜尋和資料庫。
+ 向量內嵌存放在來源資料 （文件） 附近，可改善索引效能。

## Weaviate
<a name="rag-custom-weaviate"></a>

[https://weaviate.io/](https://weaviate.io/) 是熱門的開放原始碼、低延遲向量資料庫，支援多模式媒體類型，例如文字和影像。資料庫同時存放物件和向量，結合向量搜尋與結構化篩選。如需使用 Weaviate和 Amazon Bedrock 建置 RAG 工作流程的詳細資訊，請參閱 [上的使用 Amazon Bedrock 中的 Cohere 基礎模型和Weaviate向量資料庫建置企業就緒生成式 AI 解決方案 AWS Marketplace](https://aws.amazon.com/blogs/machine-learning/build-enterprise-ready-generative-ai-solutions-with-cohere-foundation-models-in-amazon-bedrock-and-weaviate-vector-database-on-aws-marketplace/) (AWS 部落格文章）。

以下是使用 的優點Weaviate：
+ 它是開放原始碼，並由強大的社群提供支援。
+ 它專為混合式搜尋 （向量和關鍵字） 而建置。
+ 您可以在 上將其部署 AWS 為受管軟體即服務 (SaaS) 方案或 Kubernetes 叢集。

# RAG 工作流程的產生器
<a name="rag-custom-generators"></a>

[大型語言模型 LLMs)](https://aws.amazon.com/what-is/large-language-model/) 是針對大量資料預先訓練的非常大型[深度學習](https://aws.amazon.com/what-is/deep-learning/)模型。它們非常靈活。LLMs可以執行各種任務，例如回答問題、摘要文件、翻譯語言和完成句子。他們可能會中斷內容建立，以及人們使用搜尋引擎和虛擬助理的方式。雖然不完美，但 LLMs展現了根據相對較小的提示或輸入數量進行預測的卓越能力。

LLMs是 RAG 解決方案的關鍵元件。對於自訂 RAG 架構，有兩個 AWS 服務 做為主要選項：
+ [Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) 是一項全受管服務，可讓您透過統一 API 使用來自領導 AI 公司和 Amazon 的 LLMs。
+ [Amazon SageMaker AI JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html) 是一種 ML 中樞，提供基礎模型、內建演算法和預先建置的 ML 解決方案。使用 SageMaker AI JumpStart，您可以存取預先訓練的模型，包括基礎模型。您也可以使用自己的資料來微調預先訓練的模型。

## Amazon Bedrock
<a name="rag-custom-generators-bedrock"></a>

Amazon Bedrock 提供來自 Anthropic、Stability AI、、MetaCohere、AI21 Labs、 Mistral AI和 Amazon 的業界領先模型。如需完整清單，請參閱 [Amazon Bedrock 中支援的基礎模型](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html)。Amazon Bedrock 也可讓您使用自己的資料自訂模型。

您可以[評估模型效能](https://docs.aws.amazon.com/bedrock/latest/userguide/evaluation.html)，以判斷哪些最適合您的 RAG 使用案例。您可以測試最新的模型，也可以測試哪些功能可提供最佳結果和最佳價格。Anthropic Claude Sonnet 模型是 RAG 應用程式常見的選擇，因為它擅長各種任務，並提供高度的可靠性和可預測性。

## SageMaker AI JumpStart
<a name="rag-custom-sm-jumpstart"></a>

SageMaker AI JumpStart 為各種問題類型提供預先訓練的開放原始碼模型。您可以在部署之前逐步訓練和微調這些模型。您可以透過 Amazon SageMaker AI Studio 中的 SageMaker AI JumpStart 登陸頁面或使用 [SageMaker AI Python SDK](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-use-python-sdk.html)，存取預先訓練的模型、解決方案範本和範例。 [Amazon SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) 

SageMaker AI JumpStart 為內容撰寫、程式碼產生、問題回答、複製、摘要、分類、資訊擷取等使用案例提供state-of-the-art基礎模型。使用 JumpStart 基礎模型建置您自己的生成式 AI 解決方案，並將自訂解決方案與其他 SageMaker AI 功能整合。如需詳細資訊，請參閱 [Amazon SageMaker AI JumpStart 入門](https://aws.amazon.com/sagemaker/jumpstart/getting-started/)。

SageMaker AI JumpStart 加入並維護可公開取得的基礎模型，供您存取、自訂和整合到您的 ML 生命週期。如需詳細資訊，請參閱[公開提供的基礎模型](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-publicly-available)。SageMaker AI JumpStart 也包含第三方供應商的專屬基礎模型。如需詳細資訊，請參閱 [專屬基礎模型](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-latest.html#jumpstart-foundation-models-latest-proprietary)。