

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# で取得拡張生成オプションを選択する AWS
<a name="choosing-option"></a>

このガイドの[完全マネージド型 RAG オプション](rag-fully-managed.md)と[カスタム RAG アーキテクチャ](rag-custom.md)のセクションでは、RAG ベースの検索ソリューションを構築するためのさまざまなアプローチについて説明します AWS。このセクションでは、ユースケースに基づいてこれらのオプションから選択する方法について説明します。状況によっては、複数のオプションが機能することがあります。このシナリオでは、実装のしやすさ、組織で利用できるスキル、会社のポリシーと基準によって異なります。

次の順序でフルマネージド型およびカスタムの RAG オプションを検討し、ユースケースに適した最初のオプションを選択することをお勧めします。

1. 以下の場合を除き、[Amazon Q Business](rag-fully-managed-q-business.md) を使用してください。
   + このサービスは で利用できず AWS リージョン、利用可能なリージョンにデータを移動することはできません。
   + RAG ワークフローをカスタマイズする特定の理由がある
   + 既存のベクトルデータベースまたは特定の LLM を使用する

1. 以下の場合を除き[、Amazon Bedrock のナレッジベース](rag-fully-managed-bedrock.md)を使用します。
   + サポートされていないベクトルデータベースがある
   + RAG ワークフローをカスタマイズする特定の理由がある

1. 以下の場合を除き、[Amazon Kendra](rag-custom-retrievers.md#rag-custom-kendra) を任意の[ジェネレータ](rag-custom-generators.md)ーと組み合わせてください。
   + 独自のベクトルデータベースを選択する
   + チャンキング戦略をカスタマイズする

1. リトリーバーをより詳細に制御し、独自のベクトルデータベースを選択する場合:
   + 既存のベクトルデータベースがなく、低レイテンシーやグラフクエリを必要としない場合は、[Amazon OpenSearch Service](rag-custom-retrievers.md#rag-custom-opensearch) の使用を検討してください。
   + 既存のPostgreSQLベクトルデータベースがある場合は、[Amazon Aurora PostgreSQL と pgvector](rag-custom-retrievers.md#rag-custom-aurora) オプションの使用を検討してください。
   + 低レイテンシーが必要な場合は、[Amazon MemoryDB](rag-custom-retrievers.md#rag-custom-memorydb) や [Amazon DocumentDB](rag-custom-retrievers.md#rag-custom-docdb) などのインメモリオプションを検討してください。
   + ベクトル検索をグラフクエリと組み合わせる場合は、[Amazon Neptune Analytics](rag-custom-retrievers.md#rag-custom-neptune) を検討してください。
   + 既にサードパーティーのベクトルデータベースを使用している場合や、そのデータベースから特定の利点を見つけた場合は、、[Pinecone](rag-custom-retrievers.md#rag-custom-pinecone)[MongoDB Atlas](rag-custom-retrievers.md#rag-custom-mongodb-atlas)、および を検討してください[Weaviate](rag-custom-retrievers.md#rag-custom-weaviate)。

1. LLM を選択する場合:
   + Amazon Q Business を使用している場合、LLM を選択することはできません。
   + Amazon Bedrock を使用する場合は、[サポートされている基盤モデル](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html)のいずれかを選択できます。
   + Amazon Kendra またはカスタムベクトルデータベースを使用する場合は、このガイドで説明されている[ジェネレータ](rag-custom-generators.md)ーのいずれかを使用するか、カスタム LLM を使用できます。
**注記**  
カスタムドキュメントを使用して既存の LLM を微調整し、レスポンスの精度を高めることもできます。詳細については、このガイドの「[RAG とファインチューニングの比較](rag-vs-fine-tuning.md)」を参照してください。

1. 使用する Amazon SageMaker AI Canvas の既存の実装がある場合、または異なる LLMs、[Amazon SageMaker AI Canvas](rag-fully-managed-sagemaker-canvas.md) を検討してください。