

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Membangun basis pengetahuan untuk konten multimodal
<a name="kb-multimodal"></a>

Amazon Bedrock Knowledge Bases mendukung konten multimodal termasuk gambar, audio, dan file video. Anda dapat mencari menggunakan gambar sebagai kueri, mengambil konten yang mirip secara visual, dan memproses file multimedia bersama dokumen teks tradisional. Kemampuan ini memungkinkan Anda mengekstrak wawasan dari beragam tipe data—gambar mandiri, rekaman audio, dan file video yang disimpan di seluruh organisasi Anda.

Amazon Bedrock Knowledge Bases memungkinkan Anda untuk mengindeks dan mengambil informasi dari teks, visual, dan konten audio. Organizations sekarang dapat mencari katalog produk menggunakan gambar, menemukan momen tertentu dalam video pelatihan, dan mengambil segmen yang relevan dari rekaman panggilan dukungan pelanggan.

**Ketersediaan wilayah**  
Pendekatan pemrosesan multimodal memiliki ketersediaan regional yang berbeda. Untuk detail informasi, lihat [Ketersediaan wilayah](kb-multimodal-choose-approach.md#kb-multimodal-processing-regions).

## Fitur dan kemampuan
<a name="kb-multimodal-features"></a>

Basis pengetahuan multimodal memberikan kemampuan kunci berikut:

**Kueri berbasis gambar**  
Kirim gambar sebagai permintaan pencarian untuk menemukan konten yang mirip secara visual saat menggunakan Nova Multimodal Embeddings. Mendukung pencocokan produk, pencarian kesamaan visual, dan pengambilan gambar.

**Pengambilan konten audio**  
Cari file audio menggunakan kueri teks. Ambil segmen tertentu dari rekaman dengan referensi stempel waktu. Transkripsi audio memungkinkan pencarian berbasis teks di seluruh konten lisan termasuk rapat, panggilan, dan podcast.

**Ekstraksi segmen video**  
Temukan momen tertentu dalam file video menggunakan kueri teks. Ambil segmen video dengan stempel waktu yang tepat.

**Pencarian lintas-modal**  
Cari di berbagai jenis data termasuk dokumen teks, gambar, audio, dan video. Ambil konten yang relevan terlepas dari format aslinya.

**Referensi sumber dengan stempel waktu**  
Hasil pengambilan termasuk referensi ke file asli dengan metadata temporal untuk audio dan video. Memungkinkan navigasi yang tepat ke segmen yang relevan dalam konten multimedia.

**Opsi pemrosesan yang fleksibel**  
Pilih antara penyematan multimodal asli untuk kesamaan visual atau konversi teks untuk konten berbasis ucapan. Konfigurasikan pendekatan pemrosesan berdasarkan karakteristik konten dan persyaratan aplikasi.

## Cara kerjanya
<a name="kb-multimodal-how-it-works"></a>

Basis pengetahuan multimodal memproses dan mengambil konten melalui pipeline multi-tahap yang menangani berbagai tipe data dengan tepat:

****Tertelan dan pemrosesan****

1. **Koneksi sumber data:** Hubungkan basis pengetahuan Anda ke bucket Amazon S3 atau sumber data khusus yang berisi dokumen teks, gambar, file audio, dan file video.

1. **Deteksi jenis file:** Sistem mengidentifikasi setiap jenis file dengan ekstensi dan mengarahkannya ke pipa pemrosesan yang sesuai.

1. **Pemrosesan konten:** Bergantung pada konfigurasi Anda, file diproses menggunakan salah satu dari dua pendekatan:
   + **Nova Multimodal Embeddings:** Mempertahankan format asli untuk pencocokan kesamaan visual dan audio. Gambar, audio, dan video disematkan secara langsung tanpa konversi ke teks.
   + **Otomasi Data Batuan Dasar (BDA):** Mengonversi multimedia menjadi representasi teks. Audio ditranskripsikan menggunakan Automatic Speech Recognition (ASR), video diproses untuk mengekstrak ringkasan adegan dan transkrip, dan gambar menjalani OCR dan ekstraksi konten visual.

1. **Pembuatan penyematan:** Konten yang diproses diubah menjadi penyematan vektor menggunakan model penyematan yang Anda pilih. Embeddings ini menangkap makna semantik dan memungkinkan pengambilan berbasis kesamaan.

1. **Penyimpanan vektor:** Embeddings disimpan dalam database vektor yang dikonfigurasi bersama dengan metadata termasuk referensi file, stempel waktu (untuk audio dan video), dan informasi jenis konten.

1. **Penyimpanan multimodal (opsional):** Jika dikonfigurasi, file multimedia asli disalin ke tujuan penyimpanan multimodal khusus untuk pengambilan yang andal, memastikan ketersediaan bahkan jika file sumber dimodifikasi atau dihapus.

****Kueri dan pengambilan****

1. **Pemrosesan kueri:** Kueri pengguna (teks atau gambar) diubah menjadi penyematan menggunakan model penyematan yang sama yang digunakan selama konsumsi.

1. **Pencarian kesamaan:** Penyematan kueri dibandingkan dengan penyematan yang disimpan dalam database vektor untuk mengidentifikasi konten yang paling relevan.

1. **Pengambilan hasil:** Sistem mengembalikan konten yang cocok dengan metadata termasuk:
   + URI Sumber (lokasi file asli)
   + Metadata stempel waktu (untuk segmen audio dan video)
   + Jenis konten dan informasi modalitas

1. **Pembuatan respons (opsional):** Untuk `RetrieveAndGenerate` permintaan, konten yang diambil diteruskan ke model dasar untuk menghasilkan respons teks yang relevan secara kontekstual. Ini didukung saat menggunakan pemrosesan BDA atau ketika basis pengetahuan berisi konten teks.

**penting**  
Sistem mengembalikan referensi untuk melengkapi file dengan metadata stempel waktu untuk konten audio dan video. Aplikasi Anda harus mengekstrak dan memainkan segmen tertentu berdasarkan stempel waktu awal dan akhir yang disediakan. Konsol Manajemen AWS Menangani ini secara otomatis.

**Topics**
+ [Fitur dan kemampuan](#kb-multimodal-features)
+ [Cara kerjanya](#kb-multimodal-how-it-works)
+ [Memilih pendekatan pemrosesan multimodal Anda](kb-multimodal-choose-approach.md)
+ [Prasyarat untuk basis pengetahuan multimodal](kb-multimodal-prerequisites.md)
+ [Buat basis pengetahuan untuk konten multimodal](kb-multimodal-create.md)
+ [Menambahkan sumber data dan memulai konsumsi](kb-multimodal-add-data-source-and-ingest.md)
+ [Menguji dan menanyakan basis pengetahuan multimodal](kb-multimodal-test-and-query.md)
+ [Memecahkan masalah basis pengetahuan multimodal](kb-multimodal-troubleshooting.md)

# Memilih pendekatan pemrosesan multimodal Anda
<a name="kb-multimodal-choose-approach"></a>

Amazon Bedrock Knowledge Bases menawarkan dua pendekatan untuk memproses konten multimodal: Nova Multimodal Embeddings untuk pencarian kesamaan visual, dan Bedrock Data Automation (BDA) untuk pemrosesan konten multimedia berbasis teks. Anda juga dapat menggunakan model foundation sebagai parser Anda jika modalitas input Anda adalah gambar tetapi tidak untuk audio atau video.

Bagian ini menjelaskan penggunaan Nova Multimodal Embeddings dan BDA sebagai pendekatan pemrosesan Anda untuk konten multimodal. Setiap pendekatan dioptimalkan untuk kasus penggunaan dan pola kueri yang berbeda.

**Topics**
+ [Pendekatan pemrosesan multimodal](#kb-multimodal-processing-approach)
+ [Ketersediaan wilayah](#kb-multimodal-processing-regions)
+ [Kriteria pemilihan berdasarkan jenis konten](#kb-multimodal-selection-guidance)
+ [Jenis file dan sumber data yang didukung](#kb-multimodal-supported-files)
+ [Kemampuan dan keterbatasan](#kb-multimodal-approach-details)

## Pendekatan pemrosesan multimodal
<a name="kb-multimodal-processing-approach"></a>

Tabel berikut menunjukkan perbandingan antara Nova Multimodal Embeddings dan BDA untuk memproses konten multimodal.


**Perbandingan pendekatan pemrosesan**  

| Karakteristik | Embeddings Multimodal Nova | Otomasi Data Batuan Dasar (BDA) | 
| --- | --- | --- | 
| Metode pengolahan | Menghasilkan embeddings tanpa konversi teks menengah | Mengonversi multimedia menjadi teks, lalu membuat embeddings | 
| Jenis kueri didukung | Kueri teks atau kueri gambar | Hanya kueri teks | 
| Kasus penggunaan primer | Pencarian kesamaan visual, pencocokan produk, penemuan gambar | Transkripsi ucapan, pencarian berbasis teks, analisis konten | 
| Fungsionalitas RAG | Terbatas hanya untuk konten teks | RetrieveAndGenerateDukungan penuh | 
| Persyaratan penyimpanan | Diperlukan tujuan penyimpanan multimodal | Tujuan penyimpanan multimodal opsional meskipun jika tidak ditentukan, hanya data teks yang akan diproses oleh BDA. Untuk input non-teks, Anda harus menentukan tujuan penyimpanan multimodal. | 

## Ketersediaan wilayah
<a name="kb-multimodal-processing-regions"></a>


**Ketersediaan wilayah**  

| Embeddings Multimodal Nova | Otomasi Data Batuan Dasar (BDA) | 
| --- | --- | 
| Hanya US East (Virginia N.) |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/kb-multimodal-choose-approach.html)  | 

## Kriteria pemilihan berdasarkan jenis konten
<a name="kb-multimodal-selection-guidance"></a>

Gunakan matriks keputusan ini untuk memilih pendekatan pemrosesan yang sesuai berdasarkan konten Anda dan persyaratan kasus penggunaan:

**catatan**  
Jika Anda menggunakan parser BDA dengan model Amazon Nova Multimodal Embeddings, model embeddings akan bertindak seperti model penyematan teks. Saat bekerja dengan konten multimodal, gunakan salah satu pendekatan pemrosesan untuk hasil terbaik tergantung pada kasus penggunaan Anda.


**Memproses rekomendasi pendekatan berdasarkan jenis konten**  

| Jenis Konten | Embeddings Multimodal Nova | Otomasi Data Batuan Dasar (BDA) | 
| --- | --- | --- | 
| Katalog dan gambar produk | Direkomendasikan - Mengaktifkan pencocokan kesamaan visual dan kueri berbasis gambar | Terbatas - Hanya mengekstrak teks melalui OCR | 
| Rekaman rapat dan panggilan | Tidak dapat memproses konten ucapan secara bermakna | Direkomendasikan - Menyediakan transkripsi ucapan lengkap dan teks yang dapat dicari | 
| Video pelatihan dan pendidikan | Partial - Menangani konten visual tetapi melewatkan pidato | Direkomendasikan - Menangkap transkrip ucapan dan deskripsi visual | 
| Rekaman dukungan pelanggan | Tidak direkomendasikan - Konten ucapan tidak dapat diproses secara efektif | Direkomendasikan - Membuat transkrip percakapan lengkap yang dapat dicari | 
| Diagram dan grafik teknis | Direkomendasikan - Sangat baik untuk kesamaan visual dan pencocokan pola | Terbatas - Mengekstrak label teks tetapi melewatkan hubungan visual | 

## Jenis file dan sumber data yang didukung
<a name="kb-multimodal-supported-files"></a>

Jenis file yang didukung bergantung pada pendekatan pemrosesan yang Anda pilih:


**Jenis file yang didukung dengan pendekatan pemrosesan**  

| Jenis File | Embeddings Multimodal Nova | Otomasi Data Batuan Dasar (BDA) | 
| --- | --- | --- | 
| Citra | .png, .jpg, .jpeg, .gif, .webp | .png, .jpg, .jpeg | 
| Audio | .mp3, .ogg, .wav | .amr, .flac, .m4a, .mp3, .ogg, .wav | 
| Video | .mp4, .mov, .mkv, .webm, .flv, .mpeg, .mpg, .wmv, .3gp | .mp4, .mov | 
| Dokumen | Diproses sebagai teks | .pdf (ditambah ekstraksi teks dari gambar) | 

****Sumber data yang didukung****  
Konten multimodal didukung dengan sumber data berikut:
+ **Amazon S3:** Dukungan penuh untuk semua jenis file multimodal
+ **Sumber data khusus:** Support untuk konten inline hingga 10MB base64 dikodekan

**penting**  
Pengambilan multimodal saat ini hanya tersedia untuk sumber data Amazon S3. Sumber data lain (Confluence,, Salesforce SharePoint, Web Crawler) tidak memproses file multimodal selama konsumsi. File-file ini dilewati dan tidak akan tersedia untuk kueri multimodal.

## Kemampuan dan keterbatasan
<a name="kb-multimodal-approach-details"></a>

**Embeddings Multimodal Nova**  
**Kemampuan kunci:**  
+ Pemrosesan multimodal asli mempertahankan format konten asli untuk pencocokan kesamaan visual yang optimal
+ Kueri berbasis gambar memungkinkan pengguna untuk mengunggah gambar dan menemukan konten yang mirip secara visual
+ Kinerja luar biasa untuk katalog produk, pencarian visual, dan aplikasi penemuan konten
**Keterbatasan:**  
+ Tidak dapat memproses konten ucapan atau audio secara efektif - informasi yang diucapkan tidak dapat dicari
+ `RetrieveAndGenerate`dan fungsionalitas rerank terbatas pada konten teks saja
+ Memerlukan konfigurasi tujuan penyimpanan multimodal khusus

**Otomasi Data Batuan Dasar (BDA)**  
**Kemampuan kunci:**  
+ Transkripsi ucapan komprehensif menggunakan teknologi Automatic Speech Recognition (ASR)
+ Analisis konten visual menghasilkan teks deskriptif untuk gambar dan adegan video
+ `RetrieveAndGenerate`Dukungan penuh memungkinkan fungsionalitas RAG lengkap di semua konten
+ Pencarian berbasis teks bekerja secara konsisten di semua jenis konten multimedia
**Keterbatasan:**  
+ Tidak ada dukungan untuk kueri berbasis gambar saat digunakan tanpa Nova Multimodal Embeddings - semua pencarian harus menggunakan input teks
+ Tidak dapat melakukan pencocokan kesamaan visual atau image-to-image pencarian
+ Waktu pemrosesan konsumsi yang lebih lama karena persyaratan konversi konten
+ Mendukung lebih sedikit format file multimedia dibandingkan dengan Nova Multimodal Embeddings

**Pemrosesan konten ucapan**  
Nova Multimodal Embeddings tidak dapat secara efektif memproses konten ucapan dalam file audio atau video. Jika konten multimedia Anda berisi informasi lisan penting yang perlu dicari pengguna, pilih pendekatan BDA untuk memastikan transkripsi dan kemampuan pencarian penuh.

# Prasyarat untuk basis pengetahuan multimodal
<a name="kb-multimodal-prerequisites"></a>

Basis pengetahuan multimodal Amazon Bedrock memerlukan penyiapan tambahan di luar basis pengetahuan standar untuk memproses konten gambar, audio, dan video. Prasyarat spesifik tergantung pada pendekatan pemrosesan dan konfigurasi penyimpanan yang Anda pilih.

Sebelum Anda dapat membuat basis pengetahuan multimodal, Anda harus memenuhi prasyarat berikut:

**Topics**
+ [Prasyarat](#kb-multimodal-prerequisites)
+ [Izin untuk konten multimodal](#kb-multimodal-prerequisites-permissions)

## Prasyarat
<a name="kb-multimodal-prerequisites"></a>

1. Pastikan data Anda berada di [konektor sumber data yang didukung](data-source-connectors.md). Konten multimodal hanya didukung dengan Amazon S3 dan sumber data khusus.

1. (Opsional) [Siapkan penyimpanan vektor Anda sendiri yang didukung](knowledge-base-setup.md). Anda dapat melewati langkah ini jika Anda berencana untuk menggunakan Konsol Manajemen AWS untuk secara otomatis membuat penyimpanan vektor untuk Anda.

1. Buat [peran layanan](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_terms-and-concepts.html#iam-term-service-role) kustom AWS Identity and Access Management (IAM) dengan izin yang tepat untuk pemrosesan multimodal. Lihat [Izin untuk konten multimodal](#kb-multimodal-prerequisites-permissions) untuk detail.
**catatan**  
Jika Anda menggunakan konsol, Pangkalan Pengetahuan Amazon Bedrock akan secara otomatis mengonfigurasi izin untuk Anda.

1. (Opsional) Siapkan konfigurasi keamanan ekstra dengan mengikuti langkah-langkah di[Enkripsi sumber daya basis pengetahuan](encryption-kb.md).

1. Jika Anda berencana untuk menggunakan operasi [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html)API dengan konten yang diproses BDA, minta akses ke model yang akan Anda gunakan di Wilayah tempat Anda akan menggunakannya dengan mengikuti langkah-langkah di. [Akses model fondasi Amazon Bedrock](model-access.md)

## Izin untuk konten multimodal
<a name="kb-multimodal-prerequisites-permissions"></a>

Basis pengetahuan multimodal memerlukan izin tambahan di luar izin basis pengetahuan standar. Izin spesifik bergantung pada pendekatan pemrosesan dan konfigurasi penyimpanan yang Anda pilih.

Anda harus mengonfigurasi izin berikut berdasarkan pendekatan pemrosesan multimodal Anda:
+ **Izin Nova Multimodal Embeddings:** Diperlukan saat menggunakan Nova Multimodal Embeddings untuk pencarian kesamaan visual dan audio langsung. Termasuk izin untuk pemanggilan model asinkron dan akses penyimpanan multimodal.
+ **Izin Otomasi Data Batuan Dasar (BDA):** Diperlukan saat menggunakan BDA untuk mengonversi konten multimodal menjadi representasi teks. Termasuk izin untuk pemanggilan otomatisasi data dan pemantauan status.
+ **Izin kunci KMS yang dikelola pelanggan: Diperlukan saat menggunakan kunci** enkripsi yang dikelola pelanggan dengan pemrosesan BDA. Termasuk izin untuk operasi utama dan pembuatan hibah.
+ **Izin penyimpanan multimodal:** Diperlukan saat mengonfigurasi tujuan penyimpanan multimodal. Termasuk izin S3 standar untuk ember penyimpanan.

Untuk detail kebijakan IAM dan konfigurasi step-by-step izin, lihat[Izin untuk konten multimodal](kb-permissions.md#kb-permissions-multimodal).

### Persyaratan penyimpanan
<a name="kb-multimodal-storage-requirements"></a>

**Penyematan Multimodal Nova**  
**Wajib:** Anda harus mengonfigurasi tujuan penyimpanan multimodal. Tujuan ini menyimpan salinan file multimedia Anda untuk pengambilan dan memastikan ketersediaan bahkan jika file sumber dimodifikasi atau dihapus.

**Otomasi Data Batuan Dasar (BDA)**  
**Opsional:** Anda dapat mengonfigurasi bucket penyimpanan multimodal untuk keandalan tambahan, dan juga untuk mengambil file saat runtime. Namun, itu tidak diperlukan karena BDA mengonversi konten menjadi teks.  
Jika Anda memilih parser BDA tanpa mengonfigurasi bucket penyimpanan multimodal, hanya penguraian teks yang akan tersedia. Untuk memanfaatkan kemampuan parsing multimodal dengan BDA (memproses gambar, audio, dan video), Anda harus mengonfigurasi tujuan penyimpanan multimodal.

**Konfigurasi tujuan penyimpanan multimodal**  
Saat mengonfigurasi tujuan penyimpanan multimodal Anda, pertimbangkan hal berikut:
+ **Gunakan bucket terpisah (disarankan):** Konfigurasikan bucket Amazon S3 yang berbeda untuk sumber data dan tujuan penyimpanan multimodal Anda. Ini menyediakan pengaturan paling sederhana dan menghindari potensi konflik.
+ **Jika menggunakan bucket yang sama:** Anda harus menentukan awalan inklusi untuk sumber data yang membatasi konten mana yang tertelan. Ini mencegah pengambilan ulang file media yang diekstraksi.
+ **Hindari awalan “aws/”:** Saat menggunakan bucket yang sama untuk sumber data dan tujuan penyimpanan multimodal, jangan gunakan awalan inklusi yang dimulai dengan “aws/” karena jalur ini dicadangkan untuk penyimpanan media yang diekstraksi.

# Buat basis pengetahuan untuk konten multimodal
<a name="kb-multimodal-create"></a>

Anda dapat membuat basis pengetahuan multimodal menggunakan konsol atau API. Pilih pendekatan Anda berdasarkan kebutuhan pemrosesan multimodal Anda.

**penting**  
Dukungan multimodal hanya tersedia saat membuat basis pengetahuan dengan sumber data yang tidak terstruktur. Sumber data terstruktur tidak mendukung pemrosesan konten multimodal.

------
#### [ Console ]

**Untuk membuat basis pengetahuan multimodal dari konsol**

1. Masuk ke Konsol Manajemen AWS dengan identitas IAM yang memiliki izin untuk menggunakan konsol Amazon Bedrock. Kemudian, buka konsol Amazon Bedrock di [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Di panel navigasi kiri, pilih **Basis pengetahuan**.

1. Di bagian **Basis pengetahuan**, pilih **Buat**, lalu pilih **Pangkalan Pengetahuan dengan penyimpanan vektor**.

1. (Opsional) Di bawah **detail Basis Pengetahuan**, ubah nama default dan berikan deskripsi untuk basis pengetahuan Anda.

1. Di bawah **izin IAM**, pilih peran IAM yang menyediakan izin Amazon Bedrock untuk mengakses lainnya yang diperlukan. Layanan AWS Anda dapat meminta Amazon Bedrock membuat peran layanan untuk Anda, atau Anda dapat memilih untuk menggunakan peran kustom Anda sendiri. Untuk izin multimodal, lihat. [Izin untuk konten multimodal](kb-permissions.md#kb-permissions-multimodal)

1. Pilih **Amazon S3** sebagai sumber data Anda dan pilih **Berikutnya** untuk mengonfigurasi sumber data Anda.
**catatan**  
Anda dapat menambahkan hingga 5 sumber data Amazon S3 selama pembuatan basis pengetahuan. Sumber data tambahan dapat ditambahkan setelah basis pengetahuan dibuat.

1. Berikan **URI S3** bucket yang berisi konten multimodal Anda dan konfigurasikan awalan inklusi jika diperlukan. Awalan inklusi adalah jalur folder yang dapat digunakan untuk membatasi konten apa yang dicerna.

1. Di bawah **konfigurasi Chunking dan parsing**, pilih strategi parsing Anda:
   + **Pengurai default batuan dasar:** Direkomendasikan untuk pemrosesan konten khusus teks. Parser ini memproses format teks umum sambil mengabaikan file multimodal. Mendukung dokumen teks termasuk file Word, Excel, HTML, Markdown, TXT, dan CSV.
   + **Otomasi Data Batuan Dasar (BDA):** Mengonversi konten multimodal menjadi representasi teks yang dapat dicari. Memproses PDFs, gambar, audio, dan file video untuk mengekstrak teks, menghasilkan deskripsi untuk konten visual, dan membuat transkripsi untuk konten audio dan video.
   + **Foundation model parser:** Menyediakan kemampuan parsing canggih untuk struktur dokumen yang kompleks. Proses PDFs, gambar, dokumen terstruktur, tabel, dan konten yang kaya secara visual untuk mengekstrak teks dan menghasilkan deskripsi untuk elemen visual.

1. Pilih **Berikutnya** dan pilih model embedding dan pendekatan pemrosesan multimodal Anda. 
   + **Amazon Nova Multimodal Embeddings V1.0:** Pilih **Amazon Nova embedding** V1.0 untuk pencarian kesamaan visual dan audio langsung. Konfigurasikan durasi potongan audio dan video (1-30 detik, default 5 detik) untuk mengontrol bagaimana konten tersegmentasi.
**catatan**  
Parameter chunking audio dan video dikonfigurasi pada tingkat model penyematan, bukan pada tingkat sumber data. Pengecualian validasi terjadi jika Anda menyediakan konfigurasi ini untuk model penyematan non-multimodal. Konfigurasikan durasi potongan audio dan video (default: 5 detik, rentang: 1-30 detik) untuk mengontrol bagaimana konten tersegmentasi. Potongan yang lebih pendek memungkinkan pengambilan konten yang tepat sementara potongan yang lebih panjang mempertahankan lebih banyak konteks semantik.
**penting**  
Amazon Nova embedding v1.0 memiliki dukungan terbatas untuk mencari konten ucapan dalam audio/video data. Jika Anda perlu mendukung pidato, gunakan Otomasi Data Batuan Dasar sebagai parser.
   + **Penyematan teks dengan BDA: Pilih model penyematan teks (seperti Titan Text Embeddings** v2) saat menggunakan pemrosesan BDA. Model penyematan teks membatasi pengambilan ke konten khusus teks, tetapi Anda dapat mengaktifkan pengambilan multimodal dengan memilih Amazon Bedrock Data Automation atau Foundation Model sebagai parser.
**catatan**  
Jika Anda menggunakan parser BDA dengan Nova Multimodal Embeddings, Amazon Bedrock Knowledge Bases akan menggunakan penguraian BDA terlebih dahulu. Dalam hal ini, model penyematan tidak akan menghasilkan penyematan multimodal asli untuk gambar, audio, dan video karena BDA mengonversinya menjadi representasi teks.

1. Jika menggunakan Nova Multimodal Embeddings, konfigurasikan **tujuan penyimpanan Multimodal** dengan menentukan bucket Amazon S3 tempat file yang diproses akan disimpan untuk diambil. Knowledge Bases akan menyimpan gambar yang diuraikan ke dalam satu bucket Amazon S3 dengan folder yang dibuat.bda untuk memudahkan akses.
**Rekomendasi kebijakan siklus hidup**  
Saat menggunakan Nova Multimodal Embeddings, Amazon Bedrock menyimpan data sementara di tujuan penyimpanan multimodal Anda dan mencoba menghapusnya setelah pemrosesan selesai. Sebaiknya terapkan kebijakan siklus hidup pada jalur data transien untuk memastikan pembersihan yang tepat. Untuk petunjuk mendetail, lihat [Mengelola data sementara dengan kebijakan siklus hidup Amazon S3](kb-multimodal-troubleshooting.md#kb-multimodal-lifecycle-policy).

1. Di bagian **Basis data vektor**, pilih metode penyimpanan vektor Anda dan konfigurasikan dimensi yang sesuai berdasarkan model penyematan yang Anda pilih.

1. Pilih **Berikutnya** dan tinjau detail konfigurasi basis pengetahuan Anda, lalu pilih **Buat basis pengetahuan**.

------
#### [ CLI ]

**Untuk membuat basis pengetahuan multimodal menggunakan AWS CLI**
+ Buat basis pengetahuan dengan Nova Multimodal Embeddings. Kirim [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html)permintaan:

  ```
  aws bedrock-agent create-knowledge-base \
  --cli-input-json file://kb-nova-mme.json
  ```

  Isi `kb-nova-mme.json` (ganti nilai placeholder dengan konfigurasi spesifik Anda):

  ```
  {
      "knowledgeBaseConfiguration": {
          "vectorKnowledgeBaseConfiguration": {
              "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0",
              "supplementalDataStorageConfiguration": {
                  "storageLocations": [
                      {
                          "type": "S3",
                          "s3Location": {
                              "uri": "s3://<multimodal-storage-bucket>/"
                          }
                      }
                  ]
              }
          },
          "type": "VECTOR"
      },
      "storageConfiguration": {
          "opensearchServerlessConfiguration": {
              "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>",
              "vectorIndexName": "<index-name>",
              "fieldMapping": {
                  "vectorField": "<vector-field>",
                  "textField": "<text-field>",
                  "metadataField": "<metadata-field>"
              }
          },
          "type": "OPENSEARCH_SERVERLESS"
      },
      "name": "<knowledge-base-name>",
      "description": "Multimodal knowledge base with Nova Multimodal Embeddings"
  }
  ```

  Ganti placeholder berikut:
  + `<multimodal-storage-bucket>`- Bucket S3 untuk menyimpan file multimodal
  + `<account-id>`- ID akun AWS Anda
  + `<collection-id>`- OpenSearch ID koleksi tanpa server
  + `<index-name>`- Nama indeks vektor dalam OpenSearch koleksi Anda (dikonfigurasi dengan dimensi yang sesuai untuk model penyematan pilihan Anda)
  + `<vector-field>`- Nama bidang untuk menyimpan embeddings
  + `<text-field>`- Nama bidang untuk menyimpan konten teks
  + `<metadata-field>`- Nama bidang untuk menyimpan metadata

------

# Menambahkan sumber data dan memulai konsumsi
<a name="kb-multimodal-add-data-source-and-ingest"></a>

Setelah membuat basis pengetahuan Anda, tambahkan sumber data yang berisi konten multimodal Anda dan mulailah pekerjaan konsumsi untuk memproses dan mengindeks konten.

**Perilaku penghapusan sumber data**  
Saat Anda menghapus sumber data dengan kebijakan penghapusan yang disetel ke RESTAIN, konten yang dicerna tetap berada dalam database vektor dan akan terus digunakan untuk pengambilan. Konten hanya dihapus jika Anda secara eksplisit menyinkronkan basis pengetahuan setelah menghapus sumber data. Sumber data dengan kebijakan DELETE default akan secara otomatis menghapus konten dari database vektor dan penyimpanan tambahan selama penghapusan. Ini memastikan bahwa basis pengetahuan Anda terus berfungsi meskipun file sumber dimodifikasi atau dihapus, tetapi Anda harus menyadari bahwa sumber data yang dihapus dengan kebijakan RETAIN mungkin masih berkontribusi pada hasil pencarian.

## Tambahkan sumber data
<a name="kb-multimodal-add-data-source"></a>

Tambahkan sumber data yang berisi konten multimodal Anda ke basis pengetahuan Anda.

**penting**  
Untuk sumber data BDA: Hanya sumber data yang dibuat setelah peluncuran audio/video dukungan yang akan memproses file audio dan video. Sumber data BDA yang ada yang dibuat sebelum peluncuran fitur ini akan terus melewati file audio dan video. Untuk mengaktifkan audio/video pemrosesan basis pengetahuan yang ada, buat sumber data baru.

------
#### [ Console ]

**Untuk menambahkan sumber data dari konsol**

1. Dari halaman detail basis pengetahuan Anda, pilih **Tambahkan sumber data**.

1. Pilih **Amazon S3 sebagai tipe** sumber data Anda.

1. Berikan nama dan deskripsi untuk sumber data Anda.

1. Konfigurasikan lokasi Amazon S3 yang berisi file multimodal Anda dengan menyediakan URI bucket dan awalan inklusi apa pun.

1. Di bawah **Parsing dan chunking Konten**, konfigurasikan metode parsing dan chunking Anda:
**catatan**  
Model penyematan teks membatasi pengambilan ke konten khusus teks, tetapi Anda dapat mengaktifkan pengambilan multimodal melalui teks dengan memilih Amazon Bedrock Data Automation (untuk audio, video, dan gambar) atau Foundation Model sebagai parser (untuk gambar).

   Pilih dari tiga strategi parsing:
   + **Pengurai default batuan dasar: Direkomendasikan untuk penguraian** teks saja. Parser ini mengabaikan konten multimodal dan biasanya digunakan dengan model penyematan multimodal.
   + **Otomasi Data Batuan Dasar sebagai parser:** Memungkinkan penguraian dan penyimpanan konten multimodal sebagai file teks, pendukung, gambar PDFs, audio, dan video.
   + **Model dasar sebagai parser:** Menyediakan penguraian lanjutan untuk gambar dan dokumen terstruktur, pendukung, gambar PDFs, tabel, dan dokumen yang kaya secara visual.

1. Pilih **Tambahkan sumber data** untuk membuat sumber data.

------
#### [ CLI ]

**Untuk menambahkan sumber data menggunakan AWS CLI**
+ Buat sumber data untuk konten multimodal Anda. Kirim [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)permintaan:

  ```
  aws bedrock-agent create-data-source \
  --knowledge-base-id <knowledge-base-id> \
  --cli-input-json file://ds-multimodal.json
  ```

  Untuk Nova Multimodal Embeddings (tidak perlu konfigurasi parsing khusus), gunakan konten ini: `ds-multimodal.json`

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source",
      "description": "Data source with multimodal content",
      "dataDeletionPolicy": "RETAIN"
  }
  ```

  Untuk pendekatan parsing BDA, gunakan konfigurasi ini:

  ```
  {
      "dataSourceConfiguration": {
          "type": "S3",
          "s3Configuration": {
              "bucketArn": "arn:aws:s3:::<data-source-bucket>",
              "inclusionPrefixes": ["<folder-path>"]
          }
      },
      "name": "multimodal_data_source_bda",
      "description": "Data source with BDA multimodal parsing",
      "dataDeletionPolicy": "RETAIN",
      "vectorIngestionConfiguration": {
          "parsingConfiguration": {
              "bedrockDataAutomationConfiguration": {
                  "parsingModality": "MULTIMODAL"
              }
          }
      }
  }
  ```

------

## Mulai pekerjaan menelan
<a name="kb-multimodal-start-ingestion"></a>

Setelah menambahkan sumber data Anda, mulailah pekerjaan konsumsi untuk memproses dan mengindeks konten multimodal Anda.

------
#### [ Console ]

**Untuk memulai konsumsi dari konsol**

1. Dari halaman detail sumber data Anda, pilih **Sinkronkan**.

1. Pantau status sinkronisasi pada halaman sumber data. Tertelan mungkin memakan waktu beberapa menit tergantung pada ukuran dan jumlah file multimodal Anda.

1. Setelah sinkronisasi berhasil diselesaikan, konten multimodal Anda siap untuk ditanyakan.

------
#### [ CLI ]

**Untuk memulai konsumsi menggunakan AWS CLI**

1. Mulai pekerjaan menelan. Kirim [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)permintaan:

   ```
   aws bedrock-agent start-ingestion-job \
   --knowledge-base-id <knowledge-base-id> \
   --data-source-id <data-source-id>
   ```

   Ganti placeholder dengan:
   + `<knowledge-base-id>`- ID dari pembuatan basis pengetahuan
   + `<data-source-id>`- ID dari pembuatan sumber data

1. Pantau status pekerjaan konsumsi menggunakan. [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_GetIngestionJob.html)

------

## Sinkronisasi ulang setelah penghapusan sumber data
<a name="kb-multimodal-resync-after-deletion"></a>

Jika Anda menghapus sumber data dan ingin menghapus kontennya dari basis pengetahuan, Anda harus secara eksplisit menyinkronkan ulang basis pengetahuan:

**Untuk menghapus konten sumber data yang dihapus**

1. Hapus sumber data menggunakan konsol atau [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DeleteDataSource.html)API.

1. Mulai pekerjaan konsumsi baru pada sumber data yang tersisa untuk memperbarui database vektor dan menghapus konten dari sumber data yang dihapus.

1. Verifikasi bahwa kueri tidak lagi mengembalikan hasil dari sumber data yang dihapus.

**catatan**  
Tanpa sinkronisasi ulang, konten dari sumber data yang dihapus akan terus muncul di hasil pencarian meskipun sumber data sudah tidak ada lagi.

# Menguji dan menanyakan basis pengetahuan multimodal
<a name="kb-multimodal-test-and-query"></a>

Setelah menelan konten multimodal, Anda dapat menguji dan menanyakan basis pengetahuan Anda menggunakan konsol atau API. Jenis kueri yang tersedia bergantung pada pendekatan pemrosesan yang Anda pilih.

------
#### [ Console ]

**Untuk menguji basis pengetahuan Anda dari konsol**

1. Dari halaman detail basis pengetahuan Anda, gulir ke bagian **Test knowledge base**.

1. Pilih jenis kueri Anda:
   + **Pengambilan standar saja:** Kueri dan ambil informasi dari sumber data dalam satu Basis Pengetahuan.
   + **Pengambilan dan generasi respons:** Kueri Basis Pengetahuan tunggal dan hasilkan respons berdasarkan hasil yang diambil dengan menggunakan model dasar.
**catatan**  
Jika Anda memiliki konten multimodal, Anda harus menggunakan parser BDA untuk pengambilan dan pembuatan respons.

1. Konfigurasikan opsi tambahan sesuai kebutuhan:
   + **Potongan sumber: Tentukan jumlah maksimum potongan** sumber yang akan dikembalikan
   + **Jenis Pencarian:** Pilih jenis pencarian untuk menyesuaikan strategi kueri
   + **Filter metadata:** Terapkan filter untuk mempersempit hasil pencarian
   + **Pagar pembatas:** Pilih pagar pembatas yang ada atau buat yang baru

1. Masukkan kueri teks atau unggah gambar (hanya Nova Multimodal Embeddings) untuk mencari konten multimodal Anda. Gunakan tombol lampiran untuk mengunggah gambar untuk pencarian kesamaan visual.

1. Tinjau hasilnya, yang meliputi:
   + Potongan konten yang diambil dengan skor relevansi
   + Referensi file sumber dan stempel waktu (untuk audio/video)
   + Metadata termasuk jenis file dan informasi pemrosesan
   + Untuk konten multimedia, kontrol pemutaran dengan pemosisian segmen otomatis berdasarkan stempel waktu yang diambil

------
#### [ API ]

Contoh berikut menunjukkan cara menggunakan Amazon Bedrock Agent Runtime API untuk menanyakan basis pengetahuan multimodal Anda secara terprogram:

**Contoh kueri teks**  
Cari menggunakan input teks:

```
aws bedrock-agent-runtime retrieve \
--knowledge-base-id <knowledge-base-id> \
--retrieval-query text="robot automation in manufacturing"
```

**Contoh kueri gambar (hanya Penyematan Nova Multimodal)**  
Cari menggunakan gambar yang diunggah:

```
{
    "knowledgeBaseId": "<knowledge-base-id>",
    "retrievalQuery": {
        "imageQuery": {
            "inlineContent": {
                "mimeType": "image/jpeg",
                "data": "<base64-encoded-image>"
            }
        }
    }
}
```

------

## Jenis kueri yang didukung
<a name="kb-multimodal-query-types"></a>

**Kueri teks**  
Didukung dengan pendekatan Nova Multimodal Embeddings dan BDA. Cari menggunakan teks bahasa alami untuk menemukan konten yang relevan di semua jenis media.

**Kueri gambar**  
Hanya didukung dengan Nova Multimodal Embeddings. Unggah gambar untuk menemukan konten yang mirip secara visual di basis pengetahuan Anda.

## Memahami metadata respons
<a name="kb-multimodal-response-metadata"></a>

Respons kueri multimodal mencakup metadata tambahan untuk konten multimedia:

**Atribusi sumber**  
Lokasi file asli (SourceURI) dan lokasi penyimpanan multimodal (supplementalURI) untuk akses yang andal

**Metadata temporal**  
Mulai dan akhiri stempel waktu untuk segmen audio dan video, memungkinkan navigasi yang tepat ke konten yang relevan

**Informasi jenis konten**  
Format file, metode pemrosesan, dan indikator modalitas untuk membantu aplikasi menangani berbagai jenis konten dengan tepat

**Struktur metadata basis data vektor**  
Ketika konten multimodal diproses dan disimpan, struktur metadata berikut digunakan dalam database vektor:
+ **bidang teks:** Untuk file multimedia yang diproses dengan Nova Multimodal Embeddings, bidang ini berisi string kosong karena konten disematkan sebagai multimedia asli daripada teks
+ **bidang metadata:** Berisi informasi terstruktur termasuk detail sumber dan referensi konten terkait:

  ```
  {
    "source": {
      "sourceType": "S3",
      "s3Location": {
        "uri": "s3://source-bucket/path/to/file.mp4"
      }
    },
    "relatedContent": [{
      "type": "S3",
      "s3Location": {
        "uri": "s3://multimodal-storage-bucket/processed/file.mp4"
      }
    }]
  }
  ```
+ Bidang **yang dibuat secara otomatis: Bidang** tambahan untuk pemfilteran dan identifikasi:
  + `x-amz-bedrock-kb-source-uri`: URI sumber asli untuk operasi penyaringan
  + `x-amz-bedrock-kb-data-source-id`: Pengidentifikasi sumber data untuk melacak asal konten
  + `x-amz-bedrock-kb-chunk-start-time-in-millis`: Mulai stempel waktu dalam milidetik untuk segmen audio dan video
  + `x-amz-bedrock-kb-chunk-end-time-in-millis`: Akhiri stempel waktu dalam milidetik untuk segmen audio dan video
  + `x-amz-bedrock-kb-source-file-mime-type`: Jenis MIME dari file sumber
  + `x-amz-bedrock-kb-source-file-modality`: Modalitas file sumber (TEKS, GAMBAR, AUDIO, VIDEO)

**penting**  
Aplikasi harus menggunakan stempel waktu yang disediakan untuk mengekstrak dan memutar segmen tertentu dari file audio dan video. Basis pengetahuan mengembalikan referensi ke file lengkap, bukan klip yang telah tersegmentasi sebelumnya.

# Memecahkan masalah basis pengetahuan multimodal
<a name="kb-multimodal-troubleshooting"></a>

Bagian ini memberikan panduan untuk menyelesaikan masalah umum yang dihadapi saat bekerja dengan basis pengetahuan multimodal. Informasi pemecahan masalah diatur oleh batasan umum, skenario kesalahan umum dengan penyebab dan solusinya, dan rekomendasi pengoptimalan kinerja. Gunakan informasi ini untuk mendiagnosis dan menyelesaikan masalah selama penyiapan, konsumsi, atau kueri konten multimodal Anda.

## Batasan umum
<a name="kb-multimodal-general-limitations"></a>

Waspadai keterbatasan saat ini saat bekerja dengan basis pengetahuan multimodal:
+ **Batas ukuran file:** Maksimum 1,5 GB per file video, 1 GB per file audio (Nova Multimodal Embeddings), atau 1,5 GB per file (BDA)
+ **File per pekerjaan konsumsi: Maksimum 15.000 file per pekerjaan** (Nova Multimodal Embeddings) atau 1.000 file per pekerjaan (BDA)
+ **Batas kueri:** Maksimum satu gambar per kueri
+ **Pembatasan sumber data:** Hanya Amazon S3 dan sumber data khusus yang mendukung konten multimodal
+ **Batasan chunking BDA:** Saat menggunakan Otomasi Data Batuan Dasar dengan potongan ukuran tetap, pengaturan persentase tumpang tindih tidak diterapkan pada konten audio dan video
+ **Batas pekerjaan bersamaan BDA: Batas** default 20 pekerjaan BDA bersamaan. Untuk pemrosesan skala besar, pertimbangkan untuk meminta peningkatan kuota layanan
+ **Batasan model Reranker: Model** Reranker tidak didukung untuk konten multimodal
+ **Keterbatasan ringkasan:** Ringkasan tanggapan pengambilan yang mengandung konten non-teks tidak didukung
+ **Batasan input kueri:** Masukan yang berisi teks dan gambar saat ini tidak didukung. Anda dapat menggunakan kueri teks atau gambar, tetapi tidak keduanya secara bersamaan.
+ **Filter konten gambar pagar pembatas:** Saat menggunakan kueri gambar dengan pagar pembatas yang memiliki filter konten gambar yang dikonfigurasi, gambar input akan dievaluasi terhadap pagar pembatas dan dapat diblokir jika melanggar ambang filter yang dikonfigurasi
+ **Ketidakcocokan input dan tipe:** Secara default, input diasumsikan sebagai teks saat tipe tidak ditentukan. Saat menggunakan modalitas selain teks, Anda harus menentukan jenis yang benar

## Kesalahan dan solusi umum
<a name="kb-multimodal-common-errors"></a>

Jika Anda mengalami masalah dengan basis pengetahuan multimodal Anda, tinjau skenario umum ini:

**Kesalahan 4xx saat menggunakan kueri gambar**  
**Penyebab:** Mencoba menggunakan kueri gambar dengan model penyematan khusus teks atau basis pengetahuan yang diproses BDA.  
**Solusi:** Pilih Amazon Nova Multimodal Embeddings saat membuat basis pengetahuan Anda untuk dukungan kueri gambar.

**RAG mengembalikan kesalahan 4xx dengan konten multimodal**  
**Penyebab:** Menggunakan `RetrieveAndGenerate` dengan basis pengetahuan yang hanya berisi konten multimodal dan model Amazon Nova Multimodal Embeddings.  
**Solusi:** Gunakan parser BDA untuk fungsionalitas RAG, atau pastikan basis pengetahuan Anda berisi konten teks.

**Tujuan penyimpanan multimodal diperlukan kesalahan**  
**Penyebab:** Menggunakan Nova Multimodal Embeddings tanpa mengonfigurasi tujuan penyimpanan multimodal.  
**Solusi:** Tentukan tujuan penyimpanan multimodal saat menggunakan Nova Multimodal Embeddings.

**Sumber data dan penyimpanan multimodal menggunakan bucket S3 yang sama**  
**Penyebab:** Mengonfigurasi sumber data dan tujuan penyimpanan multimodal untuk menggunakan bucket Amazon S3 yang sama tanpa awalan penyertaan yang tepat.  
**Solusi:** Gunakan bucket terpisah untuk sumber data dan penyimpanan multimodal, atau konfigurasikan awalan inklusi untuk mencegah pengambilan ulang file media yang diekstraksi.

**Awalan inklusi tidak dapat dimulai dengan “aws/”**  
**Penyebab:** Menggunakan awalan inklusi yang dimulai dengan “aws/” saat sumber data dan tujuan penyimpanan multimodal berbagi bucket Amazon S3 yang sama.  
**Solusi:** Tentukan awalan inklusi yang berbeda. Jalur “aws/” dicadangkan untuk penyimpanan media yang diekstraksi dan tidak dapat digunakan sebagai awalan inklusi untuk menghindari konsumsi ulang konten yang diproses.

**Konsumsi BDA melewatkan konten multimodal**  
**Penyebab:** Basis pengetahuan dibuat tanpa tujuan penyimpanan multimodal, kemudian sumber data BDA ditambahkan dengan konten multimodal.  
**Solusi:** Buat kembali basis pengetahuan dengan tujuan penyimpanan multimodal yang dikonfigurasi untuk memungkinkan pemrosesan BDA file audio, video, dan gambar.

**Basis pengetahuan dibuat tanpa model penyematan multimodal**  
**Penyebab:** Basis pengetahuan dibuat dengan model penyematan khusus teks, membatasi kemampuan multimodal.  
**Solusi:** Buat basis pengetahuan baru dengan Nova Multimodal Embeddings untuk mengaktifkan pemrosesan multimodal asli dan kueri berbasis gambar.

## Mengelola data sementara dengan kebijakan siklus hidup Amazon S3
<a name="kb-multimodal-lifecycle-policy"></a>

Saat menggunakan Nova Multimodal Embeddings, Amazon Bedrock menyimpan data sementara di tujuan penyimpanan multimodal Anda dan mencoba menghapusnya setelah pemrosesan selesai. Sebaiknya terapkan kebijakan siklus hidup pada jalur data transien untuk memastikan bahwa kebijakan tersebut telah kedaluwarsa dengan benar.

------
#### [ Console ]

**Untuk membuat aturan siklus hidup menggunakan konsol**

1. Buka [konsol Amazon S3](https://console.aws.amazon.com/s3).

1. Arahkan ke tujuan penyimpanan multimodal yang telah Anda konfigurasikan untuk Pangkalan Pengetahuan Anda.

1. Pilih tab **Manajemen** dan pilih **Buat aturan siklus hidup**.

1. Untuk **nama aturan Siklus Hidup, masukkan**. **Transient Data Deletion**

1. Di bawah **Jenis filter**, pilih **Batasi cakupan aturan ini menggunakan satu atau beberapa filter**.

1. Untuk **Awalan**, masukkan jalur data sementara untuk basis pengetahuan dan sumber data Anda.

   Ganti nilai placeholder di awalan berikut dengan pengenal Anda yang sebenarnya:

   ```
   aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data
   ```
**penting**  
Jangan menerapkan kebijakan siklus hidup ke seluruh bucket atau awalan “aws/”, karena ini akan menghapus konten multimodal Anda dan menyebabkan kegagalan pengambilan. Hanya gunakan jalur data transien tertentu yang ditunjukkan di atas.

1. Di bawah **Tindakan aturan Siklus Hidup**, pilih **Kedaluwarsa versi objek saat ini**.

1. Untuk **Hari setelah pembuatan objek**, masukkan**1**.

1. Pilih **Buat aturan**.

------
#### [ AWS CLI ]

**Untuk membuat aturan siklus hidup menggunakan AWS CLI**

1. Buat file JSON bernama `lifecycle-policy.json` dengan konten berikut.

   Ganti nilai placeholder dengan pengenal Anda yang sebenarnya:
   + *knowledge-base-id*- Pengidentifikasi basis pengetahuan Anda
   + *data-source-id*- Pengidentifikasi sumber data Anda

   ```
   {
       "Rules": [
           {
               "ID": "TransientDataDeletion",
               "Status": "Enabled",
               "Filter": {
                   "Prefix": "aws/bedrock/knowledge_bases/knowledge-base-id/data-source-id/transient_data"
               },
               "Expiration": {
                   "Days": 1
               }
           }
       ]
   }
   ```

1. Terapkan kebijakan siklus hidup ke bucket Anda. Ganti *your-multimodal-storage-bucket* dengan nama bucket Anda yang sebenarnya:

   ```
   aws s3api put-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket \
       --lifecycle-configuration file://lifecycle-policy.json
   ```

1. Verifikasi kebijakan siklus hidup diterapkan:

   ```
   aws s3api get-bucket-lifecycle-configuration \
       --bucket your-multimodal-storage-bucket
   ```

------

*Untuk informasi selengkapnya tentang kebijakan siklus hidup Amazon S3, lihat [Mengelola siklus hidup objek di Panduan Pengguna Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html).*

## Pertimbangan performa
<a name="kb-multimodal-performance-considerations"></a>

Untuk kinerja optimal dengan basis pengetahuan multimodal Anda, pertimbangkan faktor-faktor ini:
+ **Waktu pemrosesan:** Pemrosesan BDA membutuhkan waktu lebih lama karena konversi konten
+ **Latensi kueri:** Kueri gambar mungkin memiliki latensi lebih tinggi daripada kueri teks
+ Durasi **chunking: Durasi** potongan audio/video yang lebih lama meningkatkan waktu pemrosesan tetapi dapat meningkatkan akurasi