Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
neptune.read ()
Neptunus mendukung neptune.read prosedur untuk membaca CALL data dari Amazon S3 dan kemudian menjalankan kueri OpenCypher (baca, sisipkan, perbarui) menggunakan data. Prosedur menghasilkan setiap baris dalam file sebagai baris variabel hasil yang dideklarasikan. Ini menggunakan kredensyal IAM dari penelepon untuk mengakses data di Amazon S3. Lihat Mengelola izin untuk neptune.read () untuk mengatur izin. AWS Wilayah bucket Amazon S3 harus berada di wilayah yang sama di mana instance berada. Saat ini, pembacaan lintas wilayah tidak didukung.
Sintaksis
CALL neptune.read( { source: "string", format: "parquet/csv", concurrency: 10 } ) YIELD row ...
Masukan
-
source (wajib) - Amazon S3 URI ke satu objek. Awalan Amazon S3 ke beberapa objek tidak didukung.
-
format (wajib) -
parquetdancsvdidukung.-
Rincian lebih lanjut tentang format Parket yang didukung dapat ditemukan diJenis kolom Parket yang didukung.
-
Untuk informasi selengkapnya tentang format csv yang didukung, lihatMuat format untuk data OpenCypher.
-
-
konkurensi (opsional) - Jenis: 0 atau bilangan bulat yang lebih besar. Default: 0. Menentukan jumlah thread yang akan digunakan untuk membaca file. Jika nilainya 0, jumlah maksimum utas yang diizinkan oleh sumber daya akan digunakan. Untuk Parket, disarankan untuk diatur ke sejumlah grup baris.
Output
Neptune.read mengembalikan:
-
baris - Jenis: Peta
-
Setiap baris dalam file, di mana kuncinya adalah kolom dan nilainya adalah data yang ditemukan di setiap kolom.
-
Anda dapat mengakses data setiap kolom seperti properti access (
row.col).
-
Praktik terbaik untuk neptune.read ()
Operasi pembacaan Neptunus S3 bisa intensif memori. Harap gunakan jenis instans yang cocok untuk beban kerja produksi seperti yang diuraikan dalam Memilih jenis instans untuk Amazon Neptunus.
Penggunaan memori dan kinerja neptune.read() permintaan dipengaruhi oleh berbagai faktor seperti ukuran file, jumlah kolom, jumlah baris, dan format file. Bergantung pada struktur, file kecil (misalnya, file CSV 100MB atau di bawahnya, file Parket 20MB atau di bawahnya) dapat bekerja dengan andal pada sebagian besar jenis instance yang sesuai dengan produksi, sedangkan file yang lebih besar mungkin memerlukan memori substanal yang tidak dapat disediakan oleh tipe instance yang lebih kecil.
Saat menguji fitur ini, disarankan untuk memulai dengan file kecil dan menskalakan secara bertahap untuk memastikan beban kerja baca Anda dapat diakomodasi oleh ukuran instans Anda. Jika Anda melihat neptune.read() permintaan yang mengarah ke out-of-memory pengecualian atau instans dimulai ulang, pertimbangkan untuk membagi file Anda menjadi potongan yang lebih kecil, mengurangi kompleksitas file, atau meningkatkan ke jenis instans yang lebih besar.