Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Carga de datos en Amazon Neptune mediante consultas
Neptune permite escribir datos directamente a través de operaciones de lenguaje de consulta. Puede utilizar operaciones de escritura estándar, como CREATE y MERGE en OpenCypher, en SPARQL o INSERT en Gremlin, para añadir o mergeV() modificar datos mergeE() en el gráfico. Estas operaciones son adecuadas para actualizaciones incrementales y escrituras transaccionales.
Para cargar datos desde Amazon S3, utilice el Uso del programa de carga masiva de Amazon Neptune para adquirir datos para conjuntos de datos grandes que requieran un rendimiento optimizado. Para conjuntos de datos más pequeños en uno o varios archivos de Amazon S3, puede utilizar las funciones de carga basadas en consultas para leer y procesar los datos directamente dentro de sus consultas.
Están disponibles las siguientes funciones de carga basadas en consultas:
OpenCypher: neptune.read ()
La neptune.read() función lee archivos CSV o Parquet de Amazon S3 dentro de una CALL subconsulta, lo que le permite procesar y cargar datos en el momento de la consulta.
CALL neptune.read({ source: "s3://bucket/data.csv", format: "csv" }) YIELD row CREATE (n:Person {id: row.id, name: row.name})
Para obtener la documentación completa, consulteneptune.read ().
SPARQL: CARGA Y DESCARGA
LOADLas operaciones de SPARQL importan datos RDF de un URI a un gráfico con nombre. UNLOADexporta datos de un gráfico a Amazon S3.
LOAD <s3://bucket/data.ttl> INTO GRAPH <http://example.org/graph>
Para obtener la documentación completa, consulteUso de SPARQL UPDATE LOAD para importar datos a Neptune.
Gremlin: io () step
También puedes usar el g.io(URL).read() paso de Gremlin para leer archivos de datos en GraphML
g.io("s3://bucket/data.graphml").read().iterate()
Consulta la documentación para obtener más informaciónTinkerPop.