Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Caricamento di dati in Amazon Neptune tramite query
Neptune supporta la scrittura di dati direttamente tramite operazioni di linguaggio di interrogazione. È possibile utilizzare operazioni di scrittura standard come CREATE e MERGE in OpenCypher, in SPARQL o INSERT in Gremlin per aggiungere o mergeV() modificare dati mergeE() nel grafico. Queste operazioni sono adatte per aggiornamenti incrementali e scritture transazionali.
Per caricare dati da Amazon S3, usa il Utilizzo del bulk loader Amazon Neptune per importare dati set di dati di grandi dimensioni che richiedono prestazioni ottimizzate. Per set di dati più piccoli in uno o pochi file Amazon S3, puoi utilizzare funzioni di caricamento basate su query per leggere ed elaborare i dati direttamente all'interno delle tue query.
Sono disponibili le seguenti funzioni di caricamento basate su query:
OpenCypher: neptune.read ()
La neptune.read() funzione legge i file CSV o Parquet da Amazon S3 all'interno di CALL una sottoquery, consentendoti di elaborare e caricare i dati al momento della query.
CALL neptune.read({ source: "s3://bucket/data.csv", format: "csv" }) YIELD row CREATE (n:Person {id: row.id, name: row.name})
Per la documentazione completa, consulta. neptune.read ()
SPARQL: CARICA e SCARICA
LOADLe operazioni SPARQL importano dati RDF da un URI in un grafico denominato. UNLOADesporta i dati da un grafico in Amazon S3.
LOAD <s3://bucket/data.ttl> INTO GRAPH <http://example.org/graph>
Per la documentazione completa, consultaUtilizzo di SPARQL UPDATE LOAD per l'importazione di dati in Neptune.
Gremlin: passo io ()
Puoi anche usare il g.io(URL).read() passaggio di Gremlin per leggere file di dati in GraphML (un formato XML), GraphSon
g.io("s3://bucket/data.graphml").read().iterate()
Consulta la documentazione per i dettagli. TinkerPop