View a markdown version of this page

Aus QuickBooks Entitäten lesen - AWS Glue

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Aus QuickBooks Entitäten lesen

Voraussetzung

Ein QuickBooks Objekt, aus dem Sie lesen möchten.

Unterstützte Entitäten für Quelle:

Entität Kann gefiltert werden Unterstützt Limit Unterstützt „Sortieren nach“ Unterstützt „* auswählen“ Unterstützt Partitionierung
Account Ja Ja Ja Ja Ja
Rechnung Ja Ja Ja Ja Ja
Unternehmensinformationen Nein Nein Nein Ja Nein
Customer Ja Ja Ja Ja Ja
Mitarbeiter Ja Ja Ja Ja Ja
Schätzen Ja Ja Ja Ja Ja
Rechnung Ja Ja Ja Ja Ja
Item Ja Ja Ja Ja Ja
Zahlung Ja Ja Ja Ja Ja
Präferenzen Nein Nein Nein Ja Nein
Gewinn und Verlust Ja Nein Nein Ja Nein
Steuerbehörde Ja Ja Ja Ja Ja
Anbieter Ja Ja Ja Ja Ja

Beispiel:

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "Account", "API_VERSION": "v3" }

QuickBooks Entitäts- und Felddetails:

Weitere Informationen zu den Entitäten und Felddetails finden Sie unter:

Partitionierung von Abfragen

Feldbasierte Partitionierung:

In unterstützen QuickBooks die Felder Integer und DateTime Datatype feldbasierte Partitionierung.

Sie können die zusätzlichen Spark-Optionen PARTITION_FIELD,LOWER_BOUND, UPPER_BOUND und NUM_PARTITIONS angeben, wenn Sie Parallelität in Spark nutzen möchten. Mit diesen Parametern wird die ursprüngliche Abfrage in NUM_PARTITIONS Unterabfragen aufgeteilt, die von Spark-Aufgaben gleichzeitig ausgeführt werden können.

  • PARTITION_FIELD: der Name des Feldes, das zur Partitionierung der Abfrage verwendet werden soll.

  • LOWER_BOUND: ein inklusiver Untergrenzwert des ausgewählten Partitionsfelds.

    Für das DateTime-Feld akzeptieren wir das Spark-Zeitstempelformat, das in Spark-SQL-Abfragen verwendet wird.

    Beispiele für gültigen Wert:

    "2024-05-07T02:03:00.00Z"
  • UPPER_BOUND: ein exklusiver Obergrenzwert des ausgewählten Partitionsfelds.

  • NUM_PARTITIONS: Die Anzahl an Partitionen.

Beispiel:

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "REALMID": "12345678690123456789", "ENTITY_NAME": "Account", "API_VERSION": "v3", "PARTITION_FIELD": "MetaData_CreateTime" "LOWER_BOUND": "2023-09-07T02:03:00.000Z" "UPPER_BOUND": "2024-05-07T02:03:00.000Z" "NUM_PARTITIONS": "10" }

Datensatzbasierte Partitionierung:

Die ursprüngliche Abfrage ist in NUM_PARTITIONS Unterabfragen aufgeteilt, die von Spark-Aufgaben gleichzeitig ausgeführt werden können.

  • NUM_PARTITIONS: Die Anzahl an Partitionen.

Beispiel:

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "REALMID": "1234567890123456789", "ENTITY_NAME": "Bill", "API_VERSION": "v3", "NUM_PARTITIONS": "10" }