View a markdown version of this page

Lecture à partir d' QuickBooks entités - AWS Glue

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Lecture à partir d' QuickBooks entités

Prérequis

Un QuickBooks objet que vous aimeriez lire.

Entités prises en charge pour la source :

Entité Peut être filtré Limit prise en charge Order by prise en charge Select prise en charge* Partitionnement pris en charge
Compte Oui Oui Oui Oui Oui
Bill Oui Oui Oui Oui Oui
Company Info Non Non Non Oui Non
Client Oui Oui Oui Oui Oui
Employee Oui Oui Oui Oui Oui
Estimate Oui Oui Oui Oui Oui
Invoice Oui Oui Oui Oui Oui
Élément Oui Oui Oui Oui Oui
Payment Oui Oui Oui Oui Oui
Préférences Non Non Non Oui Non
Profit and Loss Oui Non Non Oui Non
Tax Agency Oui Oui Oui Oui Oui
Vendors Oui Oui Oui Oui Oui

Exemple :

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "ENTITY_NAME": "Account", "API_VERSION": "v3" }

QuickBooks détails de l'entité et du champ :

Pour plus d’informations sur les entités et de détails sur les champs, consultez :

Requêtes de partitionnement

Partitionnement basé sur les champs :

Dans QuickBooks, les champs Integer et DateTime datatype prennent en charge le partitionnement basé sur les champs.

Vous pouvez indiquer les options Spark supplémentaires PARTITION_FIELD, LOWER_BOUND, UPPER_BOUND et NUM_PARTITIONS si vous souhaitez utiliser la simultanéité dans Spark. Avec ces paramètres, la requête d’origine serait divisée en NUM_PARTITIONS nombres de sous-requêtes pouvant être exécutées simultanément par les tâches Spark.

  • PARTITION_FIELD : le nom du champ à utiliser pour partitionner la requête.

  • LOWER_BOUND : une valeur limite inférieure inclusive du champ de partition choisi.

    Pour le champ Datetime, nous acceptons le format d’horodatage Spark utilisé dans les requêtes SQL Spark.

    Exemples de valeurs valides :

    "2024-05-07T02:03:00.00Z"
  • UPPER_BOUND : une valeur limite supérieure exclusive du champ de partition choisi.

  • NUM_PARTITIONS : le nombre de partitions.

Exemple :

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "REALMID": "12345678690123456789", "ENTITY_NAME": "Account", "API_VERSION": "v3", "PARTITION_FIELD": "MetaData_CreateTime" "LOWER_BOUND": "2023-09-07T02:03:00.000Z" "UPPER_BOUND": "2024-05-07T02:03:00.000Z" "NUM_PARTITIONS": "10" }

Partitionnement basé sur des enregistrements :

La requête d’origine est divisée en NUM_PARTITIONS nombres de sous-requêtes qui peuvent être exécutées simultanément par les tâches Spark :

  • NUM_PARTITIONS : le nombre de partitions.

Exemple :

QuickBooks_read = glueContext.create_dynamic_frame.from_options( connection_type="quickbooks", connection_options={ "connectionName": "connectionName", "REALMID": "1234567890123456789", "ENTITY_NAME": "Bill", "API_VERSION": "v3", "NUM_PARTITIONS": "10" }