

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Affichage des résultats et des détails du crawler
<a name="console-crawlers-details"></a>

 Une fois que l’crawler s’exécute correctement, il crée des définitions de table dans Data Catalog. Sélectionnez **Tables** dans le panneau de navigation pour afficher les tables créées par votre crawler dans la base de données que vous avez spécifiée. 

 Vous pouvez afficher les informations relatives à l’crawler lui-même comme suit :
+ La page **Crawlers** de la AWS Glue console affiche les propriétés suivantes d'un robot d'exploration :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/glue/latest/dg/console-crawlers-details.html)
+  Pour afficher l’historique d’un crawler, choisissez **Crawlers** dans le panneau de navigation pour voir les crawlers que vous avez créés. Choisissez un crawler dans la liste des crawlers disponibles. Vous pouvez consulter les propriétés du crawler et consulter l’historique du crawler dans l’onglet **Crawler runs** (Exécutions du crawler). 

   L’onglet Crawler s’exécute affiche des informations sur chaque exécution du crawler, notamment l’**heure de début (UTC),** l’**heure de fin (UTC)**, la **durée**, l’**état**, les **heures DPU**, et les **modifications apportées aux tables**. 

  L’onglet Exécutions du Crawler affiche uniquement les analyses qui ont eu lieu depuis la date de lancement de la fonction d’historique du Crawler et ne retient que jusqu’à 12 mois d’analyse. Les anciennes analyses ne seront pas renvoyées.
+ Pour voir des informations supplémentaires, choisissez un onglet sur la page de détails du crawler. Chaque onglet affiche les informations relatives au crawler. 
  +  **Schedule** (Programme) : tous les programmes créés pour le crawler seront visibles ici. 
  +  **Data sources** (Sources de données) : toutes les sources de données analysées par le crawler seront visibles ici. 
  +  **Classifiers** (Classifieurs) : tous les classifieurs assignés au crawler seront visibles ici. 
  +  **Balises** : toutes les balises créées et attribuées à une AWS ressource seront visibles ici. 

# Paramètres définis sur les tables du Catalogue de données par un Crawler
<a name="table-properties-crawler"></a>

 Ces propriétés de table sont définies par les AWS Glue robots d'exploration. Nous nous attendons à ce que les utilisateurs consomment les propriétés `classification` et `compressionType`. D'autres propriétés, dont les estimations de la taille des tables, sont utilisées pour les calculs internes, et nous ne garantissons pas leur exactitude ou leur applicabilité aux cas d'utilisation des clients. La modification de ces paramètres peut modifier le comportement du Crawler. Nous ne prenons pas en charge ce flux. 


| Clé de propriété | Valeur de la propriété | 
| --- | --- | 
| UPDATED\$1BY\$1CRAWLER | Nom du Crawler qui effectue la mise à jour. | 
| connectionName | Nom de la connexion dans le catalogue de données pour le crawler utilisé pour se connecter au magasin de données. | 
| recordCount | Estimation du nombre d'enregistrements dans la table, basée sur la taille des fichiers et des en-têtes. | 
| skip.header.line.count | Lignes ignorées pour ignorer l'en-tête. Définie sur des tables classées au format CSV. | 
| CrawlerSchemaSerializerVersion | Pour utilisation interne | 
| classification | Format des données, déduit par le Crawler. Pour plus d'informations sur les formats de données pris en charge par les AWS Glue robots d'exploration, consultez[Classifieurs intégrés](add-classifier.md#classifier-built-in). | 
| CrawlerSchemaDeserializerVersion | Pour utilisation interne | 
| sizeKey | Taille combinée des fichiers dans la table indexée. | 
| averageRecordSize | Taille moyenne des lignes dans la table, en octets. | 
| compressionType | Type de compression utilisé sur les données de la table. Pour plus d'informations sur les types de compression pris en charge par les AWS Glue robots d'exploration, consultez[Classifieurs intégrés](add-classifier.md#classifier-built-in). | 
| typeOfData | `file`, `table` ou `view`. | 
| objectCount | Nombre d'objets sous le chemin Amazon S3 pour la table. | 

 Ces propriétés de table supplémentaires sont définies par les robots d' AWS Glue exploration pour les magasins de données Snowflake. 


| Clé de propriété | Valeur de la propriété | 
| --- | --- | 
| aws:RawTableLastAltered | Enregistre le dernier horodatage modifié de la table Snowflake. | 
| ViewOriginalText | Affichez l'Instruction SQL. | 
| ViewExpandedText | Affichez l'instruction SQL codée au format Base64. | 
| ExternalTable:S3Location | Emplacement Amazon S3 de la table externe Snowflake. | 
| ExternalTable:FileFormat | Format de fichier Amazon S3 de la table externe Snowflake. | 

 Ces propriétés de table supplémentaires sont définies par des robots d' AWS Glue exploration pour les magasins de données de type JDBC tels qu'Amazon Redshift, Microsoft SQL Server, MySQL, PostgreSQL et Oracle. 


| Clé de propriété | Valeur de la propriété | 
| --- | --- | 
| aws:RawType | Lorsqu'un crawler stocke les données dans le catalogue de données, il traduit les types de données en types compatibles avec Hive, ce qui entraîne souvent la perte des informations relatives au type de données natif. Le crawler génère le paramètre `aws:RawType` pour fournir le type de données de niveau natif. | 
| aws:RawColumnComment | Si un commentaire est associé à une colonne de la base de données, le crawler génère le commentaire correspondant dans la table du catalogue. La chaîne de commentaire est tronquée à 255 octets. Les commentaires ne sont pas pris en charge pour Microsoft SQL Server.  | 
| aws:RawTableComment | Si un commentaire est associé à une table de la base de données, le crawler génère le commentaire correspondant dans la table du catalogue. La chaîne de commentaire est tronquée à 255 octets. Les commentaires ne sont pas pris en charge pour Microsoft SQL Server. | 