

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Anzeigen von Crawler-Ergebnissen und -Details
<a name="console-crawlers-details"></a>

 Nachdem der Crawler erfolgreich ausgeführt wurde, erstellt er Tabellendefinitionen im Data Catalog. Wählen Sie im Navigationsbereich die Option **Tables (Tabellen)** aus, um die Tabellen anzuzeigen, die von Ihrem Crawler in der von Ihnen angegebenen Datenbank erstellt wurden. 

 Sie können Informationen zum Crawler selbst wie folgt anzeigen:
+ Auf der Seite **Crawler** auf der AWS Glue Konsole werden die folgenden Eigenschaften für einen Crawler angezeigt:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/glue/latest/dg/console-crawlers-details.html)
+  Um den Verlauf für einen Crawler anzuzeigen, wählen Sie **Crawler** im Navigationsbereich, um die von Ihnen erstellten Crawler anzuzeigen. Wählen Sie einen Crawler aus der Liste der verfügbaren Crawler aus. Sie können die Crawler-Eigenschaften und den Crawler-Verlauf auf der Registerkarte **Crawler runs** (Crawler-Ausführungen) einsehen. 

   Auf der Registerkarte „Crawler runs“ (Crawler-Ausführungen) werden Informationen zu jedem Zeitpunkt angezeigt, zu dem der Crawler ausgeführt wurde, einschließlich **Startzeit (UTC),** **Endzeit (UTC)**,**Dauer**, **Status**, **DPU-Stunden** und **Tabellenänderungen**. 

  Die Registerkarte der Crawler-Ausführungen gibt nur die Crawls zurück, die seit dem Startdatum des Crawler-Verlaufs-Features stattgefunden haben, und behält Crawls nur bis zu 12 Monate bei. Ältere Crawls werden nicht zurückgegeben.
+ Um zusätzliche Informationen anzuzeigen, wählen Sie eine Registerkarte auf der Seite mit den Crawler-Details aus. Auf jeder Registerkarte werden Informationen zum Crawler angezeigt. 
  +  **Plan**: Alle für den Crawler erstellten Zeitpläne werden hier angezeigt. 
  +  **Datenquellen**: Alle vom Crawler gescannten Datenquellen werden hier angezeigt. 
  +  **Classifier**: Alle dem Crawler zugewiesenen Classifier werden hier angezeigt. 
  +  **Tags**: Alle Tags, die erstellt und einer AWS Ressource zugewiesen wurden, werden hier angezeigt. 

# Parameter, die vom Crawler in Data-Catalog-Tabellen festgelegt wurden
<a name="table-properties-crawler"></a>

 Diese Tabelleneigenschaften werden von AWS Glue Crawlern festgelegt. Wir erwarten, dass Benutzer die `classification`- und `compressionType`-Eigenschaften nutzen. Andere Eigenschaften, einschließlich Schätzungen der Tabellengröße, werden für interne Berechnungen verwendet, und wir übernehmen keine Garantie für deren Richtigkeit oder Anwendbarkeit auf Kundenanwendungsfälle. Das Ändern dieser Parameter kann das Verhalten des Crawlers verändern. Wir unterstützen diesen Workflow nicht. 


| Eigenschaftsschlüssel | Eigenschaftenwert | 
| --- | --- | 
| UPDATED\$1BY\$1CRAWLER | Name des Crawlers, der die Aktualisierung durchführt. | 
| connectionName | Der Name der Verbindung im Data Catalog für den Crawler, der zum Herstellen einer Verbindung mit dem Datenspeicher verwendet wird. | 
| recordCount | Schätzen Sie die Anzahl der Datensätze in der Tabelle, basierend auf Dateigrößen und Kopfzeilen. | 
| skip.header.line.count | Zeilen wurden übersprungen, um die Kopfzeile zu überspringen. Wird auf Tabellen gesetzt, die als CSV klassifiziert sind. | 
| CrawlerSchemaSerializerVersion | Zur internen Verwendung | 
| classification | Format der Daten, abgeleitet vom Crawler. Weitere Informationen zu den von AWS Glue Crawlern unterstützten Datenformaten finden Sie unter. [Integrierte Klassifizierer](add-classifier.md#classifier-built-in) | 
| CrawlerSchemaDeserializerVersion | Zur internen Verwendung | 
| sizeKey | Kombinierte Größe der Dateien in der gecrawlten Tabelle. | 
| averageRecordSize | Durchschnittliche Zeilengröße in der Tabelle, in Bytes. | 
| compressionType | Art der Komprimierung, die für Daten in der Tabelle verwendet wird. Weitere Informationen zu den von AWS Glue Crawlern unterstützten Komprimierungstypen finden Sie unter. [Integrierte Klassifizierer](add-classifier.md#classifier-built-in) | 
| typeOfData | `file`, `table` oder `view`. | 
| objectCount | Anzahl der Objekte unter dem Amazon-S3-Pfad für die Tabelle. | 

 Diese zusätzlichen Tabelleneigenschaften werden von AWS Glue Crawlern für Snowflake-Datenspeicher festgelegt. 


| Eigenschaftsschlüssel | Eigenschaftenwert | 
| --- | --- | 
| aws:RawTableLastAltered | Zeichnet den letzten geänderten Zeitstempel der Snowflake-Tabelle auf. | 
| ViewOriginalText | Zeigt die SQL-Anweisung an. | 
| ViewExpandedText | Zeigt eine im Base64-Format codierte SQL-Anweisung an. | 
| ExternalTable:S3Location | Amazon-S3-Speicherort der externen Snowflake-Tabelle. | 
| ExternalTable:FileFormat | Amazon S3-Dateiformat der externen Snowflake-Tabelle. | 

 Diese zusätzlichen Tabelleneigenschaften werden von AWS Glue Crawlern für Datenspeicher vom Typ JDBC wie Amazon Redshift, Microsoft SQL Server, MySQL, PostgreSQL und Oracle festgelegt. 


| Eigenschaftsschlüssel | Eigenschaftenwert | 
| --- | --- | 
| aws:RawType | Wenn ein Crawler die Daten im Data Catalog speichert, übersetzt er die Datentypen in Hive-kompatible Typen, was häufig dazu führt, dass die Informationen zum nativen Datentyp verloren gehen. Der Crawler gibt den `aws:RawType`-Parameter aus, um den Datentyp auf nativer Ebene bereitzustellen. | 
| aws:RawColumnComment | Wenn einer Spalte in der Datenbank ein Kommentar zugeordnet ist, gibt der Crawler den entsprechenden Kommentar in der Katalogtabelle aus. Die Kommentarzeichenfolge wird auf 255 Byte gekürzt. Kommentare werden für Microsoft SQL Server nicht unterstützt.  | 
| aws:RawTableComment | Wenn einer Tabelle in der Datenbank ein Kommentar zugeordnet ist, gibt der Crawler den entsprechenden Kommentar in der Katalogtabelle aus. Die Kommentarzeichenfolge wird auf 255 Byte gekürzt. Kommentare werden für Microsoft SQL Server nicht unterstützt. | 