

# API do crawler
<a name="aws-glue-api-crawler-crawling"></a>

A API de crawler descreve os tipos de dados de crawler do AWS Glue, juntamente com a API para criar, excluir, atualizar e listar crawlers.

## Tipos de dados
<a name="aws-glue-api-crawler-crawling-objects"></a>
+ [Estrutura Crawler](#aws-glue-api-crawler-crawling-Crawler)
+ [Estrutura Schedule](#aws-glue-api-crawler-crawling-Schedule)
+ [Estrutura CrawlerTargets](#aws-glue-api-crawler-crawling-CrawlerTargets)
+ [Estrutura S3Target](#aws-glue-api-crawler-crawling-S3Target)
+ [Estrutura S3DeltaCatalogTarget](#aws-glue-api-crawler-crawling-S3DeltaCatalogTarget)
+ [Estrutura S3DeltaDirectTarget](#aws-glue-api-crawler-crawling-S3DeltaDirectTarget)
+ [Estrutura JdbcTarget](#aws-glue-api-crawler-crawling-JdbcTarget)
+ [Estrutura MongoDBTarget](#aws-glue-api-crawler-crawling-MongoDBTarget)
+ [Estrutura DynamoDBTarget](#aws-glue-api-crawler-crawling-DynamoDBTarget)
+ [Estrutura DeltaTarget](#aws-glue-api-crawler-crawling-DeltaTarget)
+ [Estrutura do IcebergTarget](#aws-glue-api-crawler-crawling-IcebergTarget)
+ [Estrutura HudiTarget](#aws-glue-api-crawler-crawling-HudiTarget)
+ [Estrutura CatalogTarget](#aws-glue-api-crawler-crawling-CatalogTarget)
+ [Estrutura CrawlerMetrics](#aws-glue-api-crawler-crawling-CrawlerMetrics)
+ [Estrutura de CrawlerHistory](#aws-glue-api-crawler-crawling-CrawlerHistory)
+ [Estrutura de CrawlsFilter](#aws-glue-api-crawler-crawling-CrawlsFilter)
+ [Estrutura SchemaChangePolicy](#aws-glue-api-crawler-crawling-SchemaChangePolicy)
+ [Estrutura LastCrawlInfo](#aws-glue-api-crawler-crawling-LastCrawlInfo)
+ [Estrutura RecrawlPolicy](#aws-glue-api-crawler-crawling-RecrawlPolicy)
+ [Estrutura LineageConfiguration](#aws-glue-api-crawler-crawling-LineageConfiguration)
+ [Estrutura LakeFormationConfiguration](#aws-glue-api-crawler-crawling-LakeFormationConfiguration)

## Estrutura Crawler
<a name="aws-glue-api-crawler-crawling-Crawler"></a>

Especifica um programa de crawler que examina uma fonte de dados e usa classificadores para tentar determinar seu esquema. Se for bem-sucedido, o crawler registrará metadados da fonte de dados no AWS Glue Data Catalog.

**Campos**
+ `Name` – String UTF-8, superior a 1 e inferior a 255 bytes de comprimento, correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do crawler.
+ `Role` – String UTF-8.

  O nome do recurso da Amazon (ARN) de um perfil do IAM que é usada para acessar os recursos do cliente, como o Amazon Simple Storage Service (Amazon S3).
+ `Targets` – Um objeto [CrawlerTargets](#aws-glue-api-crawler-crawling-CrawlerTargets).

  Uma coleção de destinos a serem rastreados.
+ `DatabaseName` – String UTF-8.

  O nome do banco de dados no qual a saída do crawler é armazenada.
+ `Description` – string de descrição com no máximo 2.048 bytes de comprimento e correspondente a [URI address multi-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-uri).

  Uma descrição do crawler.
+ `Classifiers` – Uma matriz de strings UTF-8.

  Uma lista de strings UTF-8 que especificam os classificadores personalizados associados ao crawler.
+ `RecrawlPolicy` – Um objeto [RecrawlPolicy](#aws-glue-api-crawler-crawling-RecrawlPolicy).

  Uma política que especifica se deseja rastrear todo o conjunto de dados novamente ou rastrear somente pastas que foram adicionadas desde a última execução do crawler.
+ `SchemaChangePolicy` – Um objeto [SchemaChangePolicy](#aws-glue-api-crawler-crawling-SchemaChangePolicy).

  A política que especifica os comportamentos de atualização e exclusão do crawler.
+ `LineageConfiguration` – Um objeto [LineageConfiguration](#aws-glue-api-crawler-crawling-LineageConfiguration).

  Uma configuração que especifica se a linhagem de dados está habilitada para o crawler.
+ `State` – string UTF-8 (valores válidos: `READY` \$1 `RUNNING` \$1 `STOPPING`).

  Indica se o crawler está em execução ou se uma execução está pendente.
+ `TablePrefix` – String UTF-8 com comprimento não superior a 128 bytes.

  O prefixo adicionado aos nomes das tabelas criadas.
+ `Schedule` – Um objeto [Programação](aws-glue-api-crawler-scheduler.md#aws-glue-api-crawler-scheduler-Schedule).

  Para crawlers programados, a programação quando o crawler é executado.
+ `CrawlElapsedTime` – Número (extenso).

  Se o crawler estiver em execução, conterá o tempo decorrido total desde o início do rastreamento.
+ `CreationTime` – Timestamp.

  A hora em que o crawler foi criado.
+ `LastUpdated` – Timestamp.

  A hora em que o crawler foi atualizado pela última vez.
+ `LastCrawl` – Um objeto [LastCrawlInfo](#aws-glue-api-crawler-crawling-LastCrawlInfo).

  O status do último rastreamento e informações de erro (se houver algum).
+ `Version` – Número (extenso).

  A versão do crawler.
+ `Configuration` – String UTF-8.

  Informações de configuração do crawler. Esta string JSON com versionamento permite que os usuários especifiquem os aspectos do comportamento de um crawler. Para obter mais informações, consulte [Definir opções de configuração do crawler](https://docs.aws.amazon.com/glue/latest/dg/crawler-configuration.html).
+ `CrawlerSecurityConfiguration` – String UTF-8 com comprimento não superior a 128 bytes.

  O nome da estrutura `SecurityConfiguration` a ser usada por este crawler.
+ `LakeFormationConfiguration` – Um objeto [LakeFormationConfiguration](#aws-glue-api-crawler-crawling-LakeFormationConfiguration).

  Especifica se o crawler deve usar credenciais AWS Lake Formation para o crawler em vez das credenciais de função do IAM.

## Estrutura Schedule
<a name="aws-glue-api-crawler-crawling-Schedule"></a>

Um objeto de programação que usa uma instrução `cron` para programar um evento.

**Campos**
+ `ScheduleExpression` – String UTF-8.

  Uma expressão `cron` usada para especificar a programação (consulte [Programações baseadas em hora para tarefas e crawlers](https://docs.aws.amazon.com/glue/latest/dg/monitor-data-warehouse-schedule.html). Por exemplo, para executar algo todos os dias às 12h15 UTC, especifique: `cron(15 12 * * ? *)`.
+ `State` – string UTF-8 (valores válidos: `SCHEDULED` \$1 `NOT_SCHEDULED` \$1 `TRANSITIONING`).

  O estado da programação.

## Estrutura CrawlerTargets
<a name="aws-glue-api-crawler-crawling-CrawlerTargets"></a>

Especifica os armazenamentos de dados a serem rastreados.

**Campos**
+ `S3Targets`: um array de objetos [S3Target](#aws-glue-api-crawler-crawling-S3Target).

  Especifica os destinos do Amazon Simple Storage Service (Amazon S3).
+ `JdbcTargets`: um array de objetos [JdbcTarget](#aws-glue-api-crawler-crawling-JdbcTarget).

  Especifica destinos JDBC.
+ `MongoDBTargets`: um array de objetos [MongoDBTarget](#aws-glue-api-crawler-crawling-MongoDBTarget).

  Especifica destinos do Amazon DocumentDB ou MongoDB.
+ `DynamoDBTargets`: um array de objetos [DynamoDBTarget](#aws-glue-api-crawler-crawling-DynamoDBTarget).

  Especifica os destinos do Amazon DynamoDB.
+ `CatalogTargets`: um array de objetos [CatalogTarget](#aws-glue-api-crawler-crawling-CatalogTarget).

  Especifica destinos do AWS Glue Data Catalog.
+ `DeltaTargets`: um array de objetos [DeltaTarget](#aws-glue-api-crawler-crawling-DeltaTarget).

  Especifica os destinos do armazenamento de dados Delta.
+ `IcebergTargets`: um array de objetos [IcebergTarget](#aws-glue-api-crawler-crawling-IcebergTarget).

  Especifica os destinos do armazenamento de dados do Apache Iceberg.
+ `HudiTargets`: um array de objetos [HudiTarget](#aws-glue-api-crawler-crawling-HudiTarget).

  Especifica os destinos do armazenamento de dados do Apache Hudi.

## Estrutura S3Target
<a name="aws-glue-api-crawler-crawling-S3Target"></a>

Especifica um armazenamento de dados no Amazon Simple Storage Service (Amazon S3).

**Campos**
+ `Path` – String UTF-8.

  O caminho do destino do Amazon S3.
+ `Exclusions` – Uma matriz de strings UTF-8.

  Uma lista de padrões glob utilizados para a exclusão do rastreamento. Para obter mais informações, consulte [Catalogar tabelas com um crawler](https://docs.aws.amazon.com/glue/latest/dg/add-crawler.html).
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome de uma conexão que permite que um trabalho ou crawler acesse dados no Amazon S3 em um ambiente do Amazon Virtual Private Cloud (Amazon VPC).
+ `SampleSize` – Número (íntegro).

  Define o número de arquivos em cada pasta de folha a serem rastreados ao realizar crawling de arquivos de amostra em um conjunto de dados. Se não for definido, todos os arquivos serão rastreados. Um valor válido é um número inteiro entre 1 e 249.
+ `EventQueueArn` – String UTF-8.

  Um ARN válido do Amazon SQS. Por exemplo, `arn:aws:sqs:region:account:sqs`.
+ `DlqEventQueueArn` – String UTF-8.

  Um ARN do SQS de mensagem morta válida da Amazon. Por exemplo, `arn:aws:sqs:region:account:deadLetterQueue`.

## Estrutura S3DeltaCatalogTarget
<a name="aws-glue-api-crawler-crawling-S3DeltaCatalogTarget"></a>

Especifica um destino que grava em uma fonte de dados do Delta Lake no catálogo de dados do AWS Glue.

**Campos**
+ `Name` – *Obrigatório:* string UTF-8, correspondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  O nome do destino de dados.
+ `Inputs`: *obrigatório:* uma matriz de strings UTF-8, não menos de 1 ou mais de 1 strings.

  Os nós que são entradas para o destino de dados.
+ `PartitionKeys` – Uma matriz de strings UTF-8.

  Especifica o particionamento nativo usando uma sequência de chaves.
+ `Table` – *Obrigatório:* string UTF-8, correspondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  O nome da tabela no banco de dados na qual gravar.
+ `Database` – *Obrigatório:* string UTF-8, correspondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  O nome do banco de dados no qual gravar.
+ `AdditionalOptions` – Um array de mapa dos pares de valor-chave.

  Cada chave é uma string UTF-8 que corresponde a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Cada valor é uma string UTF-8 que corresponde a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Especifica as opções de conexão adicionais para o conector.
+ `SchemaChangePolicy` – Um objeto [CatalogSchemaChangePolicy](aws-glue-api-visual-job-api.md#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  Uma política que especifica o comportamentos de atualização do crawler.
+ `AutoDataQuality` – Um objeto [AutoDataQuality](aws-glue-api-visual-job-api.md#aws-glue-api-visual-job-api-AutoDataQuality).

  Especifica se a avaliação da qualidade dos dados deve ser habilitada automaticamente para o destino do catálogo Delta do S3. Quando definido como `true`, as verificações de qualidade dos dados são realizadas automaticamente durante a operação de gravação.
+ `OutputSchemas`: um array de objetos [GlueSchema](aws-glue-api-visual-job-api.md#aws-glue-api-visual-job-api-GlueSchema).

  Especifica o esquema de dados para o destino do catálogo Delta do S3.

## Estrutura S3DeltaDirectTarget
<a name="aws-glue-api-crawler-crawling-S3DeltaDirectTarget"></a>

Especifica um destino que grava em uma fonte de dados do Delta Lake no Amazon S3.

**Campos**
+ `Name` – *Obrigatório:* string UTF-8, correspondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  O nome do destino de dados.
+ `Inputs`: *obrigatório:* uma matriz de strings UTF-8, não menos de 1 ou mais de 1 strings.

  Os nós que são entradas para o destino de dados.
+ `PartitionKeys` – Uma matriz de strings UTF-8.

  Especifica o particionamento nativo usando uma sequência de chaves.
+ `Path` – *Obrigatório:* string UTF-8, correspondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  O caminho do Amazon S3 da fonte de dados do Delta Lake na qual gravar.
+ `Compression` – *Obrigatório:* string UTF-8 (valores válidos: `uncompressed="UNCOMPRESSED"` \$1 `snappy="SNAPPY"`).

  Especifica como os dados são compactados. Isso geralmente não é necessário se os dados tem uma extensão de arquivo padrão. Os possíveis valores são `"gzip"` e `"bzip"`).
+ `NumberTargetPartitions` – String UTF-8.

  Especifica o número de partições de destino para distribuição dos arquivos do conjunto de dados do Data Lake no Amazon S3.
+ `Format`: *obrigatório:* string UTF-8 (valores válidos: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Especifica o formato de saída de dados para o destino.
+ `AdditionalOptions` – Um array de mapa dos pares de valor-chave.

  Cada chave é uma string UTF-8 que corresponde a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Cada valor é uma string UTF-8 que corresponde a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Especifica as opções de conexão adicionais para o conector.
+ `SchemaChangePolicy` – Um objeto [DirectSchemaChangePolicy](aws-glue-api-visual-job-api.md#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Uma política que especifica o comportamentos de atualização do crawler.
+ `AutoDataQuality` – Um objeto [AutoDataQuality](aws-glue-api-visual-job-api.md#aws-glue-api-visual-job-api-AutoDataQuality).

  Especifica se a avaliação da qualidade dos dados deve ser habilitada automaticamente para o destino direto Delta do S3. Quando definido como `true`, as verificações de qualidade dos dados são realizadas automaticamente durante a operação de gravação.

## Estrutura JdbcTarget
<a name="aws-glue-api-crawler-crawling-JdbcTarget"></a>

Especifica um armazenamento de dados JDBC a ser rastreado.

**Campos**
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão a ser usada para se conectar com o destino JDBC.
+ `Path` – String UTF-8.

  O caminho do destino do JDBC.
+ `Exclusions` – Uma matriz de strings UTF-8.

  Uma lista de padrões glob utilizados para a exclusão do rastreamento. Para obter mais informações, consulte [Catalogar tabelas com um crawler](https://docs.aws.amazon.com/glue/latest/dg/add-crawler.html).
+ `EnableAdditionalMetadata` – Uma matriz de strings UTF-8.

  Especifique um valor de `RAWTYPES` ou `COMMENTS` para habilitar metadados adicionais nas respostas da tabela. O `RAWTYPES` fornece o tipo de dados de nível nativo. O `COMMENTS` fornece comentários associados a uma coluna ou tabela no banco de dados.

  Se você não precisar de metadados adicionais, deixe o campo vazio.

## Estrutura MongoDBTarget
<a name="aws-glue-api-crawler-crawling-MongoDBTarget"></a>

Especifica um armazenamento de dados do Amazon DocumentDB ou MongoDB a ser rastreado.

**Campos**
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão a ser usada para se conectar com o destino do Amazon DocumentDB ou MongoDB.
+ `Path` – String UTF-8.

  O caminho do destino do Amazon DocumentDB ou MongoDB (banco de dados/coleção).
+ `ScanAll` – Booleano.

  Indica se deseja verificar todos os registros ou amostras de linhas da tabela. A verificação de todos os registros pode levar muito tempo quando a tabela não é de throughput alto.

  Um valor de `true` indica para verificar todos os registros, enquanto um valor de `false` indica para criar amostra dos registros. Se nenhum valor for especificado, o valor será assumido como padrão `true`.

## Estrutura DynamoDBTarget
<a name="aws-glue-api-crawler-crawling-DynamoDBTarget"></a>

Especifica uma tabela do Amazon DynamoDB para ser rastreada.

**Campos**
+ `Path` – String UTF-8.

  O nome da tabela do DynamoDB a ser rastreada.
+ `scanAll` – Booleano.

  Indica se deseja verificar todos os registros ou amostras de linhas da tabela. A verificação de todos os registros pode levar muito tempo quando a tabela não é de throughput alto.

  Um valor de `true` indica para verificar todos os registros, enquanto um valor de `false` indica para criar amostra dos registros. Se nenhum valor for especificado, o valor será assumido como padrão `true`.
+ `scanRate` – Número (duplo).

  A porcentagem das unidades de capacidade de leitura configuradas a serem usadas pelo crawler do AWS Glue. Unidades de capacidade de leitura é um termo definido pelo DynamoDB e é um valor numérico que atua como limitador de taxa para o número de leituras que podem ser executadas nessa tabela por segundo.

  Os valores válidos são nulos ou um valor entre 0,1 e 1,5. Um valor nulo é usado quando o usuário não fornece um valor e é usado como padrão 0,5 da unidade de capacidade de leitura configurada (para tabelas provisionadas) ou 0,25 da unidade de capacidade de leitura máxima configurada (para tabelas que usam o modo sob demanda).

## Estrutura DeltaTarget
<a name="aws-glue-api-crawler-crawling-DeltaTarget"></a>

Especifica um armazenamento de dados Delta para rastrear uma ou mais tabelas Delta.

**Campos**
+ `DeltaTables` – Uma matriz de strings UTF-8.

  Uma lista de caminhos do Amazon S3 para as tabelas Delta.
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão a ser usada para se conectar ao destino da tabela Delta.
+ `WriteManifest` – Booleano.

  Especifica se os arquivos de manifesto devem ser gravados no caminho da tabela Delta.
+ `CreateNativeDeltaTable` – Booleano.

  Especifica se o crawler criará tabelas nativas para permitir a integração com mecanismos de consulta compatíveis consulta direta ao log de transações do Delta.

## Estrutura do IcebergTarget
<a name="aws-glue-api-crawler-crawling-IcebergTarget"></a>

Especifica uma fonte de dados do Apache Iceberg na qual as tabelas do Iceberg são armazenadas no Amazon S3.

**Campos**
+ `Paths` – Uma matriz de strings UTF-8.

  Um ou mais caminhos do Amazon S3 que contêm pastas de metadados do Iceberg como `s3://bucket/prefix`.
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão a ser usada para se conectar com o destino do Iceberg.
+ `Exclusions` – Uma matriz de strings UTF-8.

  Uma lista de padrões glob utilizados para a exclusão do rastreamento. Para obter mais informações, consulte [Catalogar tabelas com um crawler](https://docs.aws.amazon.com/glue/latest/dg/add-crawler.html).
+ `MaximumTraversalDepth` – Número (íntegro).

  A profundidade máxima de caminhos do Amazon S3 que o crawler pode percorrer para descobrir a pasta de metadados do Iceberg no caminho do Amazon S3. Usado para limitar o runtime do crawler.

## Estrutura HudiTarget
<a name="aws-glue-api-crawler-crawling-HudiTarget"></a>

Especifica uma fonte de dados do Apache Hudi.

**Campos**
+ `Paths` – Uma matriz de strings UTF-8.

  Uma matriz de strings de localização do Amazon S3 para o Hudi, cada uma indicando a pasta raiz na qual residem os arquivos de metadados de uma tabela do Hudi. A pasta do Hudi pode estar localizada em uma pasta secundária da pasta raiz.

  O crawler examinará todas as pastas abaixo de um caminho para uma pasta do Hudi.
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão a ser usada para se conectar com o destino do Hudi. Se seus arquivos do Hudi estiverem armazenados em buckets que exigem autorização de VPC, você pode definir suas propriedades de conexão aqui.
+ `Exclusions` – Uma matriz de strings UTF-8.

  Uma lista de padrões glob utilizados para a exclusão do rastreamento. Para obter mais informações, consulte [Catalogar tabelas com um crawler](https://docs.aws.amazon.com/glue/latest/dg/add-crawler.html).
+ `MaximumTraversalDepth` – Número (íntegro).

  A profundidade máxima de caminhos do Amazon S3 que o crawler pode percorrer para descobrir a pasta de metadados do Hudi no caminho do Amazon S3. Usado para limitar o runtime do crawler.

## Estrutura CatalogTarget
<a name="aws-glue-api-crawler-crawling-CatalogTarget"></a>

Especifica um destino do AWS Glue Data Catalog.

**Campos**
+ `DatabaseName`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do banco de dados a ser sincronizado.
+ `Tables` – *Obrigatório:* uma matriz de strings UTF-8, pelo menos 1 string.

  Uma lista de tabelas a serem sincronizadas.
+ `ConnectionName`: string UTF-8 com no mínimo 1 e no máximo 2.048 bytes de comprimento.

  O nome da conexão de uma tabela de catálogo de dados baseada no Amazon S3 é um destino do crawl quando um tipo de conexão `Catalog` pareado a um tipo de conexão `NETWORK` é usado.
+ `EventQueueArn` – String UTF-8.

  Um ARN válido do Amazon SQS. Por exemplo, `arn:aws:sqs:region:account:sqs`.
+ `DlqEventQueueArn` – String UTF-8.

  Um ARN do SQS de mensagem morta válida da Amazon. Por exemplo, `arn:aws:sqs:region:account:deadLetterQueue`.

## Estrutura CrawlerMetrics
<a name="aws-glue-api-crawler-crawling-CrawlerMetrics"></a>

Métricas para um crawler especificado.

**Campos**
+ `CrawlerName` – String UTF-8, superior a 1 e inferior a 255 bytes de comprimento, correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do crawler.
+ `TimeLeftSeconds` – Número (dobro), não mais do que None (Nenhum).

  O tempo estimado restante para concluir um rastreamento em execução.
+ `StillEstimating` – Booleano.

  True se o crawler ainda estiver estimando quanto tempo demorará para concluir a execução.
+ `LastRuntimeSeconds` – Número (dobro), não mais do que None (Nenhum).

  A duração da execução mais recente do crawler em segundos.
+ `MedianRuntimeSeconds` – Número (dobro), não mais do que None (Nenhum).

  A duração média da execução do crawler em segundos.
+ `TablesCreated` – Número (inteiro), não mais do que None (Nenhum).

  O número de tabelas criadas por este crawler.
+ `TablesUpdated` – Número (inteiro), não mais do que None (Nenhum).

  O número de tabelas atualizadas por este crawler.
+ `TablesDeleted` – Número (inteiro), não mais do que None (Nenhum).

  O número de tabelas excluídas por este crawler.

## Estrutura de CrawlerHistory
<a name="aws-glue-api-crawler-crawling-CrawlerHistory"></a>

Contém as informações sobre uma execução de um crawler.

**Campos**
+ `CrawlId` – String UTF-8.

  Um identificador UUID para cada crawl.
+ `State` – string UTF-8 (valores válidos: `RUNNING` \$1 `COMPLETED` \$1 `FAILED` \$1 `STOPPED`).

  O estado do crawl.
+ `StartTime` – Timestamp.

  A data e a hora em que o monitoramento foi iniciado.
+ `EndTime` – Timestamp.

  A data e a hora em que o crawl terminou.
+ `Summary` – String UTF-8, superior a 1 e inferior a 255 bytes de comprimento, correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Um resumo da execução para o crawl específico em JSON. Contém as partições e tabelas de catálogo que foram adicionadas, atualizadas ou excluídas.
+ `ErrorMessage` – string de descrição com no máximo 2.048 bytes de comprimento e correspondente a [URI address multi-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-uri).

  Em caso de erro, a mensagem de erro associada ao crawl.
+ `LogGroup` – string UTF-8 com no mínimo 1 e no máximo 512 bytes de comprimento e correspondente a [Log group string pattern](aws-glue-api-common.md#aws-glue-api-regex-logGroup-id).

  O grupo de logs associado ao crawl.
+ `LogStream` – string UTF-8 com no mínimo 1 e no máximo 512 bytes de comprimento e correspondente a [Log-stream string pattern](aws-glue-api-common.md#aws-glue-api-regex-logStream-id).

  O fluxo de logs associado ao rastreamento.
+ `MessagePrefix` – String UTF-8, superior a 1 e inferior a 255 bytes de comprimento, correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O prefixo de uma mensagem do CloudWatch sobre este crawl.
+ `DPUHour` – Número (dobro), não mais do que None (Nenhum).

  O número de data processing units (DPU – Unidades de processamento de dados) usadas para o crawl em horas.

## Estrutura de CrawlsFilter
<a name="aws-glue-api-crawler-crawling-CrawlsFilter"></a>

Uma lista de campos, comparadores e valores que você pode usar para filtrar as execuções de crawler para um crawler especificado.

**Campos**
+ `FieldName` – string UTF-8 (valores válidos: `CRAWL_ID` \$1 `STATE` \$1 `START_TIME` \$1 `END_TIME` \$1 `DPU_HOUR`).

  Uma chave usada para filtrar as execuções de crawler para um crawler especificado. Os valores válidos para cada um dos nomes de campo são:
  + `CRAWL_ID`: uma string que representa o identificador UUID para um crawl.
  + `STATE`: uma string que representa o estado do crawl.
  + `START_TIME` e `END_TIME`: o carimbo de data e hora de época em milissegundos.
  + `DPU_HOUR`: O número de horas de DPU usadas para o crawl.
+ `FilterOperator` – string UTF-8 (valores válidos: `GT` \$1 `GE` \$1 `LT` \$1 `LE` \$1 `EQ` \$1 `NE`).

  Um comparador definido que opera no valor. Os operadores disponíveis são:
  + `GT`: maior que.
  + `GE`: maior ou igual a.
  + `LT`: menor que.
  + `LE`: menor ou igual a.
  + `EQ`: igual a.
  + `NE`: não é igual a.
+ `FieldValue` – String UTF-8.

  O valor fornecido para comparação no campo de crawl. 

## Estrutura SchemaChangePolicy
<a name="aws-glue-api-crawler-crawling-SchemaChangePolicy"></a>

Uma política que especifica os comportamentos de atualização e exclusão do crawler.

**Campos**
+ `UpdateBehavior` – string UTF-8 (valores válidos: `LOG` \$1 `UPDATE_IN_DATABASE`).

  O comportamento de atualização quando o crawler encontra um esquema alterado.
+ `DeleteBehavior` – string UTF-8 (valores válidos: `LOG` \$1 `DELETE_FROM_DATABASE` \$1 `DEPRECATE_IN_DATABASE`).

  O comportamento de exclusão quando o crawler encontra um objeto excluído.

## Estrutura LastCrawlInfo
<a name="aws-glue-api-crawler-crawling-LastCrawlInfo"></a>

Informações de status e erro do rastreamento mais recente.

**Campos**
+ `Status` – string UTF-8 (valores válidos: `SUCCEEDED` \$1 `CANCELLED` \$1 `FAILED`).

  Status do último rastreamento.
+ `ErrorMessage` – string de descrição com no máximo 2.048 bytes de comprimento e correspondente a [URI address multi-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-uri).

  Se ocorrer um erro, as informações de erro do último rastreamento.
+ `LogGroup` – string UTF-8 com no mínimo 1 e no máximo 512 bytes de comprimento e correspondente a [Log group string pattern](aws-glue-api-common.md#aws-glue-api-regex-logGroup-id).

  O grupo de logs do último rastreamento.
+ `LogStream` – string UTF-8 com no mínimo 1 e no máximo 512 bytes de comprimento e correspondente a [Log-stream string pattern](aws-glue-api-common.md#aws-glue-api-regex-logStream-id).

  O stream de logs do último rastreamento.
+ `MessagePrefix` – String UTF-8, superior a 1 e inferior a 255 bytes de comprimento, correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O prefixo de uma mensagem sobre este rastreamento.
+ `StartTime` – Timestamp.

  A hora em que o rastreamento foi iniciado.

## Estrutura RecrawlPolicy
<a name="aws-glue-api-crawler-crawling-RecrawlPolicy"></a>

Ao realizar o crawling de uma fonte de dados do Amazon S3 após a conclusão do primeiro rastreamento, especifica se deseja rastrear todo o conjunto de dados novamente ou somente pastas que foram adicionadas desde a última execução do crawler. Para obter mais informações, consulte [Crawls incrementais no AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/incremental-crawls.html) no guia do desenvolvedor.

**Campos**
+ `RecrawlBehavior` – string UTF-8 (valores válidos: `CRAWL_EVERYTHING` \$1 `CRAWL_NEW_FOLDERS_ONLY` \$1 `CRAWL_EVENT_MODE`).

  Especifica se deseja rastrear todo o conjunto de dados novamente ou somente as pastas que foram adicionadas desde a última execução do crawler.

  Um valor de `CRAWL_EVERYTHING` especifica o crawling de todo o conjunto de dados novamente.

  Um valor de `CRAWL_NEW_FOLDERS_ONLY` especifica o crawling de somente as pastas que foram adicionadas desde a última execução do crawler.

  Um valor de `CRAWL_EVENT_MODE` especifica o crawling somente das alterações identificadas pelos eventos do Amazon S3.

## Estrutura LineageConfiguration
<a name="aws-glue-api-crawler-crawling-LineageConfiguration"></a>

Especifica as definições de configuração de linhagem de dados para o crawler.

**Campos**
+ `CrawlerLineageSettings` – string UTF-8 (valores válidos: `ENABLE` \$1 `DISABLE`).

  Especifica se a linhagem de dados está habilitada para o crawler. Os valores válidos são:
  + ENABLE (Habilitar): habilita a linhagem de dados para o crawler
  + DISABLE (Desabilitar): desabilita a linhagem de dados para o crawler

## Estrutura LakeFormationConfiguration
<a name="aws-glue-api-crawler-crawling-LakeFormationConfiguration"></a>

Especifica as definições de configuração do AWS Lake Formation para o crawler.

**Campos**
+ `UseLakeFormationCredentials` – Booleano.

  Especifica se as credenciais AWS Lake Formation devem ser usadas para o crawler em vez das credenciais de função do IAM.
+ `AccountId` – String UTF-8, não mais de 12 bytes.

  Obrigatório para rastreamentos de conta cruzada. Para os mesmos rastreamentos de conta que os dados de destino, isso pode ser deixado como nulo.

## Operações
<a name="aws-glue-api-crawler-crawling-actions"></a>
+ [Ação CreateCrawler (Python: create\$1crawler)](#aws-glue-api-crawler-crawling-CreateCrawler)
+ [Ação DeleteCrawler (Python: delete\$1crawler)](#aws-glue-api-crawler-crawling-DeleteCrawler)
+ [Ação GetCrawler (Python: get\$1crawler)](#aws-glue-api-crawler-crawling-GetCrawler)
+ [Ação GetCrawlers (Python: get\$1crawlers)](#aws-glue-api-crawler-crawling-GetCrawlers)
+ [Ação GetCrawlerMetrics (Python: get\$1crawler\$1metrics)](#aws-glue-api-crawler-crawling-GetCrawlerMetrics)
+ [Ação UpdateCrawler (Python: update\$1crawler)](#aws-glue-api-crawler-crawling-UpdateCrawler)
+ [Ação StartCrawler (Python: start\$1crawler)](#aws-glue-api-crawler-crawling-StartCrawler)
+ [Ação StopCrawler (Python: stop\$1crawler)](#aws-glue-api-crawler-crawling-StopCrawler)
+ [Ação BatchGetCrawlers (Python: batch\$1get\$1crawlers)](#aws-glue-api-crawler-crawling-BatchGetCrawlers)
+ [Ação ListCrawlers (Python: list\$1crawlers)](#aws-glue-api-crawler-crawling-ListCrawlers)
+ [Ação ListCrawls (Python: list\$1crawls)](#aws-glue-api-crawler-crawling-ListCrawls)

## Ação CreateCrawler (Python: create\$1crawler)
<a name="aws-glue-api-crawler-crawling-CreateCrawler"></a>

Cria um novo crawler com destinos específicos, função, configuração e programação opcional. Pelo menos um destino de rastreamento deve ser especificado no campos `s3Targets`, `jdbcTargets` ou `DynamoDBTargets`.

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Nome do novo crawler.
+ `Role` – *Obrigatório:* string UTF-8.

  A função do IAM ou o nome do recurso da Amazon (ARN) de um perfil do IAM usada pelo novo crawler para acessar os recursos do cliente.
+ `DatabaseName` – String UTF-8.

  O banco de dados do AWS Glue em que os resultados são gravados, como: `arn:aws:daylight:us-east-1::database/sometable/*`.
+ `Description` – string de descrição com no máximo 2.048 bytes de comprimento e correspondente a [URI address multi-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-uri).

  Uma descrição do novo crawler.
+ `Targets` – *Obrigatório:* um objeto [CrawlerTargets](#aws-glue-api-crawler-crawling-CrawlerTargets).

  Uma lista da coleção de destinos a serem rastreados.
+ `Schedule` – String UTF-8.

  Uma expressão `cron` usada para especificar a programação (consulte [Programações baseadas em hora para tarefas e crawlers](https://docs.aws.amazon.com/glue/latest/dg/monitor-data-warehouse-schedule.html). Por exemplo, para executar algo todos os dias às 12h15 UTC, especifique: `cron(15 12 * * ? *)`.
+ `Classifiers` – Uma matriz de strings UTF-8.

  Uma lista de classificadores personalizados que o usuário registrou. Por padrão, todos os classificadores integrados são incluídos em um rastreamento. No entanto, esses classificadores personalizados sempre substituem os classificadores padrão de uma determinada classificação.
+ `TablePrefix` – String UTF-8 com comprimento não superior a 128 bytes.

  O prefixo que é usado para tabelas de catálogo criadas.
+ `SchemaChangePolicy` – Um objeto [SchemaChangePolicy](#aws-glue-api-crawler-crawling-SchemaChangePolicy).

  A política do comportamento de atualização e exclusão do crawler.
+ `RecrawlPolicy` – Um objeto [RecrawlPolicy](#aws-glue-api-crawler-crawling-RecrawlPolicy).

  Uma política que especifica se deseja rastrear todo o conjunto de dados novamente ou rastrear somente pastas que foram adicionadas desde a última execução do crawler.
+ `LineageConfiguration` – Um objeto [LineageConfiguration](#aws-glue-api-crawler-crawling-LineageConfiguration).

  Especifica as definições de configuração de linhagem de dados para o crawler.
+ `LakeFormationConfiguration` – Um objeto [LakeFormationConfiguration](#aws-glue-api-crawler-crawling-LakeFormationConfiguration).

  Especifica as definições de configuração do AWS Lake Formation para o crawler.
+ `Configuration` – String UTF-8.

  Informações de configuração do crawler. Esta string JSON com versionamento permite que os usuários especifiquem os aspectos do comportamento de um crawler. Para obter mais informações, consulte [Definir opções de configuração do crawler](https://docs.aws.amazon.com/glue/latest/dg/crawler-configuration.html).
+ `CrawlerSecurityConfiguration` – String UTF-8 com comprimento não superior a 128 bytes.

  O nome da estrutura `SecurityConfiguration` a ser usada por este crawler.
+ `Tags`: uma matriz de mapa dos pares de chave-valor, não mais do que 50 pares.

  Cada chave é uma string UTF-8, com comprimento entre 1 e 128 bytes.

  Cada valor é uma string UTF-8, inferior a 256 bytes de comprimento.

  As tags a serem usadas com essa solicitação de crawler. Você pode usar tags para limitar o acesso ao crawler. Para obter mais informações sobre tags no AWS Glue, consulte [Tags da AWS no AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/monitor-tags.html) no guia do desenvolvedor.

**Resposta**
+ *Nenhum parâmetro de resposta.*

**Erros**
+ `InvalidInputException`
+ `AlreadyExistsException`
+ `OperationTimeoutException`
+ `ResourceNumberLimitExceededException`

## Ação DeleteCrawler (Python: delete\$1crawler)
<a name="aws-glue-api-crawler-crawling-DeleteCrawler"></a>

Remove um crawler especificado do AWS Glue Data Catalog, a menos que o estado do crawler seja `RUNNING`.

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do crawler a ser removido.

**Resposta**
+ *Nenhum parâmetro de resposta.*

**Erros**
+ `EntityNotFoundException`
+ `CrawlerRunningException`
+ `SchedulerTransitioningException`
+ `OperationTimeoutException`

## Ação GetCrawler (Python: get\$1crawler)
<a name="aws-glue-api-crawler-crawling-GetCrawler"></a>

Recupera metadados para um crawler especificado.

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do crawler para o qual recuperar os metadados.

**Resposta**
+ `Crawler` – Um objeto [Crawler](#aws-glue-api-crawler-crawling-Crawler).

  Os metadados para o crawler especificado.

**Erros**
+ `EntityNotFoundException`
+ `OperationTimeoutException`

## Ação GetCrawlers (Python: get\$1crawlers)
<a name="aws-glue-api-crawler-crawling-GetCrawlers"></a>

Recupera metadados para todos os crawlers definidos na conta do cliente.

**Solicitação**
+ `MaxResults` – Número (inteiro), superior a 1 ou mais que 1000.

  O número de crawlers a ser retornado em cada chamada.
+ `NextToken` – String UTF-8.

  Um token de continuação, se esta for uma solicitação de continuação.

**Resposta**
+ `Crawlers`: um array de objetos [Crawler](#aws-glue-api-crawler-crawling-Crawler).

  Uma lista de metadados do crawler.
+ `NextToken` – String UTF-8.

  Um token de continuação, se a lista retornada não tiver chegado ao final conforme definido nesta conta de cliente.

**Erros**
+ `OperationTimeoutException`

## Ação GetCrawlerMetrics (Python: get\$1crawler\$1metrics)
<a name="aws-glue-api-crawler-crawling-GetCrawlerMetrics"></a>

Recupera métricas dos crawlers especificados.

**Solicitação**
+ `CrawlerNameList` – Uma matriz de strings UTF-8, no máximo 100 strings.

  Uma lista dos nomes dos crawlers de onde as métricas serão recuperadas.
+ `MaxResults` – Número (inteiro), superior a 1 ou mais que 1000.

  O tamanho máximo de uma lista a ser retornada.
+ `NextToken` – String UTF-8.

  Um token de continuação, se esta for uma chamada de continuação.

**Resposta**
+ `CrawlerMetricsList`: um array de objetos [CrawlerMetrics](#aws-glue-api-crawler-crawling-CrawlerMetrics).

  Uma lista de métricas para o crawler especificado.
+ `NextToken` – String UTF-8.

  Um token de continuação, se a lista retornada não contiver a métrica mais recente disponível.

**Erros**
+ `OperationTimeoutException`

## Ação UpdateCrawler (Python: update\$1crawler)
<a name="aws-glue-api-crawler-crawling-UpdateCrawler"></a>

Atualiza um crawler. Se um crawler estiver em execução, você precisará interrompê-lo usando `StopCrawler` antes de fazer a atualização.

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Nome do novo crawler.
+ `Role` – String UTF-8.

  A função do IAM ou o nome do recurso da Amazon (ARN) de um perfil do IAM que é usada pelo novo crawler para acessar os recursos do cliente.
+ `DatabaseName` – String UTF-8.

  O banco de dados do AWS Glue em que os resultados são armazenados, como: `arn:aws:daylight:us-east-1::database/sometable/*`.
+ `Description`: string UTF-8 com comprimento máximo de 2.048 bytes e correspondente a [URI address multi-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-uri).

  Uma descrição do novo crawler.
+ `Targets` – Um objeto [CrawlerTargets](#aws-glue-api-crawler-crawling-CrawlerTargets).

  Uma lista de destinos a serem rastreados.
+ `Schedule` – String UTF-8.

  Uma expressão `cron` usada para especificar a programação (consulte [Programações baseadas em hora para tarefas e crawlers](https://docs.aws.amazon.com/glue/latest/dg/monitor-data-warehouse-schedule.html). Por exemplo, para executar algo todos os dias às 12h15 UTC, especifique: `cron(15 12 * * ? *)`.
+ `Classifiers` – Uma matriz de strings UTF-8.

  Uma lista de classificadores personalizados que o usuário registrou. Por padrão, todos os classificadores integrados são incluídos em um rastreamento. No entanto, esses classificadores personalizados sempre substituem os classificadores padrão de uma determinada classificação.
+ `TablePrefix` – String UTF-8 com comprimento não superior a 128 bytes.

  O prefixo que é usado para tabelas de catálogo criadas.
+ `SchemaChangePolicy` – Um objeto [SchemaChangePolicy](#aws-glue-api-crawler-crawling-SchemaChangePolicy).

  A política do comportamento de atualização e exclusão do crawler.
+ `RecrawlPolicy` – Um objeto [RecrawlPolicy](#aws-glue-api-crawler-crawling-RecrawlPolicy).

  Uma política que especifica se deseja rastrear todo o conjunto de dados novamente ou rastrear somente pastas que foram adicionadas desde a última execução do crawler.
+ `LineageConfiguration` – Um objeto [LineageConfiguration](#aws-glue-api-crawler-crawling-LineageConfiguration).

  Especifica as definições de configuração de linhagem de dados para o crawler.
+ `LakeFormationConfiguration` – Um objeto [LakeFormationConfiguration](#aws-glue-api-crawler-crawling-LakeFormationConfiguration).

  Especifica as definições de configuração do AWS Lake Formation para o crawler.
+ `Configuration` – String UTF-8.

  Informações de configuração do crawler. Esta string JSON com versionamento permite que os usuários especifiquem os aspectos do comportamento de um crawler. Para obter mais informações, consulte [Definir opções de configuração do crawler](https://docs.aws.amazon.com/glue/latest/dg/crawler-configuration.html).
+ `CrawlerSecurityConfiguration` – String UTF-8 com comprimento não superior a 128 bytes.

  O nome da estrutura `SecurityConfiguration` a ser usada por este crawler.

**Resposta**
+ *Nenhum parâmetro de resposta.*

**Erros**
+ `InvalidInputException`
+ `VersionMismatchException`
+ `EntityNotFoundException`
+ `CrawlerRunningException`
+ `OperationTimeoutException`

## Ação StartCrawler (Python: start\$1crawler)
<a name="aws-glue-api-crawler-crawling-StartCrawler"></a>

Inicia um rastreamento usando o crawler especificado, independentemente do que estiver programado. Se o crawler já está em execução, ele retorna um [CrawlerRunningException](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-exceptions.html#aws-glue-api-exceptions-CrawlerRunningException).

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Nome do crawler a ser iniciado.

**Resposta**
+ *Nenhum parâmetro de resposta.*

**Erros**
+ `EntityNotFoundException`
+ `CrawlerRunningException`
+ `OperationTimeoutException`

## Ação StopCrawler (Python: stop\$1crawler)
<a name="aws-glue-api-crawler-crawling-StopCrawler"></a>

Se o crawler especificado estiver em execução, o rastreamento será interrompido.

**Solicitação**
+ `Name`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Nome do crawler a ser interrompido.

**Resposta**
+ *Nenhum parâmetro de resposta.*

**Erros**
+ `EntityNotFoundException`
+ `CrawlerNotRunningException`
+ `CrawlerStoppingException`
+ `OperationTimeoutException`

## Ação BatchGetCrawlers (Python: batch\$1get\$1crawlers)
<a name="aws-glue-api-crawler-crawling-BatchGetCrawlers"></a>

Retorna uma lista de metadados do recurso para uma lista de nomes de crawler. Depois de chamar a operação `ListCrawlers`, você pode chamar essa operação para acessar os dados aos quais você recebeu permissões. Essa operação oferece suporte a todas as permissões do IAM, incluindo condições de permissão que usam tags.

**Solicitação**
+ `CrawlerNames` – *Obrigatório:* uma matriz de strings UTF-8, no máximo 100 strings.

  Uma lista de nomes de crawler, que podem ser os nomes retornados da operação `ListCrawlers`.

**Resposta**
+ `Crawlers`: um array de objetos [Crawler](#aws-glue-api-crawler-crawling-Crawler).

  Uma lista de definições do crawler.
+ `CrawlersNotFound` – Uma matriz de strings UTF-8, no máximo 100 strings.

  Uma lista de nomes de crawlers que não foram encontrados.

**Erros**
+ `InvalidInputException`
+ `OperationTimeoutException`

## Ação ListCrawlers (Python: list\$1crawlers)
<a name="aws-glue-api-crawler-crawling-ListCrawlers"></a>

Recupera os nomes de todos os recursos do crawler nessa conta da AWS ou os recursos com a tag especificada. Essa operação permite que você veja quais recursos estão disponíveis em sua conta e seus nomes.

Essa operação aceita o campo `Tags` opcional, que pode ser usado como um filtro na resposta, para que recursos com tags possam ser recuperados como um grupo. Se você optar por usar a filtragem por tags, apenas os recursos com a tag serão recuperados.

**Solicitação**
+ `MaxResults` – Número (inteiro), superior a 1 ou mais que 1000.

  O tamanho máximo de uma lista a ser retornada.
+ `NextToken` – String UTF-8.

  Um token de continuação, se esta for uma solicitação de continuação.
+ `Tags`: uma matriz de mapa dos pares de chave-valor, não mais do que 50 pares.

  Cada chave é uma string UTF-8, com comprimento entre 1 e 128 bytes.

  Cada valor é uma string UTF-8, inferior a 256 bytes de comprimento.

  Especifica apenas o retorno desses recursos com tags.

**Resposta**
+ `CrawlerNames` – Uma matriz de strings UTF-8, no máximo 100 strings.

  Os nomes de todos os crawlers na conta ou os crawlers com as tags especificadas.
+ `NextToken` – String UTF-8.

  Um token de continuação, se a lista retornada não contiver a métrica mais recente disponível.

**Erros**
+ `OperationTimeoutException`

## Ação ListCrawls (Python: list\$1crawls)
<a name="aws-glue-api-crawler-crawling-ListCrawls"></a>

Retorna todos os crawls de um crawler especificado. Retorna apenas os crawls que ocorreram desde a data de execução do recurso de histórico do crawler e retém apenas até 12 meses de crawls. Crawls mais antigos não serão retornados.

Você pode usar essa API para:
+ Recuperar todos os crawls de um crawler especificado.
+ Recuperar todos os crawls de um crawler especificado dentro de uma contagem limitada.
+ Recuperar todos os crawls de um crawler especificado em um intervalo de tempo específico.
+ Recuperar todos os crawls de um crawler especificado com um determinado estado, ID de crawl ou valor de hora de DPU.

**Solicitação**
+ `CrawlerName`: *obrigatório:* string UTF-8 com no mínimo 1 e no máximo 255 bytes de comprimento e correspondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  O nome do crawler cujas execuções você deseja recuperar.
+ `MaxResults` – Número (inteiro), superior a 1 ou mais que 1000.

  O número máximo de resultados a serem retornados. O padrão é 20 e o máximo é 100.
+ `Filters`: um array de objetos [CrawlsFilter](#aws-glue-api-crawler-crawling-CrawlsFilter).

  Filtra os crawls de acordo com os critérios especificados em uma lista de objetos de `CrawlsFilter`.
+ `NextToken` – String UTF-8.

  Um token de continuação, se esta for uma chamada de continuação.

**Resposta**
+ `Crawls`: um array de objetos [CrawlerHistory](#aws-glue-api-crawler-crawling-CrawlerHistory).

  Uma lista de objetos de `CrawlerHistory` que representam as execuções de crawl que satisfazem seus critérios.
+ `NextToken` – String UTF-8.

  Um token de continuação para paginação da lista de tokens retornada, retornado se o segmento atual da lista não for o último.

**Erros**
+ `EntityNotFoundException`
+ `OperationTimeoutException`
+ `InvalidInputException`