Processadores de análise
Os processadores de análise convertem dados de log brutos ou semiestruturados em formatos estruturados. Cada pipeline pode ter no máximo um processador de análise, que deve ser o primeiro processador no pipeline.
Processador OCSF
Analisa e transforma os dados de log de acordo com os padrões Open Cybersecurity Schema Framework (OCSF).
Configuração
Configure o processador OCSF com os seguintes parâmetros:
processor: - ocsf: version: "1.5" mapping_version: 1.5.0 schema: microsoft_office365_management_activity:
Parâmetros
version(obrigatório)-
A versão do esquema OCSF a ser usada para transformação. Deve ser a 1.5
mapping_version(obrigatório)-
A versão do mapeamento OCSF a ser usada para transformação. Deve ser a 1.5.0.
schema(obrigatório)-
Objeto de esquema que especifica o tipo de fonte de dados. Os esquemas compatíveis dependem do tipo de fonte do pipeline; cada tipo de fonte tem seu próprio conjunto de esquemas OCSF compatíveis. Você deve usar um esquema que corresponda ao tipo de fonte do pipeline.
Esta tabela lista as combinações de esquema compatíveis.
| Tipo de fonte do pipeline | Esquemas compatíveis | Versão | Versão do mapeamento |
|---|---|---|---|
cloudwatch_logs |
cloud_trail: |
1.5 |
Não obrigatório |
cloudwatch_logs |
route53_resolver: |
1.5 |
Não obrigatório |
cloudwatch_logs |
vpc_flow: |
1.5 |
Não obrigatório |
cloudwatch_logs |
eks_audit: |
1.5 |
Não obrigatório |
cloudwatch_logs |
aws_waf: |
1.5 |
Não obrigatório |
s3 |
Qualquer esquema OCSF | Any | Any |
microsoft_office365 |
microsoft_office365: |
1.5 |
1.5.0 |
microsoft_entraid |
microsoft_entraid: |
1.5 |
1.5.0 |
microsoft_windows_event |
microsoft_windows_event: |
1.5 |
1.5.0 |
paloaltonetworks_nextgenerationfirewall |
paloaltonetworks_nextgenerationfirewall: |
1.5 |
1.5.0 |
okta_auth0 |
okta_auth0: |
1.5 |
1.5.0 |
okta_sso |
okta_sso: |
1.5 |
1.5.0 |
crowdstrike_falcon |
crowdstrike_falcon: |
1.5 |
1.5.0 |
github_auditlogs |
github_auditlogs: |
1.5 |
1.5.0 |
sentinelone_endpointsecurity |
sentinelone_endpointsecurity: |
1.5 |
1.5.0 |
servicenow_cmdb |
servicenow_cmdb: |
1.5 |
1.5.0 |
wiz_cnapp |
wiz_cnapp: |
1.5 |
1.5.0 |
zscaler_internetaccess |
zscaler_internetaccess: |
1.5 |
1.5.0 |
Processador CSV
Analisa dados formatados como CSV para campos estruturados.
Configuração
Configure o processador CSV com os seguintes parâmetros:
processor: - csv: column_names: ["col1", "col2", "col3"] delimiter: "," quote_character: '"'
Parâmetros
column_names(opcional)-
Matriz de nomes de coluna para campos analisados. Máximo de 100 colunas, cada nome com até 128 caracteres. Se não for fornecido, o padrão é column_1, column_2 e assim por diante.
delimiter(opcional)-
Caractere usado para separar campos CSV. Deve ser um único caractere. O padrão é vírgula (,).
quote_character(opcional)-
Caractere usado para citar campos CSV contendo delimitadores. Deve ser um único caractere. O padrão é aspas duplas (").
Para usar o processador sem especificar parâmetros adicionais, use o comando abaixo:
processor: - csv: {}
Processador Grok
Analisa dados não estruturados usando padrões Grok. É permitido no máximo 1 Grok por pipeline. Para obter detalhes sobre o transformador Grok no CloudWatch Logs, consulte Processadores que você pode usar no Guia do usuário do CloudWatch Logs.
Configuração
Configure o processador Grok com os seguintes parâmetros:
Quando a fonte de dados é um dicionário, você pode usar esta configuração:
processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
Quando a fonte de dados é o CloudWatch Logs, você pode usar esta configuração:
processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
Parâmetros
match(obrigatório)-
Mapeamento de campo com padrões Grok. Somente um mapeamento de campo é permitido.
match.<field>(obrigatório)-
Matriz com um único padrão Grok. Máximo de 512 caracteres por padrão.
Processador de VPC
Converte os dados do VPC Flow Log em campos estruturados.
Configuração
Configure o processador de VPC com os seguintes parâmetros:
processor: - parse_vpc: {}
Processador JSON
Converte os dados JSON em campos estruturados.
Configuração
Configure o processador JSON com os seguintes parâmetros:
processor: - parse_json: source: "message" destination: "parsed_json"
Parâmetros
source(opcional)-
O campo que contém os dados JSON a serem convertidos. Se omitido, toda a mensagem do log será processada
destination(opcional)-
O campo em que o JSON convertido será armazenado. Se omitido, os campos analisados serão adicionados ao nível-raiz
Processador do Route 53
Converte os dados de log do resolvedor do Route 53 em campos estruturados.
Configuração
Configure o processador do Route 53 com os seguintes parâmetros:
processor: - parse_route53: {}
Processador de chave-valor
Analisa dados formatados em pares de chave-valor para campos estruturados.
Configuração
Configure o processador de chave-valor com os seguintes parâmetros:
processor: - key_value: source: "message" destination: "parsed_kv" field_delimiter: "&" key_value_delimiter: "="
Parâmetros
source(opcional)-
Campo contendo dados de valores-chave. Máximo de 128 caracteres.
destination(opcional)-
Campo de destino para pares de chave-valor analisados. Máximo de 128 caracteres.
field_delimiter(opcional)-
Padrão para separar pares de chave-valor. Máximo de 10 caracteres.
key_value_delimiter(opcional)-
Padrão para separar chaves de valores. Máximo de 10 caracteres.
overwrite_if_destination_exists(opcional)-
Se o campo de destino existente deve ou não ser substituído.
prefix(opcional)-
Prefixo a ser adicionado às chaves extraídas. Máximo de 128 caracteres.
non_match_value(opcional)-
Valor para chaves sem correspondências. Máximo de 128 caracteres.
Para usar o processador sem especificar parâmetros adicionais, use o comando abaixo:
processor: - key_value: {}