解析器处理器
解析器处理器将原始或半结构化日志数据转换为结构化格式。每个管道最多可以有一个解析器处理器,该处理器必须是管道中的第一个处理器。
OCSF 处理器
根据开放式网络安全架构框架(OCSF)标准解析和转换日志数据。
配置
使用以下参数配置 OCSF 处理器:
processor: - ocsf: version: "1.5" mapping_version: 1.5.0 schema: microsoft_office365_management_activity:
Parameters
version(必需)-
用于转换的 OCSF 架构版本。必须为 1.5
mapping_version(必需)-
用于转换的 OCSF 映射版本。必须为 1.5.0。
schema(必需)-
指定数据来源类型的架构对象。支持的架构取决于管道来源类型,每种来源类型都有自己的一组兼容的 OCSF 架构。您必须使用与管道来源类型相匹配的架构。
此表列出了支持的架构组合。
| 管道来源类型 | 支持的架构 | 版本 | 映射版本 |
|---|---|---|---|
cloudwatch_logs |
cloud_trail: |
1.5 |
可选 |
cloudwatch_logs |
route53_resolver: |
1.5 |
可选 |
cloudwatch_logs |
vpc_flow: |
1.5 |
可选 |
cloudwatch_logs |
eks_audit: |
1.5 |
可选 |
cloudwatch_logs |
aws_waf: |
1.5 |
非必需 |
s3 |
任何 OCSF 架构 | 任何 | 任何 |
microsoft_office365 |
microsoft_office365: |
1.5 |
1.5.0 |
microsoft_entraid |
microsoft_entraid: |
1.5 |
1.5.0 |
microsoft_windows_event |
microsoft_windows_event: |
1.5 |
1.5.0 |
paloaltonetworks_nextgenerationfirewall |
paloaltonetworks_nextgenerationfirewall: |
1.5 |
1.5.0 |
okta_auth0 |
okta_auth0: |
1.5 |
1.5.0 |
okta_sso |
okta_sso: |
1.5 |
1.5.0 |
crowdstrike_falcon |
crowdstrike_falcon: |
1.5 |
1.5.0 |
github_auditlogs |
github_auditlogs: |
1.5 |
1.5.0 |
sentinelone_endpointsecurity |
sentinelone_endpointsecurity: |
1.5 |
1.5.0 |
servicenow_cmdb |
servicenow_cmdb: |
1.5 |
1.5.0 |
wiz_cnapp |
wiz_cnapp: |
1.5 |
1.5.0 |
zscaler_internetaccess |
zscaler_internetaccess: |
1.5 |
1.5.0 |
CSV 处理器
将 CSV 格式的数据解析为结构化字段。
配置
使用以下参数配置 CSV 处理器:
processor: - csv: column_names: ["col1", "col2", "col3"] delimiter: "," quote_character: '"'
Parameters
column_names(可选)-
已解析字段的列名称数组。最多 100 列,每个名称最多可以有 128 个字符。如果未提供,则默认为 column_1、column_2 等。
delimiter(可选)-
用于分隔 CSV 字段的字符。必须为单个字符。默认为逗号 (,)。
quote_character(可选)-
用于引用包含分隔符的 CSV 字段的字符。必须为单个字符。默认为双引号 (")。
要在不指定其他参数的情况下使用处理器,请使用以下命令:
processor: - csv: {}
Grok 处理器
使用 Grok 模式解析非结构化数据。每个管道最多支持 1 个 Grok。有关 CloudWatch Logs 中的 Grok 转换器的详细信息,请参阅《CloudWatch Logs 用户指南》中的可以使用的处理器。
配置
使用以下参数配置 Grok 处理器:
如果数据来源为字典,可以使用此配置:
processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
如果数据来源为 CloudWatch Logs,可以使用此配置:
processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
Parameters
match(必需)-
使用 Grok 模式进行字段映射。仅允许一个字段映射。
match.<field>(必需)-
具有单个 Grok 模式的数组。每个模式最多 512 个字符。
VPC 处理器
将 VPC 流日志数据解析为结构化字段。
配置
使用以下参数配置 VPC 处理器:
processor: - parse_vpc: {}
JSON 处理器
将 JSON 数据解析为结构化字段。
配置
使用以下参数配置 JSON 处理器:
processor: - parse_json: source: "message" destination: "parsed_json"
Parameters
source(可选)-
包含要解析的 JSON 数据的字段。如果省略,则处理整条日志消息
destination(可选)-
存储已解析 JSON 的字段。如果省略,则将已解析的字段添加到根级别
Route 53 处理器
将 Route 53 Resolver 日志数据解析为结构化字段。
配置
使用以下参数配置 Route 53 处理器:
processor: - parse_route53: {}
键值处理器
将键值对格式的数据解析为结构化字段。
配置
使用以下参数配置键值处理器:
processor: - key_value: source: "message" destination: "parsed_kv" field_delimiter: "&" key_value_delimiter: "="
Parameters
source(可选)-
包含键值数据的字段。最多 128 个字符。
destination(可选)-
已解析键值对的目标字段。最多 128 个字符。
field_delimiter(可选)-
用于拆分键值对的模式。最多 10 个字符。
key_value_delimiter(可选)-
用于将键与值拆分的模式。最多 10 个字符。
overwrite_if_destination_exists(可选)-
是否覆盖现有的目标字段。
prefix(可选)-
要添加到提取密钥的前缀。最多 128 个字符。
non_match_value(可选)-
没有匹配项的键的值。最多 128 个字符。
要在不指定其他参数的情况下使用处理器,请使用以下命令:
processor: - key_value: {}