Procesadores analizadores - Amazon CloudWatch

Procesadores analizadores

Los procesadores analizadores convierten los datos de registro sin procesar o semiestructurados en formatos estructurados. Cada canalización puede tener como máximo un procesador analizador, que debe ser el primer procesador de la canalización.

Procesador de OCSF

Analiza y transforma los datos de registro de acuerdo con los estándares del Marco de esquema de ciberseguridad abierto (OCSF).

Configuración

Configure el procesador de OCSF con los siguientes parámetros:

processor: - ocsf: version: "1.5" mapping_version: 1.5.0 schema: microsoft_office365_management_activity:
Parameters
version (obligatorio)

Versión del esquema de OCSF que se utilizará para la transformación. Debe ser 1.5.

mapping_version (obligatorio)

Versión de la asignación de OCSF para la transformación. Debe ser 1.5.0.

schema (obligatorio)

Objeto de esquema que especifica el tipo de origen de datos. Los esquemas admitidos dependen del tipo de origen de la canalización: cada tipo de origen tiene su propio conjunto de esquemas de OCSF compatibles. Debe usar un esquema que coincida con el tipo de origen de la canalización.

En esta tabla se muestran las combinaciones de esquemas admitidas.

Tipo de origen de la canalización Esquemas admitidos Versión Versión de la asignación
cloudwatch_logs cloud_trail: 1.5 No obligatorio
cloudwatch_logs route53_resolver: 1.5 No obligatorio
cloudwatch_logs vpc_flow: 1.5 No obligatorio
cloudwatch_logs eks_audit: 1.5 No obligatorio
cloudwatch_logs aws_waf: 1.5 No obligatorio
s3 Cualquier esquema de OCSF Cualquiera Cualquiera
microsoft_office365 microsoft_office365: 1.5 1.5.0
microsoft_entraid microsoft_entraid: 1.5 1.5.0
microsoft_windows_event microsoft_windows_event: 1.5 1.5.0
paloaltonetworks_nextgenerationfirewall paloaltonetworks_nextgenerationfirewall: 1.5 1.5.0
okta_auth0 okta_auth0: 1.5 1.5.0
okta_sso okta_sso: 1.5 1.5.0
crowdstrike_falcon crowdstrike_falcon: 1.5 1.5.0
github_auditlogs github_auditlogs: 1.5 1.5.0
sentinelone_endpointsecurity sentinelone_endpointsecurity: 1.5 1.5.0
servicenow_cmdb servicenow_cmdb: 1.5 1.5.0
wiz_cnapp wiz_cnapp: 1.5 1.5.0
zscaler_internetaccess zscaler_internetaccess: 1.5 1.5.0

Procesador de CSV

Analiza los datos con formato CSV en campos estructurados.

Configuración

Configure el procesador de CSV con los siguientes parámetros:

processor: - csv: column_names: ["col1", "col2", "col3"] delimiter: "," quote_character: '"'
Parameters
column_names (opcional)

Matriz de nombres de columna para los campos analizados. Máximo de 100 columnas, cada nombre con un máximo de 128 caracteres. Si no se proporciona, el valor predeterminado es column_1, column_2, etc.

delimiter (opcional)

Carácter utilizado para separar los campos de CSV. Debe ser un solo carácter. El valor predeterminado es coma (,).

quote_character (opcional)

Carácter utilizado para citar los campos de CSV que contienen delimitadores. Debe ser un solo carácter. El valor predeterminado es comillas (").

Para utilizar el procesador sin especificar ningún parámetro adicional, utilice el siguiente comando:

processor: - csv: {}

Procesador Grok

Analiza datos no estructurados mediante patrones de Grok. Se admite como máximo 1 Grok por canalización. Para obtener más información sobre el transformador de Grok en Registros de CloudWatch, consulte Procesadores que puede usar en la Guía del usuario de Registros de CloudWatch.

Configuración

Configure el procesador de Grok con los siguientes parámetros:

Cuando el origen de datos es un diccionario, puede usar esta configuración:

processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]

Cuando el origen de datos es Registros de CloudWatch, puede usar esta configuración:

processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
Parameters
match (obligatorio)

Asignación de campos con patrones de Grok. Solo se permite una asignación de campos.

match.<field> (obligatorio)

Matriz con un solo patrón de Grok. Máximo de 512 caracteres por patrón.

Procesador de VPC

Analiza los datos del registro de flujo de VPC en campos estructurados.

Configuración

Configure el procesador de VPC con los siguientes parámetros:

processor: - parse_vpc: {}

Procesador de JSON

Analiza los datos de JSON en campos estructurados.

Configuración

Configure el procesador de JSON con los siguientes parámetros:

processor: - parse_json: source: "message" destination: "parsed_json"
Parameters
source (opcional)

Campo que contiene los datos de JSON que se van a analizar. Si se omite, se procesa todo el mensaje de registro.

destination (opcional)

Campo en el que se almacenará el JSON analizado. Si se omite, los campos analizados se agregan al nivel raíz.

Procesador de Route 53

Analiza los datos de registro de Route 53 Resolver en campos estructurados.

Configuración

Configure el procesador de Route 53 con los siguientes parámetros:

processor: - parse_route53: {}

Procesador de clave-valor

Analiza los datos con formato de pares clave-valor en campos estructurados.

Configuración

Configure el procesador de clave-valor con los siguientes parámetros:

processor: - key_value: source: "message" destination: "parsed_kv" field_delimiter: "&" key_value_delimiter: "="
Parameters
source (opcional)

Campo que contiene datos con el formato clave-valor. 128 caracteres como máximo.

destination (opcional)

Campo de destino para los pares clave-valor analizados. 128 caracteres como máximo.

field_delimiter (opcional)

Patrón para dividir pares clave-valor. 10 caracteres como máximo.

key_value_delimiter (opcional)

Patrón para separar las claves de los valores. 10 caracteres como máximo.

overwrite_if_destination_exists (opcional)

Si se debe sobrescribir el campo de destino existente.

prefix (opcional)

Prefijo que se agregará a las claves extraídas. 128 caracteres como máximo.

non_match_value (opcional)

Valor para claves sin coincidencias. 128 caracteres como máximo.

Para utilizar el procesador sin especificar ningún parámetro adicional, utilice el siguiente comando:

processor: - key_value: {}