パーサープロセッサ - Amazon CloudWatch

パーサープロセッサ

パーサープロセッサは、未加工または半構造化ログデータを構造化形式に変換します。各パイプラインには最大 1 個のパーサープロセッサを含めることができますが、このパーサープロセッサはパイプラインの最初のプロセッサである必要があります。

OCSF プロセッサ

Open Cybersecurity Schema Framework (OCSF) 標準に従ってログデータを解析および変換します。

設定

以下のパラメータを使用して OCSF プロセッサを設定します。

processor: - ocsf: version: "1.5" mapping_version: 1.5.0 schema: microsoft_office365_management_activity:
パラメータ
version (必須)

変換に使用する OCSF スキーマのバージョン。1.5 である必要があります

mapping_version (必須)

変換用の OCSF マッピングバージョン。1.5.0 である必要があります

schema (必須)

データソースタイプを指定するスキーマオブジェクト。サポートされるスキーマはパイプラインソースタイプによって異なります。各ソースタイプには互換性のある OCSF スキーマの独自のセットがあります。パイプラインのソースタイプに一致するスキーマを使用する必要があります。

この表には、サポートされているスキーマの組み合わせが一覧表示されています。

パイプラインソースタイプ サポートされているスキーマ バージョン マッピングのバージョン
cloudwatch_logs cloud_trail: 1.5 不要
cloudwatch_logs route53_resolver: 1.5 不要
cloudwatch_logs vpc_flow: 1.5 不要
cloudwatch_logs eks_audit: 1.5 不要
cloudwatch_logs aws_waf: 1.5 不要
s3 任意の OCSF スキーマ いずれか すべて
microsoft_office365 microsoft_office365: 1.5 1.5.0
microsoft_entraid microsoft_entraid: 1.5 1.5.0
microsoft_windows_event microsoft_windows_event: 1.5 1.5.0
paloaltonetworks_nextgenerationfirewall paloaltonetworks_nextgenerationfirewall: 1.5 1.5.0
okta_auth0 okta_auth0: 1.5 1.5.0
okta_sso okta_sso: 1.5 1.5.0
crowdstrike_falcon crowdstrike_falcon: 1.5 1.5.0
github_auditlogs github_auditlogs: 1.5 1.5.0
sentinelone_endpointsecurity sentinelone_endpointsecurity: 1.5 1.5.0
servicenow_cmdb servicenow_cmdb: 1.5 1.5.0
wiz_cnapp wiz_cnapp: 1.5 1.5.0
zscaler_internetaccess zscaler_internetaccess: 1.5 1.5.0

CSV プロセッサ

CSV 形式のデータを構造化フィールドに解析します。

設定

次のパラメータを使用して CSV プロセッサを設定します。

processor: - csv: column_names: ["col1", "col2", "col3"] delimiter: "," quote_character: '"'
パラメータ
column_names (オプション)

解析されたフィールドの列名の配列。最大 100 列、各名前の最大文字数は 128 文字です。指定しない場合、デフォルトで column_1、column_2 などになります。

delimiter (オプション)

CSV フィールドを区切るために使用される文字。1 文字にする必要があります。デフォルトはカンマ「,」です。

quote_character (オプション)

区切り文字を含む CSV フィールドを囲む引用符として使用される文字。1 文字にする必要があります。デフォルトは二重引用符「"」です。

追加のパラメータを指定せずにプロセッサを使用するには、次のコマンドを使用します。

processor: - csv: {}

Grok プロセッサ

Grok パターンを使用して非構造化データを解析します。パイプラインごとに 1 つの Grok がサポートされています。CloudWatch Logs の Grok トランスフォーマーの詳細については、「CloudWatch Logs ユーザーガイド」の「Processors that you can use」を参照してください。

設定

次のパラメータを使用して Grok プロセッサを設定します。

データソースがディクショナリの場合、この設定を使用できます。

processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]

データソースが CloudWatch Logs の場合、この設定を使用できます。

processor: - grok: match: source_key: ["%{WORD:level} %{GREEDYDATA:msg}"]
パラメータ
match (必須)

Grok パターンを使用したフィールドマッピング。許可されるフィールドマッピングは 1 つだけです。

match.<field> (必須)

単一の Grok パターンを使用した配列。パターンあたりの最大文字数は 512 文字です。

VPC プロセッサ

VPC フローログデータを構造化フィールドに解析します。

設定

次のパラメータを使用して VPC プロセッサを設定します。

processor: - parse_vpc: {}

JSON プロセッサ

JSON データを構造化フィールドに解析します。

設定

次のパラメータを使用して JSON プロセッサを設定します。

processor: - parse_json: source: "message" destination: "parsed_json"
パラメータ
source (オプション)

解析する JSON データを含むフィールド。省略すると、ログメッセージ全体が処理されます。

destination (オプション)

解析された JSON が保存されるフィールド。省略すると、解析されたフィールドがルートレベルに追加されます。

Route 53 プロセッサ

Route 53 リゾルバーのログデータを構造化フィールドに解析します。

設定

次のパラメータを使用して Route 53 プロセッサを設定します。

processor: - parse_route53: {}

Key-value プロセッサ

キーと値のペア形式のデータを構造化フィールドに展開します。

設定

次のパラメータを使用して key-value プロセッサを設定します。

processor: - key_value: source: "message" destination: "parsed_kv" field_delimiter: "&" key_value_delimiter: "="
パラメータ
source (オプション)

キーと値のデータを含むフィールド。最大 128 文字

destination (オプション)

解析されたキーと値のペアのターゲットフィールド。最大 128 文字

field_delimiter (オプション)

キーと値のペアを分割するパターン。最大 10 文字

key_value_delimiter (オプション)

値からキーを分割するパターン。最大 10 文字

overwrite_if_destination_exists (オプション)

既存の送信先フィールドを上書きするかどうかの選択。

prefix (オプション)

抽出されたキーに追加するプレフィックス。最大 128 文字

non_match_value (オプション)

一致しないキーの値。最大 128 文字

追加のパラメータを指定せずにプロセッサを使用するには、次のコマンドを使用します。

processor: - key_value: {}