As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Alvos da Amazon EventBridge Pipes
É possível enviar dados em seu pipe para um destino específico. Você pode configurar os seguintes alvos ao configurar um tubo em EventBridge:
-
Fluxo de entrega do Firehose
-
Modelo de avaliação do Inspector
-
Fluxo do Kinesis
-
Consultas de API de dados do cluster do Redshift
-
SageMaker Pipeline de IA
-
Tópico do Amazon SNS (tópicos FIFO do SNS incompatíveis)
-
Fila do Amazon SQS
-
Máquina de estado do Step Functions
-
Fluxos de trabalho expressos (SYNC ou ASYNC)
-
Fluxos de trabalho padrão (ASYNC)
-
Parâmetros de destino
Alguns serviços de destino não enviam a carga do evento para o destino; em vez disso, eles tratam o evento como um gatilho para invocar uma API específica. EventBridge usa o PipeTargetParameterspara especificar quais informações são enviadas para essa API. Incluindo o seguinte:
-
Destinos da API (os dados enviados para o destino da API devem corresponder à estrutura da API. É preciso usar o objeto
InputTemplatepara garantir que os dados sejam estruturados corretamente. Se quiser incluir a carga original do evento, faça referência a ela noInputTemplate.) -
API Gateway (os dados enviados para o API Gateway devem corresponder à estrutura da API. É preciso usar o objeto
InputTemplatepara garantir que os dados sejam estruturados corretamente. Se quiser incluir a carga original do evento, faça referência a ela noInputTemplate.) -
PipeTargetRedshiftDataParameters(Clusters da API de dados do Amazon Redshift) -
PipeTargetSageMakerPipelineParameters(Amazon SageMaker Runtime Model Building Pipelines) -
PipeTargetBatchJobParameters(AWS Batch)
nota
EventBridge não suporta toda a sintaxe do JSON Path e a avalia em tempo de execução. A sintaxe compatível inclui:
notação de pontos (por exemplo,
$.detail)traços
sublinhados
caracteres alfanuméricos
índices de matriz
curingas (*)
cortes para frente
Parâmetros dinâmicos do caminho
EventBridge Os parâmetros de destino do Pipes oferecem suporte à sintaxe de caminho JSON dinâmico opcional. É possível usar esta sintaxe para especificar caminhos JSON em vez de valores estáticos (por exemplo $.detail.state). O valor inteiro precisa ser um caminho JSON, não apenas parte dele. Por exemplo, RedshiftParameters.Sql pode ser $.detail.state, mas não pode ser "SELECT * FROM $.detail.state". Estes caminhos são substituídos dinamicamente em runtime por dados da própria carga do evento no caminho especificado. Os parâmetros do caminho dinâmico não podem referenciar valores novos ou transformados resultantes da transformação de entrada. A sintaxe compatível com caminhos JSON de parâmetros dinâmicos é a mesma da transformação da entrada. Para obter mais informações, consulte Transformação EventBridge de entradas do Amazon Pipes.
A sintaxe dinâmica pode ser usada em todos os campos de string, não enumerados, de todos os parâmetros de enriquecimento e de destino do EventBridge Pipes, exceto:
-
"$.data.para uma origem do KinesissomeKey" -
"$.body.para uma origem do Amazon SQSsomeKey"
Então, se a carga do evento for uma string JSON válida, como{", EventBridge extrai o valor do caminho JSON e o usa como parâmetro de destino. Neste exemplo, EventBridge definiria o Kinesis someKey":"someValue"}PartitionKey como "”someValue.
Permissões
Para fazer chamadas de API nos recursos que você possui, o EventBridge Pipes precisa da permissão apropriada. EventBridge PIpes usa a função do IAM que você especifica no canal para enriquecimento e chamadas de destino usando o IAM principalpipes.amazonaws.com.
Como invocar os destinos
EventBridge tem as seguintes formas de invocar um alvo:
-
De forma síncrona (tipo de invocação definido como
REQUEST_RESPONSE) — EventBridge espera por uma resposta do alvo antes de continuar. -
De forma assíncrona (tipo de invocação definido como
FIRE_AND_FORGET) — EventBridge não espera por uma resposta antes de continuar.
Por padrão, para canais com fontes ordenadas, EventBridge invoca destinos de forma síncrona porque é necessária uma resposta do destino antes de prosseguir para o próximo evento.
Se uma fonte não impuser um pedido, como uma fila padrão do Amazon SQS, pode invocar um destino compatível de forma EventBridge síncrona ou assíncrona.
Com as funções do Lambda e as máquinas de estado Step Functions, é possível configurar o tipo de invocação.
nota
Para máquinas de estado Step Functions, os Fluxos de trabalho padrão devem ser invocados de forma assíncrona.
Limites de tamanho de carga
EventBridge O Pipes suporta cargas úteis de até 6 MB. No entanto, o limite efetivo do tamanho da carga útil é determinado pelo que for menor: o limite do Pipes de 6 MB ou o tamanho máximo da carga útil do serviço de destino. Por exemplo:
-
As funções do Lambda suportam cargas de até 6 MB, portanto, o limite efetivo para um canal direcionado ao Lambda é de 6 MB.
-
EventBridge os barramentos de eventos suportam cargas úteis de até 1 MB, portanto, o limite efetivo para um tubo direcionado a um barramento de eventos é de 1 MB.
-
As máquinas de estado do Step Functions suportam cargas de até 256 KB, portanto, o limite efetivo para um canal direcionado ao Step Functions é 256 KB.
Ao configurar sua tubulação, certifique-se de que o tamanho da carga útil, incluindo quaisquer transformações aplicadas por enriquecimento ou transformação de entrada, não exceda o tamanho máximo da carga útil da meta.
AWS Batch especificidades do alvo das filas de trabalhos
Todos os AWS Batch submitJob parâmetros são configurados explicitamente com eBatchParameters, como acontece com todos os parâmetros do Pipe, eles podem ser dinâmicos usando um caminho JSON para a carga útil do evento de entrada.
CloudWatch Detalhes específicos do alvo do grupo de registros
Quer use um transformador de entrada ou não, a carga útil do evento é usada como mensagem de log. É possível definir o Timestamp (ou o explícito LogStreamName de seu destino) por meio de CloudWatchLogsParameters em PipeTarget. Como acontece com todos os parâmetros de pipe, eles podem ser dinâmicos usando um caminho JSON para a carga útil do evento de entrada.
Especificidades do destino para tarefa do Amazon ECS
Todos os parâmetros runTask do Amazon ECS são configurados explicitamente por meio de EcsParameters. Como acontece com todos os parâmetros de pipe, eles podem ser dinâmicos usando um caminho JSON para a carga útil do evento de entrada.
Especificidades do destino para funções do Lambda e fluxos de trabalho do Step Functions
Lambda e Step Functions não têm uma API em lote. Para processar lotes de eventos de uma origem de pipe, o lote é convertido em uma matriz JSON e passado como entrada para o destino Lambda ou Step Functions. Para obter mais informações, consulte Lotes e simultaneidade do Amazon EventBridge Pipes.
Timestream para detalhes específicos do alvo da LiveAnalytics tabela
As considerações ao especificar uma LiveAnalytics tabela Timestream for como destino de tubulação incluem:
-
Atualmente, os streams do Apache Kafka (inclusive de fornecedores terceirizados Amazon MSK ou de terceiros) não são suportados como fonte de canais.
-
Se você especificou um DynamoDB fluxo Kinesis ou como a fonte do canal, deverá especificar o número de tentativas de repetição.
Para obter mais informações, consulte Como configurar as definições de pipe.
EventBridge especificações específicas do alvo do ônibus de eventos
Quando você configura um barramento de EventBridge eventos como um alvo de tubulação, a carga útil de sua tubulação é automaticamente colocada na detail seção do EventBridge evento. Use PipeTargetEventBridgeEventBusParameterspara configurar o evento source e detail-type os campos. Ambos os campos oferecem suporte à sintaxe de caminho JSON dinâmico para extrair valores da carga útil do evento. Por exemplo, Source defina como $.body.source ou DetailType para$.data.eventType. Você também pode usar transformadores de entrada para modificar a estrutura do evento antes que ele seja colocado no detail campo. Para obter mais informações, consulte Transformação EventBridge de entradas do Amazon Pipes.