

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Sottoscrizione di AWS Event Fork Pipelines a un argomento di Amazon SNS
<a name="sns-subscribe-event-fork-pipelines"></a>

Per accelerare lo sviluppo delle tue applicazioni basate sugli eventi, puoi sottoscrivere pipeline di gestione degli eventi, basate su AWS Event Fork Pipelines, agli argomenti di Amazon SNS. AWS **Event Fork Pipelines è una suite di applicazioni [annidate open source, basata sul AWS Serverless Application](https://docs.aws.amazon.com/serverless-application-model/latest/developerguide/serverless-sam-template-nested-applications.html) [Model](https://aws.amazon.com/serverless/sam/) (AWS SAM), che puoi distribuire direttamente dalla suite [AWS Event](https://serverlessrepo.aws.amazon.com/applications?query=aws-event-fork-pipelines) Fork Pipelines (scegli Show apps that create IAM role o policy di risorse personalizzate) nel tuo account.** AWS Per ulteriori informazioni, consulta [Come funziona AWS Event Fork Pipelines](sns-fork-pipeline-as-subscriber.md#how-sns-fork-works).

Questa sezione mostra come utilizzare il Console di gestione AWS per distribuire una pipeline e quindi sottoscrivere AWS Event Fork Pipelines a un argomento di Amazon SNS. Prima di iniziare, [crea un argomento Amazon SNS](sns-create-topic.md).

****Per eliminare le risorse che compongono una pipeline, trova la pipeline nella pagina **Applicazioni** della AWS Lambda console, espandi la **sezione dei modelli SAM**, scegli stack, quindi scegli Altre azioni, Elimina **CloudFormationstack**.****

# Implementazione e sottoscrizione della Event Storage and Backup Pipeline su Amazon SNS
<a name="deploy-event-storage-backup-pipeline"></a>


|  | 
| --- |
| Per l'archiviazione e l'analisi degli eventi, Amazon SNS ora consiglia di utilizzare la sua integrazione nativa con Amazon Data Firehose. Puoi abbonare i flussi di distribuzione Firehose agli argomenti SNS, il che ti consente di inviare notifiche a endpoint di archiviazione e analisi come i bucket Amazon Simple Storage Service (Amazon S3), le tabelle Amazon Redshift, Amazon Service (Service) e altro ancora. OpenSearch OpenSearch L'uso di Amazon SNS con i flussi di distribuzione Firehose è una soluzione completamente gestita e priva di codice che non richiede l'utilizzo di funzioni. AWS Lambda Per ulteriori informazioni, consulta [Flussi di distribuzione da Fanout a Firehose](sns-firehose-as-subscriber.md). | 

Questo tutorial mostra come distribuire la [pipeline di storage di eventi e di backup](sns-fork-pipeline-as-subscriber.md#sns-fork-event-storage-and-backup-pipeline) e iscriverla a un argomento Amazon SNS. Questo processo trasforma automaticamente il AWS SAM modello associato alla pipeline in uno CloudFormation stack, quindi distribuisce lo stack nel tuo. Account AWS Il processo inoltre crea e configura il set di risorse che compongono la pipeline di storage di eventi e di backup, tra cui:
+ Coda Amazon SQS
+ funzione Lambda
+ Flussi di distribuzione Firehose
+ S3 backup bucket Amazon S3

Per ulteriori informazioni sulla configurazione di uno stream con un bucket Amazon S3 come destinazione, consulta *Amazon Data `[S3DestinationConfiguration](https://docs.aws.amazon.com/firehose/latest/APIReference/API_S3DestinationConfiguration.html)` Firehose* API Reference.

Per ulteriori informazioni sulla trasformazione degli eventi e sulla configurazione del buffering degli eventi, della compressione degli eventi e della crittografia degli eventi, consulta [Creating an Delivery Stream](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html) nella Amazon *Data Firehose* Developer Guide.

Per ulteriori informazioni su come filtrare gli eventi, consulta [Policy di filtro degli abbonamenti Amazon SNS](sns-subscription-filter-policies.md) in questa guida.

1. Accedi alla [console AWS Lambda](https://console.aws.amazon.com/lambda/).

1. Nel riquadro di navigazione, selezionare **Functions (Funzioni)** e quindi **Create function (Crea funzione)**.

1. Nella pagina **Create function (Crea funzione)**, procedere come segue:

   1. Scegliere **Browse serverless app repository (Sfoglia repository app serverless)**, **Public applications (Applicazioni pubbliche)**, **Show apps that create custom IAM roles or resource policies (Mostra applicazioni in grado di creare ruoli IAM o policy di risorse personalizzati)**.

   1. Cercare `fork-event-storage-backup-pipeline` e scegliere l'applicazione.

1. Nella pagina **fork-event-storage-backup-pipeline**, procedi come segue:

   1. Nella sezione **Application settings (Impostazioni applicazione)**, immettere un **Application name (Nome applicazione)** (ad esempio `my-app-backup`).
**Nota**  
Il nome dell'applicazione deve essere univoco per ogni distribuzione. Se riutilizzi il nome di un'applicazione, la distribuzione aggiornerà solo lo CloudFormation stack precedentemente distribuito (anziché crearne uno nuovo).

   1. (Facoltativo) Per **BucketArn**, inserisci l'ARN del bucket Amazon S3 in cui vengono caricati gli eventi in entrata. Se non inserisci un valore, nel tuo account viene creato un nuovo bucket Amazon S3. AWS 

   1. (Facoltativo) Per **DataTransformationFunctionArn**, inserisci l'ARN della funzione Lambda attraverso la quale vengono trasformati gli eventi in entrata. In assenza di valori immessi, la trasformazione dei dati è disabilitata.

   1. (Facoltativo) Immettete una delle seguenti **LogLevel**impostazioni per l'esecuzione della funzione Lambda dell'applicazione:
      + `DEBUG`
      + `ERROR`
      + `INFO` (predefinito)
      + `WARNING`

   1. Per esempio **TopicArn**, inserisci l'ARN dell'argomento Amazon SNS a cui deve essere sottoscritta questa istanza della pipeline fork.

   1. (Facoltativo) Per **StreamBufferingIntervalInSeconds**e **StreamBufferingSizeInMBs**, inserisci i valori per configurare il buffering degli eventi in arrivo. In assenza di valori immessi, vengono impostati 300 secondi e 5 MB.

   1. (Facoltativo) Immettete una delle seguenti **StreamCompressionFormat**impostazioni per la compressione degli eventi in arrivo:
      + `GZIP`
      + `SNAPPY`
      + `UNCOMPRESSED` (predefinito)
      + `ZIP`

   1. (Facoltativo) Per **StreamPrefix**, inserisci il prefisso di stringa per denominare i file archiviati nel bucket di backup Amazon S3. In assenza di valori immessi, non viene utilizzato alcun prefisso.

   1. (Facoltativo) Per **SubscriptionFilterPolicy**, inserisci la politica di filtro degli abbonamenti Amazon SNS, in formato JSON, da utilizzare per filtrare gli eventi in arrivo. La politica di filtro decide quali eventi sono indicizzati nell'indice del servizio. OpenSearch In assenza di valori immessi, non viene applicato alcun filtro (tutti gli eventi vengono indicizzati).

   1. (Facoltativo) Per **SubscriptionFilterPolicyScope**, inserisci la stringa `MessageBody` o per `MessageAttributes` abilitare il filtraggio dei messaggi basato sul payload o sugli attributi. 

   1. Scegliere **I acknowledge that this app creates custom IAM roles, resource policies and deploys nested applications. (Riconosco che questa app crea ruoli IAM e policy di risorse personalizzati e distribuisce applicazioni nidificate.)**, quindi selezionare **Deploy (Distribuisci)**.

Nella *my-app* pagina **Stato di distribuzione per**, Lambda visualizza lo stato L'**applicazione è in fase di distribuzione**.

Nella sezione **Risorse**, CloudFormation inizia a creare lo stack e visualizza lo stato **CREATE\$1IN\$1PROGRESS** per ogni risorsa. **Quando il processo è completo, visualizza lo stato CREATE\$1COMPLETE. CloudFormation **

Al termine della distribuzione, Lambda mostra lo stato **Your application has been deployed (L'applicazione è stata distribuita)**.

I messaggi pubblicati sul tuo argomento Amazon SNS vengono archiviati automaticamente nel bucket di backup Amazon S3 fornito automaticamente dalla pipeline Event Storage and Backup.

# Implementazione e sottoscrizione della Event Search and Analytics Pipeline su Amazon SNS
<a name="deploy-event-search-analytics-pipeline"></a>


|  | 
| --- |
| Per l'archiviazione e l'analisi degli eventi, Amazon SNS ora consiglia di utilizzare la sua integrazione nativa con Amazon Data Firehose. Puoi abbonare i flussi di distribuzione Firehose agli argomenti SNS, il che ti consente di inviare notifiche a endpoint di archiviazione e analisi come i bucket Amazon Simple Storage Service (Amazon S3), le tabelle Amazon Redshift, Amazon Service (Service) e altro ancora. OpenSearch OpenSearch L'uso di Amazon SNS con i flussi di distribuzione Firehose è una soluzione completamente gestita e priva di codice che non richiede l'utilizzo di funzioni. AWS Lambda Per ulteriori informazioni, consulta [Flussi di distribuzione da Fanout a Firehose](sns-firehose-as-subscriber.md). | 

Questo tutorial mostra come distribuire la [pipeline di ricerca di eventi e di analisi](sns-fork-pipeline-as-subscriber.md#sns-fork-event-search-and-analytics-pipeline) e iscriverla a un argomento Amazon SNS. Questo processo trasforma automaticamente il AWS SAM modello associato alla pipeline in uno CloudFormation stack, quindi distribuisce lo stack nel tuo. Account AWS Il processo inoltre crea e configura il set di risorse che compongono la pipeline di ricerca di eventi e di analisi, tra cui:
+ Coda Amazon SQS
+ funzione Lambda
+ Flussi di distribuzione Firehose
+ Dominio Amazon OpenSearch Service
+ Bucket di Amazon S3

Per ulteriori informazioni sulla configurazione di uno stream con un indice come destinazione, consulta `[ElasticsearchDestinationConfiguration](https://docs.aws.amazon.com/firehose/latest/APIReference/API_ElasticsearchDestinationConfiguration.html)` *Amazon Data Firehose* API Reference.

Per ulteriori informazioni sulla trasformazione degli eventi e sulla configurazione del buffering degli eventi, della compressione degli eventi e della crittografia degli eventi, consulta [Creating an Delivery Stream](https://docs.aws.amazon.com/firehose/latest/dev/basic-create.html) nella Amazon *Data Firehose* Developer Guide.

Per ulteriori informazioni su come filtrare gli eventi, consulta [Policy di filtro degli abbonamenti Amazon SNS](sns-subscription-filter-policies.md) in questa guida.

1. Accedi alla [console AWS Lambda](https://console.aws.amazon.com/lambda/).

1. Nel riquadro di navigazione, selezionare **Functions (Funzioni)** e quindi **Create function (Crea funzione)**.

1. Nella pagina **Create function (Crea funzione)**, procedere come segue:

   1. Scegliere **Browse serverless app repository (Sfoglia repository app serverless)**, **Public applications (Applicazioni pubbliche)**, **Show apps that create custom IAM roles or resource policies (Mostra applicazioni in grado di creare ruoli IAM o policy di risorse personalizzati)**.

   1. Cercare `fork-event-search-analytics-pipeline` e scegliere l'applicazione.

1. Nella pagina **fork-event-search-analytics-pipeline**, procedi come segue:

   1. Nella sezione **Application settings (Impostazioni applicazione)**, immettere un **Application name (Nome applicazione)** (ad esempio `my-app-search`).
**Nota**  
Il nome dell'applicazione deve essere univoco per ogni distribuzione. Se riutilizzi il nome di un'applicazione, la distribuzione aggiornerà solo lo CloudFormation stack precedentemente distribuito (anziché crearne uno nuovo).

   1. (Facoltativo) Per **DataTransformationFunctionArn**, immettete l'ARN della funzione Lambda utilizzata per trasformare gli eventi in entrata. In assenza di valori immessi, la trasformazione dei dati è disabilitata.

   1. (Facoltativo) Immettete una delle seguenti **LogLevel**impostazioni per l'esecuzione della funzione Lambda dell'applicazione:
      + `DEBUG`
      + `ERROR`
      + `INFO` (predefinito)
      + `WARNING`

   1. (Facoltativo) Per **SearchDomainArn**, inserisci l'ARN del dominio del OpenSearch servizio, un cluster che configura le funzionalità di elaborazione e archiviazione necessarie. In assenza di valori immessi, viene creato un nuovo dominio con la configurazione predefinita.

   1. Per esempio **TopicArn**, inserisci l'ARN dell'argomento Amazon SNS a cui deve essere sottoscritta questa istanza della pipeline fork.

   1. Per **SearchIndexName**, inserisci il nome dell'indice dei OpenSearch servizi per la ricerca e l'analisi degli eventi.
**Nota**  
I seguenti limiti si applicano ai nomi degli indici:  
Non possono includere lettere maiuscole
Non possono includere i seguenti caratteri: `\ / * ? " < > | ` , #`
Non possono iniziare con i seguenti caratteri: `- + _`
Non possono corrispondere a: `. ..`
Non possono essere più lunghi di 80 caratteri
Non possono essere più lunghi di 255 byte
Non può contenere due punti (da OpenSearch Service 7.0)

   1. (Facoltativo) Immettete una delle seguenti **SearchIndexRotationPeriod**impostazioni per il periodo di rotazione dell'indice di OpenSearch servizio:
      + `NoRotation` (predefinito)
      + `OneDay`
      + `OneHour`
      + `OneMonth`
      + `OneWeek`

      La rotazione dell'indice aggiunge un timestamp al nome dell'indice, facilitando così la scadenza dei dati meno recenti. 

   1. Per **SearchTypeName**, inserisci il nome del tipo di OpenSearch servizio per l'organizzazione degli eventi in un indice.
**Nota**  
OpenSearch I nomi dei tipi di servizio possono contenere qualsiasi carattere (eccetto i byte nulli) ma non possono iniziare con. `_`
Per OpenSearch Service 6.x, può esistere un solo tipo per indice. Se si specifica un nuovo tipo per un indice esistente che ha già un altro tipo, Firehose restituisce un errore di runtime.

   1. (Facoltativo) Per **StreamBufferingIntervalInSeconds**e **StreamBufferingSizeInMBs**, inserite i valori per configurare il buffering degli eventi in entrata. In assenza di valori immessi, vengono impostati 300 secondi e 5 MB.

   1. (Facoltativo) Immettete una delle seguenti **StreamCompressionFormat**impostazioni per la compressione degli eventi in arrivo:
      + `GZIP`
      + `SNAPPY`
      + `UNCOMPRESSED` (predefinito)
      + `ZIP`

   1. (Facoltativo) Per **StreamPrefix**, inserisci il prefisso di stringa per denominare i file archiviati nel bucket con lettera morta di Amazon S3. In assenza di valori immessi, non viene utilizzato alcun prefisso.

   1. (Facoltativo) Per **StreamRetryDurationInSecons**, inserire la durata dei nuovi tentativi nei casi in cui Firehose non è in grado di indicizzare gli eventi nell'indice OpenSearch dei servizi. In assenza di valori immessi, viene utilizzato un valore di 300 secondi.

   1. (Facoltativo) Per **SubscriptionFilterPolicy**, inserisci la politica di filtro degli abbonamenti Amazon SNS, in formato JSON, da utilizzare per filtrare gli eventi in arrivo. La politica di filtro decide quali eventi sono indicizzati nell'indice del servizio. OpenSearch In assenza di valori immessi, non viene applicato alcun filtro (tutti gli eventi vengono indicizzati).

   1. Scegliere **I acknowledge that this app creates custom IAM roles, resource policies and deploys nested applications. (Riconosco che questa app crea ruoli IAM e policy di risorse personalizzati e distribuisce applicazioni nidificate.)**, quindi selezionare **Deploy (Distribuisci)**.

Nella *my-app-search* pagina **Stato di distribuzione per**, Lambda visualizza lo stato L'**applicazione è in fase di distribuzione**.

Nella sezione **Risorse**, CloudFormation inizia a creare lo stack e visualizza lo stato **CREATE\$1IN\$1PROGRESS** per ogni risorsa. **Quando il processo è completo, visualizza lo stato CREATE\$1COMPLETE. CloudFormation **

Al termine della distribuzione, Lambda mostra lo stato **Your application has been deployed (L'applicazione è stata distribuita)**.

I messaggi pubblicati sul tuo argomento Amazon SNS vengono indicizzati automaticamente nell'indice dei OpenSearch servizi fornito dalla pipeline Event Search and Analytics. Se la pipeline non è in grado di indicizzare un evento, lo archivia in un bucket con lettera morta di Amazon S3.

# Implementazione della Event Replay Pipeline con l'integrazione di Amazon SNS
<a name="deploy-event-replay-pipeline"></a>

Questoa pagina mostra come distribuire la [pipeline di riproduzione eventi](sns-fork-pipeline-as-subscriber.md#sns-fork-event-replay-pipeline) e iscriverla a un argomento Amazon SNS. Questo processo trasforma automaticamente il AWS SAM modello associato alla pipeline in uno CloudFormation stack, quindi distribuisce lo stack nel tuo. Account AWS Il processo inoltre crea e configura il set di risorse che compongono la pipeline di riproduzione eventi, tra cui una coda Amazon SQS e una funzione Lambda.

Per ulteriori informazioni su come filtrare gli eventi, consulta [Policy di filtro degli abbonamenti Amazon SNS](sns-subscription-filter-policies.md) in questa guida.

1. Accedi alla [console AWS Lambda](https://console.aws.amazon.com/lambda/).

1. Nel riquadro di navigazione, selezionare **Functions (Funzioni)** e quindi **Create function (Crea funzione)**.

1. Nella pagina **Create function (Crea funzione)**, procedere come segue:

   1. Scegliere **Browse serverless app repository (Sfoglia repository app serverless)**, **Public applications (Applicazioni pubbliche)**, **Show apps that create custom IAM roles or resource policies (Mostra applicazioni in grado di creare ruoli IAM o policy di risorse personalizzati)**.

   1. Cercare `fork-event-replay-pipeline` e scegliere l'applicazione.

1. Nella **fork-event-replay-pipeline**pagina, procedi come segue:

   1. Nella sezione **Application settings (Impostazioni applicazione)**, immettere un **Application name (Nome applicazione)** (ad esempio `my-app-replay`).
**Nota**  
Il nome dell'applicazione deve essere univoco per ogni distribuzione. Se riutilizzate il nome di un'applicazione, la distribuzione aggiornerà solo lo CloudFormation stack precedentemente distribuito (anziché crearne uno nuovo).

   1. (Facoltativo) Immettete una delle seguenti **LogLevel**impostazioni per l'esecuzione della funzione Lambda dell'applicazione:
      + `DEBUG`
      + `ERROR`
      + `INFO` (predefinito)
      + `WARNING`

   1. (Facoltativo) Per **ReplayQueueRetentionPeriodInSeconds**, inserisci il periodo di tempo, in secondi, per il quale la coda di replay di Amazon SQS conserva il messaggio. In assenza di valori immessi, viene utilizzato un valore di 1.209.600 secondi (14 giorni).

   1. Per esempio **TopicArn**, inserisci l'ARN dell'argomento Amazon SNS a cui deve essere sottoscritta questa istanza della pipeline fork.

   1. Per **DestinationQueueName**, inserisci il nome della coda Amazon SQS a cui la funzione di replay Lambda inoltra i messaggi.

   1. (Facoltativo) Per **SubscriptionFilterPolicy**, inserisci la politica di filtro degli abbonamenti Amazon SNS, in formato JSON, da utilizzare per filtrare gli eventi in arrivo. Tale policy definisce quali eventi vengono aggiunti al buffer per la riproduzione. In assenza di valori immessi, non viene applicato alcun filtro (tutti gli eventi vengono aggiunti al buffer per la riproduzione).

   1. Scegliere **I acknowledge that this app creates custom IAM roles, resource policies and deploys nested applications. (Riconosco che questa app crea ruoli IAM e policy di risorse personalizzati e distribuisce applicazioni nidificate.)**, quindi selezionare **Deploy (Distribuisci)**.

Nella *my-app-replay* pagina **Stato di distribuzione per**, Lambda visualizza lo stato L'**applicazione è in fase di distribuzione**.

Nella sezione **Risorse**, CloudFormation inizia a creare lo stack e visualizza lo stato **CREATE\$1IN\$1PROGRESS** per ogni risorsa. **Quando il processo è completo, visualizza lo stato CREATE\$1COMPLETE. CloudFormation **

Al termine della distribuzione, Lambda mostra lo stato **Your application has been deployed (L'applicazione è stata distribuita)**.

I messaggi pubblicati nell'argomento Amazon SNS vengono aggiunti al buffer per la riproduzione nella coda Amazon SQS assegnata automaticamente dalla pipeline di riproduzione eventi.

**Nota**  
La riproduzione è disabilitata per impostazione predefinita. Per abilitarla, accedi alla pagina della funzione sulla console Lambda, espandi la sezione **Designer**, seleziona il riquadro **SQS** e quindi, nella sezione **SQS**, scegli **Enabled (Abilitata)**.