

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Configuration des paramètres de source pour Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Configurez les paramètres de source pour Amazon Kinesis Data Streams afin d'envoyer des informations à un flux Firehose comme suit.

**Important**  
Si vous utilisez la bibliothèque producteur Kinesis (KPL) pour écrire des données dans un flux de données Kinesis, vous pouvez utiliser un regroupement pour combiner ces enregistrements Kinesis. Si vous utilisez ensuite ce flux de données comme source pour votre flux Firehose, Amazon Data Firehose désagrège les enregistrements avant de les envoyer à destination. Si vous configurez votre flux Firehose pour transformer les données, Amazon Data Firehose désagrège les enregistrements avant de les transmettre. AWS Lambda Pour de plus amples informations, veuillez consulter [Developing Amazon Kinesis Data Streams Producers Using the Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) and [Aggregation](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

Dans les **paramètres Source**, choisissez un flux existant dans la liste des **flux de données Kinesis** ou entrez un ARN de flux de données au format. `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`

Si vous ne disposez pas d'un flux de données existant, choisissez **Create** pour en créer un nouveau depuis la console Amazon Kinesis. Vous aurez peut-être besoin d'un rôle IAM disposant des autorisations nécessaires sur le flux Kinesis. Pour de plus amples informations, veuillez consulter [Accorder à Firehose l'accès à une destination Amazon S3](controlling-access.md#using-iam-s3). Après avoir créé un nouveau flux, cliquez sur l'icône d'actualisation pour mettre à jour la liste des **flux Kinesis**. Si vous avez un grand nombre de flux, filtrez la liste avec l'option **Filter by name** (Filtrer par nom). 

**Note**  
Lorsque vous configurez un flux de données Kinesis comme source d'un flux Firehose, Amazon Data `PutRecord` Firehose et ses opérations sont désactivés. `PutRecordBatch` Dans ce cas, pour ajouter des données à votre flux Firehose, utilisez les Kinesis Data Streams et les opérations. `PutRecord` `PutRecords`

Amazon Data Firehose commence à lire les données à partir de la `LATEST` position de votre flux Kinesis. Pour plus d'informations sur les positions de Kinesis Data Streams, [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html)consultez.

 Amazon Data Firehose lance l'[GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html)opération Kinesis Data Streams une fois par seconde pour chaque partition. Toutefois, lorsque la sauvegarde complète est activée, Firehose lance l'`GetRecords`opération Kinesis Data Streams deux fois par seconde pour chaque partition, une pour la destination de diffusion principale et une autre pour une sauvegarde complète.

Plusieurs flux Firehose peuvent être lus à partir du même flux Kinesis. D'autres applications Kinesis (de type consommateur) peuvent également lire des données à partir du même flux. Chaque appel provenant d'un stream Firehose ou d'une autre application grand public est pris en compte dans la limite de limitation globale de la partition. Pour éviter les restrictions, planifiez attentivement vos applications. Pour plus d'informations sur les limites de Kinesis Data Streams, consultez [Amazon Kinesis Streams Limits](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Passez à l'étape suivante pour configurer la transformation des enregistrements et la conversion des formats.