

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Écrivez sur Kinesis Data Streams à l'aide d'autres services AWS
<a name="using-other-services"></a>

Les AWS services suivants peuvent s'intégrer directement à Amazon Kinesis Data Streams pour écrire des données dans des flux de données Kinesis. Passez en revue les informations relatives à chaque service qui vous intéresse et reportez-vous aux références fournies.

**Topics**
+ [Écrivez dans Kinesis Data Streams à l'aide de AWS Amplify](using-other-services-amplify.md)
+ [Écrire sur Kinesis Data Streams à l'aide d'Amazon Aurora](using-other-services-aurora.md)
+ [Écrivez sur Kinesis Data Streams à l'aide d'Amazon CloudFront](using-other-services-CloudFront.md)
+ [Écrivez sur Kinesis Data Streams à l'aide d'Amazon Logs CloudWatch](using-other-services-cw-logs.md)
+ [Écrivez sur Kinesis Data Streams à l'aide d'Amazon Connect](using-other-services-connect.md)
+ [Écrivez dans Kinesis Data Streams à l'aide de AWS Database Migration Service](using-other-services-migration.md)
+ [Écrire sur Kinesis Data Streams à l'aide d'Amazon DynamoDB](using-other-services-ddb.md)
+ [Écrivez sur Kinesis Data Streams à l'aide d'Amazon EventBridge](using-other-services-eventbridges.md)
+ [Écrivez dans Kinesis Data Streams à l'aide de AWS IoT Core](using-other-services-iot-core.md)
+ [Écrire sur Kinesis Data Streams à l'aide d'Amazon Relational Database Service](using-other-services-rds.md)
+ [Écrivez sur Kinesis Data Streams à l'aide d'Amazon Pinpoint](using-other-services-pinpoint.md)
+ [Écrire dans Kinesis Data Streams à l'aide de la base de données Amazon Quantum Ledger (Amazon QLDB)](using-other-services-quantum-ledger.md)

# Écrivez dans Kinesis Data Streams à l'aide de AWS Amplify
<a name="using-other-services-amplify"></a>

Vous pouvez utiliser Amazon Kinesis Data Streams pour diffuser des données à partir de vos applications mobiles conçues avec AWS Amplify pour un traitement en temps réel. Vous pouvez ensuite créer des tableaux de bord en temps réel, capturer les exceptions et générer des alertes, formuler des recommandations et prendre d'autres décisions commerciales ou opérationnelles en temps réel. Vous pouvez également envoyer des données à d'autres services tels qu'Amazon Simple Storage Service, Amazon DynamoDB et Amazon Redshift.

Pour plus d'informations, consultez la rubrique [Utilisation d'Amazon Kinesis](https://docs.amplify.aws/react/build-a-backend/more-features/analytics/streaming-data/) (français non garanti) dans le *Guide du développeur AWS Amplify*. 

# Écrire sur Kinesis Data Streams à l'aide d'Amazon Aurora
<a name="using-other-services-aurora"></a>

Vous pouvez utiliser Amazon Kinesis Data Streams pour surveiller les activités de vos clusters de bases de données Amazon Aurora. Grâce aux flux d'activités de base de données, votre cluster de bases de données Aurora pousse les activités vers un flux de données Amazon Kinesis Data Streams en temps réel. Vous pouvez ensuite créer des applications de gestion de la conformité qui utilisent ces activités, les contrôlent et génèrent des alertes. Vous pouvez également utiliser Amazon Firehose pour stocker les données.

Pour plus d'informations, consultez la rubrique [Flux d'activités de base de données](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/DBActivityStreams.html) dans le *Guide du développeur Amazon Aurora* (français non garanti). 

# Écrivez sur Kinesis Data Streams à l'aide d'Amazon CloudFront
<a name="using-other-services-CloudFront"></a>

Vous pouvez utiliser Amazon Kinesis Data Streams CloudFront avec des journaux en temps réel et obtenir des informations sur les demandes adressées à une distribution en temps réel. Vous pouvez ensuite créer votre propre [consommateur de flux de données Kinesis](https://docs.aws.amazon.com/streams/latest/dev/building-consumers.html) ou utiliser Amazon Data Firehose pour envoyer les données de journal à Amazon S3, Amazon Redshift, Amazon OpenSearch Service ou à un service de traitement des journaux tiers.

Pour plus d'informations, consultez la section [Journaux en temps réel](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/real-time-logs.html) du manuel *Amazon CloudFront Developer Guide*. 

# Écrivez sur Kinesis Data Streams à l'aide d'Amazon Logs CloudWatch
<a name="using-other-services-cw-logs"></a>

Vous pouvez utiliser des CloudWatch abonnements pour accéder à un flux en temps réel des événements du journal depuis Amazon CloudWatch Logs et le transmettre à un flux de données Kinesis à des fins de traitement, d'analyse et de chargement vers d'autres systèmes. 

Pour plus d'informations, consultez la section [Traitement en temps réel des données de journal avec les abonnements](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/Subscriptions.html) dans le *guide de l'utilisateur Amazon CloudWatch Logs*. 

# Écrivez sur Kinesis Data Streams à l'aide d'Amazon Connect
<a name="using-other-services-connect"></a>

Vous pouvez utiliser les flux de données Kinesis Data Streams pour exporter les enregistrements de contacts et les événements des agents en temps réel à partir de votre instance Amazon Connect. Vous pouvez également activer le streaming de données à partir des profils clients Amazon Connect pour recevoir automatiquement des mises à jour d'un flux de données Kinesis concernant la création de nouveaux profils ou la modification de profils existants.

Vous pouvez ensuite créer des applications grand public pour traiter et analyser les données en temps réel. Par exemple, en utilisant les enregistrements de contacts et les données de profil client, vous pouvez conserver les données de vos systèmes sources, telles que CRMs les outils d'automatisation du marketing, up-to-date avec les informations les plus récentes. En utilisant les données relatives aux événements des agents, vous pouvez créer des tableaux de bord qui affichent les informations et les événements relatifs aux agents, et déclencher des notifications personnalisées en cas d'activités spécifiques des agents.

Pour plus d'informations, consultez les rubriques [Flux de données pour votre instance](https://docs.aws.amazon.com/connect/latest/adminguide/data-streaming.html), [Configuration de l'exportation en temps réel](https://docs.aws.amazon.com/connect/latest/adminguide/set-up-real-time-export.html) et [Flux d'événements de l'agent](https://docs.aws.amazon.com/connect/latest/adminguide/agent-event-streams.html) dans le *Guide de l'administrateur Amazon Connect* (français non garanti). 

# Écrivez dans Kinesis Data Streams à l'aide de AWS Database Migration Service
<a name="using-other-services-migration"></a>

Vous pouvez l'utiliser AWS Database Migration Service pour migrer des données vers un flux de données Kinesis. Vous pouvez ensuite créer des applications consommateur qui traitent les enregistrements de données en temps réel. Vous pouvez également facilement envoyer des données en aval vers d'autres services tels qu'Amazon Simple Storage Service, Amazon DynamoDB et Amazon Redshift

Pour plus d'informations, consultez la rubrique [Utilisation de Kinesis Data Streams](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.Kinesis.html) dans le *Guide de l'utilisateur AWS Database Migration Service *. 

# Écrire sur Kinesis Data Streams à l'aide d'Amazon DynamoDB
<a name="using-other-services-ddb"></a>

Vous pouvez utiliser Amazon Kinesis Data Streams pour capturer les modifications apportées à Amazon DynamoDB. Kinesis Data Streams récupère les modifications au niveau élément dans n’importe quelle table DynamoDB et les réplique dans un flux de données Kinesis de votre choix. Vos applications consommateur peuvent accéder à ce flux pour visualiser les modifications au niveau de l'élément en temps réel et transmettre ces modifications en aval ou prendre des mesures en fonction du contenu.

Pour plus d'informations, consultez la rubrique [Fonctionnement des flux de données Kinesis Data Streams avec DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/kds.html) dans le *Guide du développeur Amazon DynamoDB*. 

# Écrivez sur Kinesis Data Streams à l'aide d'Amazon EventBridge
<a name="using-other-services-eventbridges"></a>

Kinesis Data Streams vous permet d' AWS envoyer des événements d'[appel](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-events.html) d'API EventBridge dans un flux, de créer des applications grand public et de traiter de grandes quantités de données. Vous pouvez également utiliser Kinesis Data Streams comme cible EventBridge dans Pipes et diffuser des enregistrements sous forme de flux à partir de l'une des sources disponibles après un filtrage et un enrichissement facultatifs.

Pour plus d'informations, consultez [Envoyer des événements vers un flux Amazon Kinesis](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-relay-events-kinesis-stream.html) et [EventBridge Pipes](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-pipes.html) dans le guide de * EventBridge l'utilisateur Amazon*. 

# Écrivez dans Kinesis Data Streams à l'aide de AWS IoT Core
<a name="using-other-services-iot-core"></a>

Vous pouvez écrire des données en temps réel à partir de messages MQTT dans AWS IoT Core en utilisant des actions AWS IoT Rule. Vous pouvez ensuite créer des applications qui traitent les données, analysent leur contenu, génèrent des alertes et les transmettent à des applications d'analyse ou à d'autres services  AWS . 

Pour plus d'informations, consultez la rubrique [Kinesis Data Streams](https://docs.aws.amazon.com/iot/latest/developerguide/kinesis-rule-action.html) (français non garanti) dans le *Guide du développeur AWS * (français non garanti). 

# Écrire sur Kinesis Data Streams à l'aide d'Amazon Relational Database Service
<a name="using-other-services-rds"></a>

Vous pouvez utiliser Amazon Kinesis Data Streams pour surveiller les activités de vos instances Amazon RDS. À l'aide des flux d'activité de base de données, Amazon RDS transmet les activités vers un flux de données Kinesis en temps réel. Vous pouvez ensuite créer des applications de gestion de la conformité qui utilisent ces activités, les contrôlent et génèrent des alertes. Vous pouvez également utiliser Amazon Data Firehose pour stocker les données.

Pour plus d'informations, consultez la rubrique [Flux d'activités de base de données](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/DBActivityStreams.html) dans le *Guide du développeur Amazon RDS* (français non garanti). 

# Écrivez sur Kinesis Data Streams à l'aide d'Amazon Pinpoint
<a name="using-other-services-pinpoint"></a>

Vous pouvez configurer Amazon Pinpoint pour qu'il envoie des données d'événements à Amazon Kinesis Data Streams. Amazon Pinpoint peut envoyer des données d'événements pour les campagnes, les parcours et les e-mails et SMS transactionnels. Vous avez ensuite la possibilité d'ingérer ces données dans des applications d'analyse ou de créer vos propres applications consommateur qui agissent en fonction du contenu des événements.

Pour plus d'informations, consultez la rubrique [Événements en flux continu](https://docs.aws.amazon.com/pinpoint/latest/developerguide/event-streams.html) dans le *Guide du développeur Amazon Pinpoint*. 

# Écrire dans Kinesis Data Streams à l'aide de la base de données Amazon Quantum Ledger (Amazon QLDB)
<a name="using-other-services-quantum-ledger"></a>

Vous pouvez créer un flux dans Amazon QLDB qui capture chaque révision de document enregistrée dans votre journal et transmet ces données à Amazon Kinesis Data Streams en temps réel. Le flux QLDB représente un flux ininterrompu de données allant du journal de votre registre vers une ressource de flux de données Kinesis. Vous pouvez ensuite utiliser la plateforme de flux continu Kinesis ou la bibliothèque client Kinesis Client Library pour consommer votre flux, traiter les enregistrements de données et analyser le contenu des données. Le flux QLDB écrit vos données dans les flux de données Kinesis Data Streams sous la forme de trois types d'enregistrements : `control`, `block summary` et `revision details`. 

Pour plus d'informations, consultez la rubrique [Flux](https://docs.aws.amazon.com/qldb/latest/developerguide/streams.html) dans le *Guide du développeur Amazon QLDB* (français non garanti). 